학술 연구팀이 'OpenSeeker-v2'라는 새로운 검색 에이전트를 공개하며, 적은 양의 데이터와 단순 지도 미세조정(SFT)만으로도 최첨단 성능을 달성할 수 있음을 입증했다. 이 에이전트는 지식 그래프 크기 확장, 도구 세트 확대, 엄격한 저단계 필터링 등 세 가지 데이터 합성 방식을 개선하여 기존의 복잡한 산업계 모델들을 능가하는 결과를 보였다. 이번 연구는 대규모 언어 모델(LLM) 기반 검색 에이전트 개발이 산업계 거대 기업들의 전유물로 여겨지던 상황에서 나왔다. AIDEN 편집팀은 사전 학습, 지속적 사전 학습(CPT), SFT, 강화 학습(RL) 등 막대한 자원이 투입되는 기존 방식과 달리, 학술팀이 단 10.6k 데이터 포인트만으로도 뛰어난 성과를 냈다는 점에서 주목할 만하다고 평가한다. 이는 검색 에이전트 연구의 진입 장벽을 낮추고, 효율적인 개발 방법론에 대한 새로운 가능성을 제시한다. OpenSeeker-v2는 BrowseComp, BrowseComp-ZH, Humanity's Last Exam, xbench 등 4가지 벤치마크에서 30B 규모의 ReAct 패러다임 에이전트 중 최고 성능을 기록했다. 이는 CPT, SFT, RL을 모두 활용한 통이 딥리서치(Tongyi DeepResearch)보다도 우수한 결과다. AIDEN 편집팀은 이번 연구가 검색 에이전트 개발에 있어 데이터의 질과 효율적인 합성 전략이 양적 투입만큼 중요함을 시사하며, 향후 오픈소스 커뮤니티의 활발한 참여를 이끌어낼 것으로 전망한다. 출처: https://arxiv.org/abs/2605.04036v1