다중 에이전트 시스템은 종종 실망스럽습니까? 문제는 에이전트 자체에 있는 것이 아니라, 에이전트가 조직된 방식에 있을 수 있습니다. 대부분의 시스템은 작업 변경에 따라 조정할 수 없는 고정된 체인, 트리 또는 그래프 구조를 사용합니다. 하지만 시스템이 스스로 협업 패턴을 학습할 수 있다면 어떨까요? 이 획기적인 논문에서는 미리 설계된 토폴로지에 의존하지 않고도 에이전트를 동적으로 조정할 수 있는 Puppeteer라는 프레임워크를 소개합니다. 핵심은 다음과 같습니다. • 미리 정의된 협업 구조 대신, 코디네이터는 끊임없이 변화하는 대화 상태를 기반으로 다음에 말할 에이전트를 선택합니다. • REINFORCE 알고리즘 학습 전략은 작업 성공률을 직접 최적화합니다. • 복잡한 그래프 토폴로지를 검색하는 대신 모든 콘텐츠를 연속적인 에이전트 선택으로 직렬화하여 조합적 복잡성을 피합니다. 결과는 놀라웠습니다. 이는 2~3명의 에이전트가 대부분의 작업을 처리하는 대규모 그래프 구조보다는 컴팩트하고 순환적인 패턴으로 자연스럽게 이어집니다. 더욱 인상적인 점은 이 시스템이 스스로 효율성을 자율적으로 감지할 수 있다는 것입니다. 결과 쇼케이스: • GSM-Hard 수학 문제에서 정확도는 70%에 도달합니다(기본 모델만 사용했을 때 정확도는 13.5%에 불과함). • MMLU-Pro: 83%(기준 76%). • SRDD 소프트웨어 개발: 76.4%(기준 60.6%). 이러한 개선과 함께 토큰 비용도 감소합니다. 이 논문에서는 토큰 비용이 학습 과정 전반에 걸쳐 지속적으로 감소하는 반면 성능은 향상된다는 것을 보여줍니다. 또한 그들은 에이전트 선택 프로세스가 마르코프 속성을 만족한다는 것을 증명했습니다. 즉, 전체 기록을 추적하지 않고도 현재 상태에서 최적의 다음 에이전트를 결정할 수 있다는 것을 의미합니다. 그래서: AI 개발자에게는 복잡한 학습보다 간단한 학습이 더 낫습니다. 훈련된 라우터와 몇몇 전문화된 지능형 에이전트를 결합하면, 계산 오버헤드를 줄이는 동시에 잘 설계된 워크플로보다 더 나은 성능을 낼 수 있습니다.
이 콘텐츠는 xaicreator에 xaicreator.comco/Gxsobg3hEN
논문 링크openreview.net/pdf/9727f658d7…bC
이 트윗을 읽어주셔서 감사합니다! AI 정보, 비즈니스 인사이트, 성장 전략을 확인하려면 @Yangyixxxx를 팔로우하세요. 콘텐츠가 마음에 드셨다면 첫 번째 트윗에 좋아요를 누르고 공유해 주시면 더 많은 사람들에게 귀중한 정보를 전달할 수 있습니다.
