이 요약도 매우 x.com/omarsar0/statu…EhdiORG Anthropic에서 또 다른 놀라운 가이드를 공개했습니다. 이번 주제는 도구를 더욱 지능적으로 활용하고 토큰을 상당히 절약할 수 있는 효율적인 AI 에이전트를 구축하는 방법입니다. AI 개발자라면 이 글을 꼭 읽어보세요! 이 논문은 AI 에이전트가 도구를 호출할 때 직면하는 세 가지 주요 과제, 즉 토큰 비용, 지연 시간, 도구 조합의 효율성을 주로 다룹니다. 어떻게 가능할까요? 간단히 말해, "코드 실행"과 "모델 기반 코드"(MCP)를 결합하는 것입니다. AI 에이전트가 직접 "도구를 호출"하는 대신, 이러한 도구를 코드 API로 "위장"하여 AI 에이전트가 프로그래머처럼 코드를 작성하여 사용할 수 있도록 합니다. 이 가이드의 주요 내용은 다음과 같습니다. 1. 토큰 효율성의 "블랙홀": AI 에이전트가 가능한 모든 도구 정의를 즉시 자신의 뇌(컨텍스트 창)에 집어넣고 작업의 각 단계마다 중간 결과를 뒤로 미룬다고 상상해 보세요. 이는 토큰 오버헤드를 폭발적으로 증가시킬 것입니다. 복잡한 다중 도구 작업은 때때로 15만 토큰을 초과할 수 있습니다. 2. "API로 코드 작성" 전략: 새로운 접근 방식은 도구를 직접 호출하는 방식을 지양합니다. 대신, 이러한 "모델 작성 코드"(MCP) 툴킷을 TypeScript 모듈과 같은 코드 API로 패키징합니다. AI 에이전트는 프로그래머처럼 이러한 API를 "가져와서" 프로그래밍 방식으로 호출할 수 있습니다. 그 효과는 즉각적입니다. 15만 개의 토큰이 필요했던 작업이 즉시 2,000개의 토큰으로 압축되어 98.7%의 절감 효과를 얻었습니다! 3. 도구 "점진적 발견": AI 에이전트는 모든 도구를 한 번에 로드하는 대신, "필요 시 사용"하는 방법을 학습하여 파일 시스템을 검색하거나 `search_tools` 함수를 호출하여 필요할 때만 현재 작업과 관련된 도구 정의를 로드합니다. 이를 통해 "컨텍스트 부패" 및 토큰 오버로드 문제를 완벽하게 해결합니다. 4. "로컬 데이터 처리": 결과를 LLM(Large Language Model)에 제공하기 전에 코드 실행 환경에서 데이터를 처리합니다(예: 필터링, 변환, 요약). 예를 들어, AI 에이전트는 10,000개 행이 있는 테이블을 볼 필요가 없습니다. 코드 환경은 가장 중요한 5개 행을 먼저 필터링한 후 전달합니다. 5. 제어 흐름 개선: AI 에이전트가 도구에 단계별로 "명령"을 내리는 대신(예: "A를 실행한 후 B를 실행하세요"), 코드에서 네이티브 루프, 조건문, 오류 처리를 사용하여 프로세스를 직접 관리하는 것이 더 좋습니다. 이를 통해 지연 시간을 줄이고 토큰을 절약할 수 있습니다. 6. 개인정보 보호: 민감한 데이터는 더 큰 모델의 "뷰"(컨텍스트)에 들어가지 않고도 워크플로 전체에 걸쳐 전달될 수 있습니다. 모델은 "반환" 또는 "기록"하도록 명시적으로 지정된 값만 볼 수 있으며, 개인 식별 정보(PII)를 자동으로 익명화하는 옵션도 있습니다. 7. 상태 지속성: AI 에이전트는 중간 결과를 파일에 저장하고 "중단된 다운로드를 재개"할 수 있습니다. 이를 통해 장시간 실행되는 "대규모 작업"을 처리하고 진행 상황을 추적할 수 있습니다. 8. 재사용 가능한 "스킬 팩": AI 에이전트는 작성된 효과적인 코드를 "재사용 가능한 함수"(SKILL .MD 파일 포함)로 저장할 수 있습니다. 시간이 지남에 따라 강력하고 진보된 "스킬 라이브러리"를 축적할 수 있습니다. 이 방법은 좀 더 복잡하고 아직 완벽하지는 않지만, 여러분이 만드는 AI 에이전트의 효율성과 정확성을 확실히 향상시킬 수 있습니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.