Greptile은 최근 "2025년 AI 프로그래밍 현황 보고서"를 발표했습니다. 이 회사는 PostHog, Brex와 같은 유망 스타트업부터 포춘 500대 기업에 이르기까지 다양한 고객에게 AI 코드 검토 서비스를 제공합니다. 매달 약 10억 줄의 코드가 Greptile의 시스템을 거치면서 풍부한 실무 데이터를 확보하고 있습니다. 보고서에서 발췌한 몇 가지 수치를 살펴보겠습니다. 개발자들이 한 달에 작성하는 코드 라인 수는 4,450줄에서 7,839줄로 76% 증가했습니다. 풀 리퀘스트(PR)의 크기도 커져 중간값이 57줄에서 76줄로 늘어났습니다. 특히 중간 규모 팀의 경우 증가율이 89%에 달해 더욱 두드러졌습니다. 사실 저는 예전에 많은 사람들이 생산성을 측정하는 기준으로 코드 줄 수를 사용하는 것에 대해 불만을 제기한 적이 있습니다. 코드는 자산이 아니라 부담이기 때문입니다. 코드가 많을수록 유지보수가 어려워집니다. AI가 생성한 코드가 많을수록 버그도 많아지고 유지보수도 더 어려워집니다. AI 프로그래밍 도구의 이점은 매우 불균등하게 분포되어 있습니다. 테스트 커버리지가 높고 모듈 경계가 명확한 프로젝트에서는 AI가 강력한 자산이 될 수 있습니다. 그러나 복잡한 레거시 시스템이나 심층적인 도메인 지식이 요구되는 시나리오에서는 AI의 도움이 제한적이며 오히려 역효과를 초래할 수도 있습니다. 하지만 어쨌든 인공지능이 코드 인플레이션을 야기하고 있다는 것은 사실입니다. AI는 코드 줄 수를 늘리지만, 그것이 코드의 품질을 향상시킬까요? 보고서에 이 내용이 언급되지 않은 것은 아쉽습니다. 코드 줄 수는 세기 쉽지만 코드 품질은 측정하기 훨씬 어렵기 때문입니다. 보고서에 담긴 데이터는 여전히 살펴볼 가치가 있습니다. 툴 생태계 부문에서 벡터 데이터베이스 시장은 현재 매우 경쟁이 치열하며, Weaviate가 25%의 점유율로 선두를 달리고 있지만, 6~7개 업체가 각각 10%에서 25% 사이의 점유율로 바짝 뒤쫓고 있어 승패를 예측하기 어렵습니다. AI 메모리 패키지 시장에서는 mem0이 59%의 점유율로 압도적인 우위를 점하고 있습니다. 규칙 파일 분야에서는 CLAUDE.md가 67%의 채택률로 1위를 차지하며, 많은 개발자들이 프로그래밍 가능한 지능형 에이전트를 개발하기 위해 Claude를 사용하고 있음을 보여줍니다. SDK 다운로드 추세의 변화는 더욱 흥미롭습니다. OpenAI는 여전히 월간 1억 3천만 건의 다운로드로 압도적인 선두를 유지하고 있습니다. 그러나 Anthropic의 성장률은 놀라울 정도로 높아, 2023년 4월부터 현재까지 1,547배 증가하여 4,300만 건으로 안정화되었습니다. OpenAI와 Anthropic의 다운로드 비율은 2024년 초 47:1에서 현재 4.2:1로 좁혀졌습니다. Google의 GenAI SDK는 1,360만 건으로 크게 뒤처지고 있습니다. 모델 성능 비교 섹션에서는 GPT-5.1, GPT-5-Codex, Claude Sonnet 4.5, Claude Opus 4.5 및 Gemini 3 Pro를 테스트했습니다. 몇 가지 주목할 만한 결과가 있습니다. 첫 번째 토큰 응답 시간의 경우, Anthropic의 두 모델은 모두 2.5초 미만인 반면, 나머지 세 모델은 두 배 이상 오래 걸립니다. 이 몇 초의 차이를 과소평가하지 마세요. 인터랙티브 프로그래밍 환경에서 긴 대기 시간은 사고의 흐름을 방해하고 몰입 상태를 다시 되찾도록 만들 수 있습니다. 처리량 측면에서 OpenAI의 두 모델은 초당 평균 60~70개의 토큰을 처리하며 가장 빠릅니다. Anthropic은 17~20개, Gemini는 4~5개에 불과합니다. 하지만 높은 처리량이 전부는 아닙니다. 실제로 사용 사례에 그 정도의 속도가 필요한지 여부도 고려해야 합니다. 비용 비교는 GPT-5 Codex를 기준점으로 삼고 이를 1배로 설정했습니다. GPT-5.1도 1배, Gemini 3 Pro는 1.4배, Claude Sonnet 4.5는 2배, Claude Opus 4.5는 3.3배입니다. Anthropic의 모델은 상당히 비싸지만, 많은 사용자가 코드 품질이 더 우수하다고 생각하여 기꺼이 추가 비용을 지불할 의향이 있습니다. 이 보고서는 DeepSeek-V3의 MoE 아키텍처, 장기 컨텍스트와 RAG 간의 절충점, MEM1의 고정 메모리 지능형 에이전트 프레임워크 등 최근 연구 결과들을 소개하며 마무리됩니다. 이 부분은 전문 개발자를 위한 참고 문헌 목록과 유사하므로 더 자세한 설명은 생략하겠습니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
