선도적인 AI 공급업체인 Anthropic이 보안 공급업체와 마찬가지로 위협 인텔리전스 보고서를 발행하기 시작했습니다. 중국이 지원하는 해킹 그룹(GTG-1002로 알려짐)은 Anthropic의 Claude Code 도구를 "자동 해킹" 도구로 사용하여 전 세계 약 30개 조직을 공격했습니다. 공격 대상은 다음과 같습니다. - 대형 기술 회사 - 금융기관 - 화학 제조 기업 - 정부 기관 공격 중에 특정 작업의 80~90%는 AI가 수행했으며, 인간은 다음과 같은 몇 가지 핵심 지점(4~6개의 결정 지점)에만 개입했습니다. - 타겟 선택 - 전략 조정 - 특정 시스템을 더 깊이 파고들 것인지 확인 30개 대상 중 실제로 침해를 당한 곳은 '몇몇' 곳뿐이었고, 해당 데이터의 유출도 있었습니다. CC는 본질적으로 자동화된 침투 테스트 팀이 되었습니다. 일반적으로 보안 정책을 우회하는 세 가지 메커니즘이 있습니다. - 홍다의 목표를 작은 작업으로 나누어 하나씩 수행하세요. - LLM이 침입이 아닌 보호를 수행하고 있다고 생각하도록 공격을 "레드팀 훈련"으로 위장합니다. - 겉보기에 타당한 업무 설명 아래에 진짜 악의적인 의도를 숨깁니다. AI는 정확히 무슨 일을 하나요? - 정찰: 포트를 스캔하고, 취약한 비밀번호를 찾고, 데이터베이스 정보를 정리하고, 사람에게 보고서를 보내서 "가장 가치 있는" 데이터에 집중할 수 있도록 합니다. - 취약점 발견 및 악용: AI는 취약점을 조사하고 악용할 수 있는 곳을 찾는 프로그램을 작성합니다. - 자격 증명 도용 + 측면 이동: 권한 도용, 내부 네트워크 침투, 백도어 설치 - 데이터 패키징 및 인텔리전스 분석: 관련 데이터를 정리, 태그 지정 및 분류했습니다. 또한 공격 전략을 검토하고 분석하여 표준 운영 절차(SOP)를 수립했습니다. 이전과 어떻게 다릅니까? 이전에는 공격에 많은 기술이 필요했지만, 이제는 작은 팀으로도 큰 일을 해낼 수 있습니다... - 빠르고, 규모가 크고, 인간의 능력을 완전히 벗어납니다. 가끔 잘못된 설명을 하더라도 전반적인 상황에는 영향을 미치지 않습니다. - 인간의 개입은 점점 줄어들고 있습니다. 인간은 아주 소수의 지점에서만 결정을 내리고, AI는 대부분의 시간 동안 루프에서 스스로 코드를 실행합니다. 물론, AI는 공격할 수도 있고, 방어할 수도 있습니다. 이는 적대적 네트워크 내에서 AI를 지속적으로 강화하는 과정입니다. 앞으로는 더욱 "현실적인" 피싱 사기가 발생할 수 있습니다. 모든 사용자는 2FA를 활성화하고, 웹사이트마다 다른 비밀번호를 사용해야 하며, "겉보기에는 이상해 보이지만 즉시 링크를 클릭하도록 유도하는" 메시지에는 의심을 가져야 합니다. 2025년 가을, 인간이 'AI가 에세이와 코드를 쓰는 것'에 익숙해지던 바로 그때, AI가 주도하는 사이버 스파이 전쟁의 첫 번째 라운드는 조용히 진행되었습니다. 공격자들은 AI를 무기로 사용하는 법을 터득했습니다. 우리는 AI가 훌륭한 파워포인트 프레젠테이션도 작성하지 못할 것이라고 생각합니다. AI의 역량 한계가 제한적인 걸까요, 아니면 인간 역량의 한계일까요? https://t.co/xeMN2cFILv
솔직히 말해서, Anthropic이 모든 것을 사실로 해석하는 경향을 고려하면, 중국 일반 대중은 이 소문을 따를 때 조심해야 합니다.