A Anthropic, fornecedora líder em IA, começou a publicar relatórios de inteligência de ameaças, assim como fazem as empresas de segurança... Um grupo de hackers apoiado pela China (conhecido como GTG-1002) usou a ferramenta Claude Code da Anthropic como uma ferramenta de "hacking automatizado" para atacar aproximadamente 30 organizações em todo o mundo, incluindo: - Grandes empresas de tecnologia - Instituições financeiras - Empresas de fabricação de produtos químicos - Agências governamentais Durante o ataque, 80 a 90% das operações específicas foram realizadas por IA, com intervenção humana apenas em alguns pontos-chave (4 a 6 pontos de decisão), tais como: - Selecione o alvo - Ajustar estratégia - Confirme se deseja continuar a explorar mais a fundo um sistema específico. Dos 30 alvos, "alguns" foram de fato invadidos e seus dados foram roubados. A CC essencialmente se tornou uma equipe automatizada de testes de penetração. Geralmente existem três mecanismos para contornar as políticas de segurança: - Divida os objetivos de Hongda em tarefas menores e execute-as uma a uma. - Disfarce o ataque como um "exercício de equipe vermelha" para que o LLM pense que está realizando proteção, e não intrusão. - Ocultar a verdadeira intenção maliciosa sob camadas de descrições de tarefas aparentemente razoáveis. O que exatamente a IA faz lá dentro? - Reconhecimento: Escanear portas, encontrar senhas fracas, organizar informações de banco de dados e enviar relatórios para humanos, permitindo que eles se concentrem nos dados "mais valiosos". - Descoberta e exploração de vulnerabilidades: a IA escreve programas para sondar e identificar onde as vulnerabilidades podem ser exploradas. - Roubo de credenciais + Movimentação lateral: Roubo de privilégios, penetração em redes internas, implantação de backdoors - Empacotamento de Dados e Análise de Inteligência: Os dados relevantes foram organizados, etiquetados e categorizados. As estratégias de ataque também foram revisadas e analisadas para formular um Procedimento Operacional Padrão (POP)... Em que isso difere de antes? Antes, os ataques exigiam muita habilidade, mas agora uma pequena equipe pode fazer grandes coisas... É rápido, em grande escala e completamente além das capacidades humanas; mesmo que às vezes apresente relatos incorretos, isso não afeta a situação geral. - A intervenção humana está se tornando menos frequente: os humanos tomam decisões apenas em alguns poucos momentos, e a IA executa o código sozinha em um loop na maior parte do tempo. É claro que a IA pode atacar, mas também pode se defender; esse é um processo de fortalecimento contínuo da IA dentro de redes adversárias. Para nós, é possível que haja cada vez mais golpes de phishing "realistas" no futuro. Todos devem habilitar a autenticação de dois fatores (2FA), usar senhas diferentes para sites diferentes e desconfiar de mensagens que "parecem muito reais, mas insistem para que você clique no link imediatamente". No outono de 2025, justamente quando os humanos estavam se acostumando com a "IA escrevendo redações e códigos", A primeira rodada de uma guerra de ciberespionagem liderada por inteligência artificial foi travada discretamente. Os atacantes aprenderam a usar a IA como arma. Chegamos ao ponto de pensar que a IA sequer consegue criar uma boa apresentação em PowerPoint. Será que os limites estão nas capacidades da IA ou nas capacidades humanas? https://t.co/xeMN2cFILv
Sinceramente, dada a tendência da Anthropic de interpretar tudo como fato, o público em geral na China deve ser cauteloso ao acompanhar essa fofoca.