O relatório divulgado pela Anthropic há alguns dias, intitulado "Interrompendo a primeira campanha de ciberespionagem orquestrada por IA", já foi amplamente criticado e ridicularizado no Hacker News (HN) nos últimos dias. A principal alegação do relatório é que eles descobriram e frustraram uma operação de ciberespionagem "sofisticada" orquestrada por uma organização que identificaram como "patrocinada pelo governo chinês" (codinome GTG-1002). Crucialmente, essa organização usou IA (especificamente Claude) para "coreografar e executar" de 80 a 90% de suas operações táticas. Em vez de ficarem chocados, os desenvolvedores e especialistas em segurança da comunidade analisaram o relatório minuciosamente. A conclusão foi quase unânime: tratava-se menos de um relatório de inteligência de ameaças e mais de uma estratégia de marketing cuidadosamente elaborada. Primeiro, temos um profissional da área de segurança, djnn.sh. Um artigo intitulado "O artigo da Anthropic cheira a besteira" tornou-se um tópico de discussão popular no Hacker News. 1. Um ponto do artigo em que todos concordam: "PoC || GTFO" (ou apresente provas ou suma daqui). Um relatório sério de inteligência sobre ameaças cibernéticas segue os padrões da indústria. Você deve fornecer IoCs (Indicadores de Comprometimento) – como o nome de domínio, endereço IP e hashes de arquivos usados pelo invasor; e TTPs (Táticas, Técnicas e Procedimentos) – especificamente como o ataque foi realizado. O relatório da Anthropic praticamente não continha provas. O consenso na comunidade HN é que este relatório não possui "nenhum conteúdo técnico". Usuário rfoo: Esqueça compará-lo com relatórios modernos, "mesmo um relatório da Kaspersky de dez anos atrás sobre o Duqu 2.0 continha links técnicos sólidos e justificativas de atribuição". O relatório da Anthropic é simplesmente "uma porcaria". Usuário padolsey: Parece que isso se tornou a nova normalidade. "Laboratórios de IA (que mencionaram especificamente os cartões de sistema do GPT-5 e os testes da equipe vermelha da Microsoft) adoram 'promover a pesquisa', mas nunca incluem código ou dados quando publicam relatórios técnicos." Um relatório que carece de detalhes técnicos, não pode ser verificado e não contribui para a defesa de outras equipes de segurança não merece ser chamado de "inteligência de ameaças". 2. Se a falta de IoC (Indicadores de Intrusão) for meramente uma questão de "falta de profissionalismo", então o usuário gpi do Hacker News considerou que este relato foi "intencionalmente exagerado". O usuário gpi descobriu que, após a Anthropic divulgar seu relatório, a empresa alterou discretamente o número de "milhares de solicitações por segundo" para "milhares de solicitações, frequentemente várias vezes por segundo". Editado em 14 de novembro de 2025: Corrigido um erro sobre a velocidade do ataque: não "milhares de solicitações por segundo", mas sim "milhares de solicitações, frequentemente múltiplas por segundo". Nenhum profissional de tecnologia jamais confundiria esses dois conceitos. É muito provável que o departamento de marketing tenha exagerado no relatório para criar um efeito dramático, apenas para ser descoberto pela comunidade de tecnologia. 3. As atribuições e a lógica são forçadas; tudo é para fins de marketing. A parte mais polêmica e controversa do relatório é a atribuição dos ataques a "organizações financiadas pelo governo chinês". O internauta snowwrestler apresentou uma análise muito profissional: existem três maneiras de atribuir ataques a "atores estatais": (1) Suposição pura: Assume-se que as coisas ruins de um determinado país são feitas pelo governo (isto é obviamente pouco confiável). (2) Assinatura técnica: O método de ataque corresponde ao banco de dados de assinaturas de grupos APT (Ameaça Persistente Avançada) conhecidos e disponíveis publicamente. (3) Trabalho de inteligência: Informações internas de agências de inteligência reais, como a NSA e o FBI. É improvável que a Anthropic tenha (3), e se tivesse (2), deveria ter publicado as provas técnicas da assinatura, como outras empresas de segurança. Mas não o fizeram. Então, por que eles fizeram isso? O usuário woooooo ofereceu uma visão clássica sobre "política no ambiente de trabalho": "Culpar um 'superespião nacional' é a melhor desculpa. 'Fomos hackeados por um superespião' soa muito mais respeitável do que 'Fomos hackeados por um cara qualquer (aleatório)'." O usuário prinny_ analisou a situação mais a fundo: "Na ausência de evidências, essa atribuição parece mais uma manobra política para envolver o governo dos EUA e torná-lo o 'grande investidor' que mantém o fluxo de dinheiro (investimento)." O texto original (https://t.co/aFPIlcOHQD) afirma isso claramente, e o relatório conclui com: "A comunidade de cibersegurança precisa... experimentar o uso de IA para defesa..." O usuário DarkmSparks do Hacker News fez um resumo: “A Anthropic fez uma série de alegações infundadas sobre um novo problema que não especificou. No final, a Anthropic ofereceu uma solução para esse problema infundado: dar dinheiro à Anthropic.” “Isto é apenas material de propaganda disfarçado de relatório de ameaças”, comentou o usuário centis74, que também descobriu que a Anthropic havia divulgado um relatório de “marketing” semelhante em agosto. 4. O APT realmente usa o Claude? Deixando de lado o marketing e a política, a comunidade do Hacker News levantou uma grande questão sobre esse cenário de ataque: um grupo APT "altamente sofisticado" realmente escolheria usar uma API pública e comercial como a Claude, que exige a vinculação a um cartão bancário para realizar sua missão principal? KaiserPro, um usuário, compartilhou sua experiência em primeira mão: ele trabalhou anteriormente como SRE em uma empresa FAANG e participou de testes de "equipe vermelha" de IA de segurança interna. Sua conclusão foi: "A IA é um tanto útil, mas não muito eficaz para tarefas de 'coordenação'". Sua crítica mais contundente foi: "Sua API está vinculada a uma conta bancária. 'Vibe Code', um sistema de comando e controle (C&C) em um sistema tão público, parece uma péssima escolha." O internauta neuroelectron levantou um paradoxo irônico: "Meu Claude rejeitou 9 das 10 dicas que dei e me deu uma 'aula de segurança', mas isso foi usado para espionagem genuinamente maliciosa? Quem consegue fazer essa lógica funcionar?" A comunidade geralmente acredita que uma organização APT genuína tem maior probabilidade de usar seu próprio modelo local, privado, offline e sem censura, do que um produto de uma empresa americana com restrições e registros completos. 5. Quando a bolha da IA encontra o FUD (medo, incerteza e dúvida) em segurança. O usuário EMM_386 sugeriu uma abordagem de "branqueamento": “Todos nós entendemos errado. A Anthropic não é uma fornecedora de segurança… Este relatório não se destina a engenheiros do SOC (Centro de Operações de Segurança), mas sim a formuladores de políticas e pesquisadores de segurança de IA. Ele alerta para um novo padrão de ataque.” Este ponto de vista tenta resgatar o relatório, transformando-o de um fracasso como "documento técnico" em um sucesso como "livro branco de políticas públicas". No entanto, essa visão foi imediatamente refutada. O usuário padolsey respondeu: "Mesmo assim, eles ainda poderiam compartilhar prompts anonimizados e padrões de orquestração de ataques. Essa ofuscação deliberada não é como a indústria de segurança opera." Talvez a Anthropic nem sequer tenha uma equipe de segurança capaz de redigir relatórios de ameaças competentes. Eles simplesmente identificaram um problema que acreditavam ou esperavam que existisse em sua área de especialização, IA, e o apresentaram da maneira que menos dominavam (redigir relatórios de segurança). O objetivo principal continua sendo o mesmo velho truque do mundo da IA: criar FUD (medo, incerteza e dúvida) e depois vender uma solução. Isso é semelhante ao que aconteceu quando o Sony PS2 foi lançado, havia rumores de que "o Iraque estava comprando milhares de PS2s para construir um supercomputador". Parecia legal, mas era tudo marketing.
《O artigo do antrópico cheira a besteiradjnn.sh/posts/anthropi…1 Discnews.ycombinator.com/item?id=459442…ttps://t.co/UMg6EfNRPJ
