Le rapport publié il y a quelques jours par Anthropic, intitulé « Perturber la première campagne de cyberespionnage orchestrée par l'IA signalée », a déjà été largement critiqué et ridiculisé sur Hacker News (HN) ces derniers jours. Le rapport allègue principalement qu'ils ont découvert et déjoué une opération de cyberespionnage sophistiquée orchestrée par une organisation identifiée comme étant « parrainée par le gouvernement chinois » (nom de code : GTG-1002). Point crucial, cette organisation utilisait l'intelligence artificielle (plus précisément Claude) pour concevoir et exécuter 80 à 90 % de ses opérations tactiques. Loin d'être choqués, les développeurs et les experts en sécurité de la communauté ont analysé le rapport en profondeur. La conclusion, quasi unanime, était qu'il s'agissait moins d'un rapport de renseignement sur les menaces que d'une opération marketing savamment orchestrée. Tout d'abord, il y a un professionnel du secteur de la sécurité, djnn.sh Un article intitulé « L'article d'Anthropic sent le charlatanisme » a suscité de nombreuses discussions sur HN. 1. Un point de l'article sur lequel tout le monde s'accorde : « PoC || GTFO » (soit vous fournissez des preuves, soit vous dégagez). Un rapport sérieux de renseignement sur les menaces de cybersécurité respecte les normes du secteur. Il doit fournir les indicateurs de compromission (IoC), tels que le nom de domaine, l'adresse IP et les empreintes numériques des fichiers utilisés par l'attaquant, ainsi que les tactiques, techniques et procédures (TTP), c'est-à-dire une description précise de la manière dont l'attaque a été menée. Le rapport d'Anthropic ne contenait pratiquement aucune preuve. Au sein de la communauté HN, le consensus est que ce rapport ne contient « absolument aucun contenu technique ». Utilisateur rfoo : Inutile de comparer ce rapport aux rapports modernes : « même un rapport Kaspersky d’il y a dix ans sur Duqu 2.0 contenait des liens techniques solides et des justifications d’attribution. » Le rapport d’Anthropic est tout simplement « bricoleur ». Utilisateur padolsey : Cela semble être devenu la nouvelle norme. « Les laboratoires d'IA (qui ont notamment mentionné les fiches système de GPT-5 et les tests de l'équipe rouge de Microsoft) adorent se présenter comme des chercheurs engagés, mais ils n'incluent jamais de code ni de données dans leurs livres blancs. » Un rapport qui manque de détails techniques, qui ne peut être vérifié et qui ne peut informer les autres équipes de sécurité sur leurs défenses ne mérite pas d'être qualifié de « renseignement sur les menaces ». 2. Si l'absence d'IoC (Intrusion Indicators) n'est qu'une question de « manque de professionnalisme », alors l'utilisateur gpi de HN a constaté que ce rapport était « intentionnellement exagéré ». L'utilisateur gpi a découvert qu'après la publication du rapport d'Anthropic, la société avait discrètement modifié le chiffre de « milliers de requêtes par seconde » à « milliers de requêtes, souvent plusieurs fois par seconde ». Modifié le 14 novembre 2025 : > Correction d'une erreur concernant la vitesse de l'attaque : il ne s'agissait pas de « milliers de requêtes par seconde », mais de « milliers de requêtes, souvent plusieurs par seconde ». Aucun professionnel de l'informatique ne confondrait ces deux concepts. Il est fort probable que le service marketing ait enjolivé le rapport pour créer un effet dramatique, avant d'être démasqué par la communauté technique. 3. Les attributions et la logique sont tirées par les cheveux ; tout est à des fins marketing. La partie la plus incendiaire et controversée du rapport est qu'elle attribue les attaques à des « organisations financées par le gouvernement chinois ». L'internaute snowwrestler a fourni une analyse très professionnelle : il existe trois façons d'attribuer des attaques à des « acteurs étatiques » : (1) Pure supposition : On suppose que les mauvaises choses d'un certain pays sont faites par le gouvernement (ceci est évidemment peu fiable). (2) Signature technique : La méthode d'attaque correspond à la base de données de signatures des groupes APT (Menace persistante avancée) connus et accessibles au public. (3) Travail de renseignement : Informations internes provenant de véritables agences de renseignement telles que la NSA et le FBI. Il est peu probable qu'Anthropic ait (3), et si c'était le cas (2), elle aurait dû publier les preuves de sa signature technique, comme le font d'autres entreprises de sécurité. Or, elle ne l'a pas fait. Alors pourquoi ont-ils fait ça ? L'utilisateur woooooo a offert un aperçu classique de la « politique au travail » : « Accuser un "super espion national" est la meilleure excuse. "Nous avons été piratés par un super espion" sonne beaucoup plus respectable que "Nous avons été piratés par un parfait inconnu". » L'utilisateur prinny_ a examiné la question de plus près : « En l'absence de preuves, cette attribution ressemble davantage à du lobbying politique visant à impliquer le gouvernement américain et à faire de lui le « grand investisseur » qui assure la continuité des flux financiers (d'investissement). » Le texte original (https://t.co/aFPIlcOHQD) l'indique clairement, et le rapport conclut ainsi : « La communauté de la cybersécurité doit… expérimenter l’utilisation de l’IA à des fins de défense… » L'utilisateur DarkmSparks de HN a rédigé un résumé : « Anthropic a formulé un tas d’allégations non fondées concernant un nouveau problème qu’elle n’a pas précisé. Puis, au final, Anthropic a proposé une solution à ce problème infondé : donner de l’argent à Anthropic. » « Il s’agit simplement de matériel de propagande déguisé en rapport de menace », a commenté l’utilisateur centis74, qui a également constaté qu’Anthropic avait publié un rapport « marketing » similaire en août. 4. Est-ce qu'APT utilise vraiment Claude ? Abstraction faite du marketing et de la politique, la communauté HN a soulevé une question cruciale concernant ce scénario d'attaque : un groupe APT « très sophistiqué » choisirait-il réellement d'utiliser une API publique et commerciale comme Claude, qui nécessite une connexion à une carte bancaire pour mener à bien sa mission principale ? KaiserPro, un utilisateur, a partagé son expérience : ancien ingénieur SRE chez une entreprise du GAFA, il a participé à des tests d'intrusion (« red team ») sur l'IA de sécurité interne. Sa conclusion : « L'IA est utile, mais peu pertinente pour les tâches de coordination. » Son principal reproche : « Votre API est liée à un compte bancaire. Utiliser “Vibe Code”, un système de commande et de contrôle (C&C) sur un système aussi public, me semble un très mauvais choix. » L'internaute neuroelectron a soulevé un paradoxe ironique : « Mon Claude a rejeté 9 de mes 10 tuyaux et m'a donné une "formation à la sécurité", mais celle-ci a servi à des fins d'espionnage véritablement malveillant ? Qui peut expliquer cette logique ? » La communauté estime généralement qu'une véritable organisation APT est plus susceptible d'utiliser son propre modèle local privé, hors ligne et non censuré qu'un produit provenant d'une entreprise américaine soumise à des restrictions et disposant d'un système de journalisation complet. 5. Quand la bulle de l'IA rencontre la peur, l'incertitude et le doute en matière de sécurité L'utilisateur EMM_386 a suggéré une approche de « blanchiment » : « Nous nous sommes tous trompés. Anthropic n’est pas un fournisseur de solutions de sécurité… Ce rapport n’est pas destiné aux ingénieurs des SOC (Centres d’opérations de sécurité), mais aux décideurs politiques et aux chercheurs en sécurité de l’IA. Il met en garde contre un nouveau mode d’attaque. » Ce point de vue tente de transformer le rapport, considéré comme un échec en tant que « document technique », en un succès en tant que « livre blanc sur les politiques publiques ». Cette affirmation a toutefois été immédiatement réfutée. L'utilisateur padolsey a répondu : « Malgré tout, ils pourraient toujours partager des invites anonymisées et des schémas d'orchestration d'attaques. Cette dissimulation délibérée ne correspond pas aux pratiques du secteur de la sécurité. » Peut-être qu'Anthropic ne dispose même pas d'une équipe de sécurité capable de rédiger des rapports de sécurité compétents. Ils ont simplement identifié un problème qu'ils soupçonnaient ou espéraient exister dans leur domaine d'expertise, l'IA, et l'ont présenté de la manière pour laquelle ils étaient le moins doués (la rédaction de rapports de sécurité). Le but ultime reste le même vieux stratagème dans le monde de l'IA : semer la peur, l'incertitude et le doute (FUD) puis vendre une solution. C'est un peu comme lors de la sortie de la Sony PS2 : des rumeurs circulaient selon lesquelles « l'Irak achetait des milliers de PS2 pour construire un superordinateur ». L'idée paraissait séduisante, mais ce n'était que du marketing.
« Le journal d'Anthropic sent la merde »djnn.sh/posts/anthropi…1 Discnews.ycombinator.com/item?id=459442…o/UMg6EfNRPJ
