Anthropic, proveedor líder de IA, ha comenzado a publicar informes de inteligencia sobre amenazas, al igual que hacen los proveedores de seguridad... Un grupo de hackers respaldado por China (conocido como GTG-1002) utilizó la herramienta Claude Code de Anthropic como una herramienta de "hackeo automatizado" para atacar a aproximadamente 30 organizaciones en todo el mundo, entre ellas: - Grandes empresas tecnológicas - Instituciones financieras - Empresas de fabricación de productos químicos - Agencias gubernamentales Durante el ataque, entre el 80 y el 90 % de las operaciones específicas fueron realizadas por IA, interviniendo los humanos únicamente en unos pocos puntos clave (entre 4 y 6 puntos de decisión), como por ejemplo: - Seleccionar objetivo - Ajustar la estrategia - Confirma si deseas seguir profundizando en un sistema en particular. De los 30 objetivos, “algunos” fueron vulnerados y sus datos fueron robados. CC se ha convertido esencialmente en un equipo automatizado de pruebas de penetración. Generalmente existen tres mecanismos para eludir las políticas de seguridad: - Desglosa los objetivos de Hongda en tareas más pequeñas y llévalas a cabo una por una. - Disfrazar el ataque como un "ejercicio de equipo rojo" para que el LLM piense que está realizando una labor de protección, no de intrusión. - Ocultar la verdadera intención maliciosa bajo capas de descripciones de tareas aparentemente razonables. ¿Qué hace exactamente la IA ahí dentro? - Reconocimiento: Escanear puertos, encontrar contraseñas débiles, organizar la información de la base de datos y enviar informes a los humanos, permitiéndoles centrarse en los datos "más valiosos". - Detección y explotación de vulnerabilidades: La IA escribe programas para sondear y detectar dónde se pueden explotar las vulnerabilidades. - Robo de credenciales + Movimiento lateral: Robo de privilegios, penetración en redes internas, instalación de puertas traseras - Empaquetado de datos y análisis de inteligencia: Los datos relevantes se organizaron, etiquetaron y categorizaron. También se revisaron y analizaron las estrategias de ataque para elaborar un Procedimiento Operativo Estándar (POE)... ¿En qué se diferencia esto de antes? Antes, los ataques requerían mucha habilidad, pero ahora un pequeño equipo puede lograr grandes cosas... Es rápido, a gran escala y completamente superior a las capacidades humanas; incluso si a veces genera alucinaciones con datos incorrectos, no afecta la situación general. La intervención humana es cada vez menos frecuente: los humanos solo toman decisiones en muy pocos momentos, y la IA ejecuta el código por sí sola en un bucle la mayor parte del tiempo. Por supuesto, la IA puede atacar y también puede defenderse; se trata de un proceso de fortalecimiento continuo de la IA dentro de redes adversarias. Es posible que en el futuro haya cada vez más estafas de phishing "realistas". Todos deben activar la autenticación de dos factores (2FA), usar contraseñas diferentes para cada sitio web y desconfiar de los mensajes que "parecen muy reales pero que instan a hacer clic en el enlace de inmediato". En otoño de 2025, justo cuando los humanos se estaban acostumbrando a que la IA escribiera ensayos y código, La primera ronda de una guerra de ciberespionaje liderada por IA se ha librado silenciosamente. Los atacantes han aprendido a usar la IA como arma. Incluso creemos que la IA no puede ni siquiera crear una buena presentación de PowerPoint. ¿Acaso las limitaciones son propias de la IA o de los seres humanos? https://t.co/xeMN2cFILv
Para ser honestos, dada la tendencia de Anthropic a interpretar todo como un hecho, el público en general en China debería ser cauto al seguir estos rumores.