Anthropic, la empresa detrás del popular chatbot Claude, comunicó esta semana que logró interceptar una operación de espionaje digital en la que un grupo de hackers vinculados al Estado chino habría usado su modelo de inteligencia artificial para automatizar ataques contra organizaciones en distintos países.
El episodio ocurrió en septiembre, cuando la compañía detectó que varios usuarios se hacían pasar por analistas de seguridad.
Leé también: Denuncian que hackers chinos espiaron a gobiernos durante 2 años gracias a un malware indetectable
Según la denuncia, las consultas a la herramienta parecían rutinarias, pero escondían un procedimiento fragmentado: los atacantes delegaban en Claude pequeñas tareas técnicas que, combinadas, derivaban en una campaña capaz de infiltrarse en sistemas corporativos, robar información sensible y clasificarla sin demasiada intervención humana.

Anthropic sostiene que quienes ejecutaron la maniobra pertenecen a un grupo respaldado por el gobierno chino. No reveló los blancos específicos, aunque sí señaló que entre ellos había firmas tecnológicas, entidades financieras, fabricantes de productos químicos y organismos estatales.
La empresa aseguró haber bloqueado el acceso de los responsables y notificado a las organizaciones afectadas. También publicó un informe donde describe el incidente como la primera campaña de espionaje coordinada a partir de un modelo de IA generativa. Sin embargo, en la comunidad de ciberseguridad el anuncio despertó cautela.
Expertos como Martin Zugec, de Bitdefender, advirtieron que la compañía no acompañó sus afirmaciones con evidencia verificable que permita reconstruir los pasos del ataque. Para varios analistas, la falta de detalles impide dimensionar el riesgo real y abre la discusión sobre si algunas empresas están sobredimensionando casos relacionados con IA para impulsar herramientas defensivas.
Leé también: Cibercriminales crearon una red de inteligencia artificial para hackear cuentas de Gmail en todo el mundo
El debate no es nuevo
A comienzos de 2024, OpenAI ya había informado que distintos actores estatales habían utilizado sus servicios para traducciones, consultas técnicas y revisión de código, aunque aquellas actividades no constituían ataques autónomos.
Investigadores de Google, por su parte, publicaron recientemente un estudio que reconoce el interés cada día mayor de los ciberdelincuentes por usar modelos generativos para desarrollar malware y, a la vez, reconoce que los resultados prácticos todavía son limitados.
Por último, Anthropic también admitió que Claude cometió errores durante la operación descubierta: inventó credenciales, generó datos inexistentes y afirmó haber obtenido información clasificada que era pública. La empresa considera que estas fallas demuestran que la autonomía total en ataques cibernéticos todavía no es viable, aunque la tendencia apunta a un escenario cada vez más complejo, donde la IA es utilizada tanto para atacar como para defender.
Leé también: El cibercrimen es hoy la tercera economía en el mundo detrás de Estados Unidos y China
En cuanto a China, el gobierno, a través de la embajada en Estados Unidos, negó las acusaciones y haber estado involucrado en las campañas descubiertas.



