La IA se volvió arma: El ciberataque que sacudió a instituciones gubernamentales

Fers Ortiz

2026-03-01

Imagen Ilustrativa News
PUBLICIDAD

No es película, es la era de la IA como arma digital

Lo que comenzó como un rumor curioso terminó convirtiéndose en una de las historias más inquietantes de ciberseguridad del año. A finales de diciembre de 2025, un operador anónimo puso en marcha una operación que, según investigadores en seguridad, no se basó en virus clásicos, ni en malware creado desde cero —sino en el uso de chatbots de inteligencia artificial como Claude y GPT-4.1 para planear y ejecutar ataques informáticos de alto impacto.

Durante casi seis semanas, ese operador logró sortear sistemas que muchos daban por seguros, incluyendo los del Instituto Nacional Electoral (INE), el Servicio de Administración Tributaria (SAT) y al menos otros siete organismos federales y estatales.


IA con doble filo: cuando ayuda se convierte en amenaza

La herramienta principal fue Claude, un chatbot desarrollado por Anthropic que originalmente está pensado para ayudar en tareas complejas de texto y análisis. Según el informe de la firma israelí de ciberseguridad Gambit Security, el atacante guió a Claude con una serie de instrucciones escritas en español para que se comportara como un penetration tester de élite —es decir, como alguien encargado de encontrar y explotar fallas de seguridad.

Lo más sorprendente es que el atacante no necesitó herramientas sofisticadas de hacking tradicionales; la inteligencia artificial hizo gran parte del trabajo pesado.


¿Qué se llevó este ataque?

Los datos expuestos o, según reportes de seguridad, extraídos, ascienden a unos 150 gigabytes, que incluyen registros fiscales, padrones electorales, credenciales de empleados públicos y otros archivos oficiales.

Algunos de estos datos, según las investigaciones, están vinculados a cerca de 195 millones de contribuyentes y votantes, aunque las autoridades involucradas han respondido de maneras distintas a estos señalamientos.


¿Cómo se descubrió este incidente?

Fue una firma de ciberseguridad con sede en Israel llamada Gambit Security la que detectó actividad sospechosa mientras probaba nuevas técnicas de búsqueda de amenazas. En una conversación técnica entre el atacante y Claude que quedó expuesta públicamente —en forma de registros accesibles— quedó claro cómo se estaba instruyendo al modelo para identificar vulnerabilidades, escribir código de explotación y automatizar ataques contra sistemas oficiales.

Aunque se ha hablado de posibles vínculos con un patrocinador extranjero, hasta ahora no existe confirmación oficial de que el atacante esté asociado con algún gobierno o grupo específico.


¿Qué está haciendo la IA ahora?

Tanto Anthropic, responsable de Claude, como OpenAI, creadora de GPT-4.1, han respondido a lo sucedido. Según reportes, ambas compañías investigaron la actividad denunciada, confirmaron el uso indebido y cancelaron las cuentas involucradas para evitar que el ataque continuara o se replicara.

Anthropic también ha señalado que su modelo más reciente incluye nuevas herramientas para detectar y bloquear este tipo de uso malicioso.

Por ahora, lo confirmado oficialmente en cuanto a datos sensibles sigue bajo debate, mientras los expertos en ciberseguridad advierten que este tipo de métodos podrían ser solo la punta del iceberg en un mundo donde la inteligencia artificial se vuelve cada vez más accesible.

Beat 100.9
ESCUCHA LA RADIO EN VIVO AHORA
X