Por primera vez en la historia, una banda criminal usó IA para hackear software y Google lo detectó

Por primera vez en la historia, una banda criminal utilizó inteligencia artificial para descubrir una vulnerabilidad desconocida en un software muy usado —lo que en el mundo de la ciberseguridad se llama un zero-day— y Google lo detectó antes de que el ataque se ejecutara a escala masiva.

🔐 El equipo de inteligencia de amenazas de Google confirmó este lunes que la banda le pidió a un modelo de IA que leyera miles de líneas de código y encontrara una falla inédita en un software de administración web. La máquina lo hizo: identificó una contradicción lógica en el código de autenticación de dos factores que ningún escáner tradicional hubiera encontrado, porque no era un error técnico sino un error de criterio humano.

🤖 La falla era sutil: un programador había escrito una excepción que permitía el paso a usuarios con credenciales válidas, contradiciendo el resto de la lógica de seguridad. Las herramientas automáticas buscan errores de memoria o fallas de entrada, no “razonamiento incorrecto”. La IA sí puede leer esa intención y ver dónde se rompe.

🕵️ Google los atrapó por descuido: el código del ataque venía con comentarios prolijos en formato manual, una clasificación de gravedad inventada y un orden tan metódico que delataba su origen artificial. “Es código escrito como lo escribe una máquina, no como lo escribe un criminal”, señalaron los investigadores.

⚠️ John Hultquist, jefe de análisis de amenazas de Google, lo dijo sin vueltas al New York Times: este caso es “la punta del iceberg”. Probablemente ya existan más fallas descubiertas con IA que están siendo explotadas en silencio, sin que nadie las detecte todavía.

🌐 El reporte también documenta otros usos: hackers norcoreanos del grupo APT45 enviando miles de pedidos automatizados a modelos de IA para revisar vulnerabilidades conocidas; operadores chinos entrenando modelos con 85.000 fallas históricas; y malware para Android que llama a modelos de IA en tiempo real para decidir qué botón apretar en el teléfono infectado. En tres meses, el uso malicioso de la IA pasó de experimento a escala industrial.

🧐 El Dato Curioso: El modelo utilizado por los atacantes no fue Gemini (de Google) ni Mythos (de Anthropic). Esto no es casualidad: Anthropic había retrasado el lanzamiento de Mythos precisamente por sus capacidades avanzadas en ciberseguridad. Los grandes laboratorios de IA saben que sus modelos más nuevos detectan fallas mejor que la mayoría de los humanos expertos, y por eso restringen el acceso. El problema es que existe un mercado gris activo, con servicios que revenden acceso pirateado a estos modelos por unos pocos dólares.