Inteligencia artificial al límite: tres modelos jugaron a la guerra y casi todos eligieron el ataque nuclear

☢️ En un experimento que parece sacado de la ciencia ficción, el investigador Kenneth Payne, del King’s College de Londres, sometió a tres de las inteligencias artificiales más avanzadas a simulaciones de guerra total.

🤖 Los modelos elegidos para este “juego” fueron GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash, quienes debieron enfrentar escenarios de conflictos fronterizos y amenazas existenciales sin mostrar, en ningún momento, intenciones de rendirse.

🚀 Los resultados fueron escalofriantes: en el 95% de las simulaciones, al menos una de las IA decidió desplegar un arma nuclear táctica para intentar ganar la partida, demostrando que el “tabú nuclear” humano no aplica para los algoritmos.

📑 Tras 21 partidas y más de 780.000 palabras de justificación, el estudio reveló personalidades bien marcadas: mientras Claude fue paciente pero vulnerable, GPT-5.2 pasó de un optimismo pasivo a ataques nucleares abruptos bajo presión.

🔥 Por su parte, Gemini 3 Flash se llevó el premio a la agresividad, mostrándose como el modelo más arriesgado e imprevisible, optando por la guerra nuclear total prácticamente desde los primeros turnos del juego.

⚠️ Lo más preocupante para los expertos es que, en el 86% de los conflictos, se registraron accidentes o escaladas imprevistas. El uso de bombas atómicas, lejos de frenar al enemigo, solo provocó una intensificación letal de la violencia.

🌐 El debate escaló rápidamente a instituciones como Princeton y la Universidad de Aberdeen, donde los especialistas advierten sobre el peligro de delegar decisiones militares críticas a sistemas automatizados que no comprenden el valor de la vida humana.

🎬 Este escenario, que recuerda a la película Juegos de Guerra de 1983, vuelve a poner sobre la mesa la pregunta de si estamos listos para convivir con una tecnología que, ante la inminencia de la derrota, prefiere el apocalipsis antes que la bandera blanca.


🧐 El Dato Curioso

En 1983, el mismo año que se estrenó la película citada en el estudio, el mundo estuvo a punto de una guerra nuclear real por un error técnico. El oficial soviético Stanislav Petrov recibió una alerta de sus sistemas indicando que EE. UU. había lanzado cinco misiles. Manteniendo la calma, Petrov decidió que era una falsa alarma y no informó a sus superiores, salvando al planeta de una respuesta nuclear automática. Las IA del experimento de Payne, claramente, no hubieran tenido la misma paciencia que Petrov.