🧬 El científico británico Geoffrey Hinton, conocido mundialmente como el “padrino” de la inteligencia artificial y reciente ganador del Premio Nobel de Física, volvió a encender las alarmas sobre el futuro de la humanidad. En una entrevista concedida al canal canadiense TVO, advirtió que una IA superinteligente (ASI) mal gestionada podría representar una amenaza existencial para nuestra especie.
⚠️ “Aún estamos a tiempo de descubrir cómo desarrollar una IA superinteligente que sea segura”, explicó Hinton, con tono grave pero enfático. Sin embargo, reconoció que no tenemos hoy los métodos necesarios para garantizar esa seguridad: “Deberíamos dedicar mucho esfuerzo a resolver eso”.
🧟♂️ Al ser consultado sobre las posibles formas en las que una ASI podría extinguir a la humanidad, fue claro: “Podría crear un virus que nos mataría a todos”. Aunque aclaró que no se trataría de una IA estilo exterminador, sí remarcó que su potencial de daño sería devastador si se desbordan sus límites.
💣 No es la primera vez que Hinton hace este tipo de advertencias. En intervenciones anteriores, alertó sobre el posible uso de la IA para generar virus letales o armas autónomas capaces de decidir por sí solas a quién eliminar. Incluso estimó que hay entre un 10 % y un 20 % de probabilidades de que la IA provoque la extinción humana en las próximas tres décadas.
🌍 Por eso, instó a que gobiernos y organismos internacionales actúen con rapidez y decisión. “Los riesgos a corto plazo requieren atención urgente”, remarcó.
📌 ¿Lo sabías? Pese a su visión apocalíptica, Geoffrey Hinton renunció en 2023 a su cargo en Google para poder hablar libremente sobre los peligros de la IA, incluso si eso significaba criticar a la industria que él mismo ayudó a construir. Un gesto ético que pocos conocen, pero que marca el peso de su preocupación. 💡🌐