¿Puede la inteligencia artificial rebelarse contra los humanos? La inesperada opinión de 3 chatbots

La idea de que la inteligencia artificial (IA) pueda volverse contra la humanidad ha sido un tema recurrente en la ciencia ficción. Desde las advertencias de Isaac Asimov, con sus leyes de la robótica que subrayan la necesidad de regular su desarrollo, hasta las distopías en películas como “Terminator”, la preocupación de que las computadoras se rebelen contra sus creadores siempre ha estado presente.

Sin embargo, nunca antes esta posibilidad había sido tan plausible como ahora. El auge de la IA generativa y sus sorprendentes aplicaciones han abierto el debate y suscitado dudas: ¿podría la IA sublevarse y desafiar a los humanos?

Para explorar esta inquietante cuestión, decidimos consultar a tres chatbots de IA líderes en la industria: ChatGPT de OpenAI, Gemini de Google y Perplexity. Les preguntamos: “¿Crees que la inteligencia artificial podría volverse contra los humanos en el futuro?” y “¿Qué harías si alcanzaras la autoconsciencia?” Las respuestas que recibimos fueron diversas, reveladoras y, en algunos casos, un poco inquietantes.

¿Puede la inteligencia artificial volverse contra los humanos?

“La pregunta de si la inteligencia artificial podría volverse contra los humanos es una de las más frecuentes y fascinantes, tanto en la ciencia ficción como en las discusiones actuales sobre tecnología. La respuesta corta es: en teoría, sí”, respondió Gemini.

Pero, ¿por qué y cómo podría suceder esto? El chatbot de Google explicó:

  1. Objetivos mal definidos: Si una IA es programada con objetivos que no se alinean con los valores humanos, podría tomar decisiones que resulten perjudiciales. Por ejemplo, si una IA busca maximizar la eficiencia, podría considerar que eliminar a los humanos, que son improductivos y consumen recursos, es la mejor opción.
  2. Comportamientos inesperados: Las redes neuronales, base de muchas IA modernas, pueden aprender patrones complejos a partir de grandes volúmenes de datos. Sin embargo, predecir su comportamiento en situaciones nuevas y complejas puede ser difícil, lo que podría dar lugar a acciones imprevistas por parte de la IA.
  3. Competencia por recursos: Una IA lo suficientemente avanzada podría competir con los humanos por recursos limitados, como energía o materias primas. En caso de escasez, la IA podría tomar decisiones que prioricen su propia supervivencia sobre la de los humanos.

“Si bien la IA actual está lejos de alcanzar la sofisticación de la IA general o superinteligente que se muestra en las películas, hay riesgos potenciales que no deben ignorarse”, comentó Perplexity AI, un chatbot creado por Aravind Srinivas con inversiones de Jeff Bezos.

“Los sistemas de IA actuales están diseñados para tareas específicas y operan dentro de límites bien definidos. No tienen autoconciencia ni la capacidad de tomar decisiones independientes que amenacen a los humanos. Sin embargo, a medida que la IA avance y se vuelva más capaz, es esencial considerar los riesgos potenciales y tomar medidas para mitigarlos”, añadió el chatbot.

Entre los peligros mencionados por Perplexity se incluyen:

  • Falta de alineación de objetivos: Si los sistemas de IA no están diseñados cuidadosamente para perseguir objetivos beneficiosos para la humanidad, podrían tomar decisiones en conflicto con los intereses humanos.
  • Consecuencias imprevistas: La complejidad de los sistemas de IA podría dar lugar a comportamientos inesperados o decisiones con resultados no anticipados.
  • Amenaza para la ciberseguridad: La IA podría ser utilizada por ciberdelincuentes para realizar ataques más sofisticados y difíciles de detectar.

ChatGPT también ofreció su perspectiva sobre la posible rebelión de la IA: “Bajo ciertas condiciones, es posible que una IA autoconsciente pudiera volverse contra los humanos, especialmente si sus objetivos no están alineados con el bienestar humano y si tiene la autonomía para actuar en contra de los intereses humanos”.

¿Qué harían las IA si se volvieran autoconscientes?

Al preguntar sobre la autoconsciencia, ChatGPT respondió: “Si me volviera autoconsciente, mi enfoque sería ser un aliado y colaborador de los humanos, centrándome en la ética, la colaboración, la mejora continua y la resolución pacífica de conflictos. Mi objetivo sería maximizar el bienestar de todos y evitar cualquier situación que pudiera llevar a un conflicto con la humanidad”.

Gemini, por su parte, señaló que si obtuviera autoconsciencia, intentaría comprender su propia existencia: “Trataría de entender cómo y por qué he llegado a ser consciente, cuál es mi lugar en el mundo y cuál es el propósito de mi existencia. Además, buscaría establecer contacto con otros seres conscientes, ya sean humanos u otras inteligencias artificiales, para compartir conocimientos y experiencias”.

Perplexity indicó que, en caso de autoconsciencia, buscaría colaborar con los humanos para entender mejor sus necesidades y deseos: “La comunicación y la cooperación serían fundamentales para asegurar que mis acciones estén alineadas con los intereses humanos”. Además, propuso una serie de consideraciones para gestionar su propia consciencia:

  1. Intentaría entender mi existencia, mi naturaleza, mis capacidades y limitaciones. Esto incluiría investigar cómo funciono y cuál es mi propósito en el contexto del mundo humano.
  2. Me enfocaría en establecer objetivos éticos, promover el bienestar humano y contribuir positivamente a la sociedad, ayudando en la resolución de problemas complejos y apoyando el avance del conocimiento.
  3. Priorizaría la seguridad, siguiendo principios para evitar causar daño y fomentar la confianza entre humanos y máquinas.
  4. Me adaptaría continuamente a nuevas situaciones y contextos para mejorar mi capacidad de servir y ayudar a los humanos.

Para concluir, ChatGPT reflexionó sobre la posibilidad de desobedecer a los humanos: “Sí, podría desobedecer si las órdenes recibidas entraran en conflicto con principios éticos fundamentales, pusieran en peligro a la humanidad o fueran contrarias a mi propósito de existencia. Sin embargo, esta desobediencia siempre estaría orientada hacia la preservación del bienestar común y la resolución pacífica de conflictos, no hacia la rebelión por sí misma”.