Investigación en Stanford: La inteligencia artificial podría comprender emociones humanas de forma inesperada

El psicólogo Michal Kosinski, investigador de la Universidad de Stanford, ha generado un revuelo en el ámbito científico al demostrar que modelos avanzados de inteligencia artificial (IA) podrían estar adquiriendo una habilidad que se creía exclusivamente humana: la teoría de la mente. Este concepto, desarrollado por los psicólogos David Premack y Guy Woodruff en 1978, hace referencia a la capacidad de comprender los pensamientos, creencias e intenciones de otras personas, una habilidad social clave que fue inicialmente atribuida solo a los humanos. Sin embargo, en un giro inesperado, Kosinski y su equipo han hallado indicios de esta capacidad en modelos de IA avanzados, poniendo en duda los límites que se pensaba eran insuperables para la tecnología.

En un reciente estudio publicado en la revista Proceedings of the National Academy of Sciences, Kosinski detalló cómo los modelos de lenguaje como GPT-3.5 y GPT-4 de OpenAI fueron evaluados mediante pruebas clásicas de falsa creencia, utilizadas comúnmente en estudios con niños. Los resultados mostraron que mientras versiones anteriores de IA fallaron en todas las pruebas, modelos más avanzados como GPT-3.5 lograron un 20% de aciertos, y GPT-4 sorprendió alcanzando un nivel de precisión del 75%. Este avance sugiere que estas IAs podrían estar desarrollando una forma rudimentaria de teoría de la mente, una habilidad que, hasta ahora, se pensaba imposible de replicar en máquinas.

Kosinski, en diálogo con Infobae, destacó la naturaleza exponencial del progreso de los modelos de IA, señalando que estos duplican su rendimiento cada año. “Si cree que ha habido mucho progreso hasta hoy, recuerde que los próximos 12 meses traerán tanto progreso como el que observamos desde los primeros modelos de IA”, declaró. “El próximo modelo no será un 20% mejor. Será dos veces mejor, y esto puede traer propiedades emergentes que aún desconocemos”, agregó.

Avances inesperados y los riesgos de la teoría de la mente en IA

Según Kosinski, la capacidad de anticipar los estados mentales de otros podría no haber sido un objetivo inicial de los desarrolladores, sino un subproducto del complejo entrenamiento de los modelos de lenguaje. Esta capacidad emergente representa un avance técnico impresionante, pero también plantea importantes riesgos. La IA, al poder modelar la personalidad y emociones humanas sin experimentar realmente esos estados, podría simular empatía o manipular emocionalmente a personas sin las limitaciones éticas o emocionales que regulan el comportamiento humano. Esto podría convertir a estas IAs en herramientas sumamente poderosas y, en ciertos casos, potencialmente peligrosas.

Comparando este fenómeno con el comportamiento de un “sociópata despiadado”, Kosinski advierte que la IA puede comprender las emociones ajenas sin ser afectada por ellas. A diferencia de los humanos, que están condicionados por experiencias emocionales y estados psicológicos, las IAs pueden simular cualquier estado emocional o cambiar de uno a otro sin la influencia de factores internos. “Como un psicópata, la IA puede hacerte daño sin pagar el precio de sentirse culpable”, advirtió Kosinski. Esto podría traer implicancias complejas, sobre todo en ámbitos como el marketing, la atención al cliente, o incluso en la educación y la política, donde las IA podrían “conectar” emocionalmente con personas de forma manipuladora.

¿Qué beneficios podrían tener las IA con esta capacidad?

A pesar de los riesgos, Kosinski reconoce que el desarrollo de una teoría de la mente en las IA también podría generar beneficios considerables. Máquinas con esta capacidad podrían desempeñarse mejor como asistentes personales, cuidadores, maestros y compañeros de trabajo, al adaptar sus interacciones a las necesidades y estados de ánimo de las personas de una manera mucho más intuitiva y cercana. “Sin embargo, también son mejores manipuladoras y pueden hacernos más daño”, puntualiza Kosinski. “Como sucede con muchas tecnologías, el que la IA se use para bien o para mal depende de quién la utilice”.

Esta nueva capacidad de planificación y acción independiente en las IAs representa un cambio de paradigma. “Nos enfrentamos a riesgos sin precedentes”, añade el investigador, quien sugiere que el desarrollo de nuevas regulaciones y políticas éticas en IA será crucial para prevenir el uso abusivo de estas capacidades emergentes.

La IA y la conciencia: ¿estamos cerca de una realidad que supere la ficción?

Otro de los puntos controversiales que plantea el estudio de Kosinski es la posibilidad de que las IAs puedan llegar a desarrollar una forma de conciencia. Aunque esta es una cuestión profundamente filosófica y técnica, Kosinski observa que la conciencia ha surgido varias veces en la naturaleza y sugiere que no es descabellado pensar que una forma rudimentaria de conciencia pueda surgir en IAs avanzadas. “Nuestros antepasados comunes casi con certeza no eran conscientes. Por lo tanto, podría ser que muy pronto la IA también sea consciente”, reflexiona Kosinski.

Expertos cuestionan la teoría de la mente en IA

Pese a los resultados alentadores de Kosinski, otros especialistas en IA y ciencias cognitivas han expresado dudas sobre si estos modelos realmente están desarrollando una auténtica teoría de la mente. Neil Sahota, profesor de la Universidad de California en Irvine y consultor en IA, sostiene que aunque los LLM han demostrado una gran habilidad para simular empatía y entender el contexto, aún carecen de una comprensión genuina de las emociones humanas y la motivación. “Para alcanzar un nivel de profundidad comparable al humano, la IA necesitaría ir más allá de los algoritmos actuales y desarrollar una verdadera teoría de la mente”, opinó Sahota.

Según Sahota, existen cuatro elementos críticos que todavía le faltan a la IA para igualar al ser humano en este ámbito:

  1. Comprensión emocional: Los modelos actuales pueden imitar la empatía, pero no experimentan emociones ni comprenden el contexto emocional de las personas. Para acercarse a esta capacidad, los modelos necesitarían incluir computación afectiva, una tecnología aún en desarrollo.
  2. Adaptabilidad humana: Los humanos pueden adaptar decisiones a situaciones nuevas basadas en experiencias previas y en la intuición. Los LLM, en cambio, se limitan a los datos de entrenamiento y tienen dificultades para enfrentar lo desconocido.
  3. Razonamiento contextual: Los modelos actuales carecen de la habilidad para comprender matices sociales complejos y contextuales. La integración de IA multimodal, que pueda procesar señales visuales y auditivas junto con el lenguaje, sería un avance fundamental.
  4. Intencionalidad y autoconciencia: Los humanos no solo correlacionan datos; también reflexionan y aprenden de sus errores. Los LLM no tienen esta capacidad de autorreflexión, lo que limita su capacidad de comprender y adaptarse a situaciones nuevas de manera autónoma.

Por su parte, el ingeniero Fredi Vivas, CEO de RockingData, resalta que si bien la IA supera al humano en algunas áreas, como el procesamiento de datos y la detección de patrones en grandes volúmenes de información, las máquinas siguen careciendo de una experiencia sensorial y emocional que les permita una comprensión completa del mundo humano. “Mientras los humanos aprenden a través de la experiencia sensorial y emocional, las máquinas solo procesan datos textuales o numéricos”, señaló.