📊 Un estudio global realizado por la University College London (UCL) reunió las voces de 4.260 investigadores en inteligencia artificial para comprender cómo perciben el presente y el futuro de esta tecnología que avanza a pasos agigantados. El informe, titulado Visions, Values, Voices, revela un panorama mucho más complejo que el que suele pintarse desde los discursos empresariales o políticos.
🔍 Científicos optimistas, pero con reservas
📈 El 87 % de los expertos consultados considera que los beneficios de la IA superan o igualan sus riesgos. Sin embargo, solo un 9 % cree que los riesgos son mayores. En comparación, entre los ciudadanos del Reino Unido, apenas un 57 % tiene una visión optimista, y un 28 % considera que los peligros son más graves que las ventajas.
📣 A pesar de esta brecha, hay un claro consenso entre ambos grupos sobre los efectos negativos ya visibles: la desinformación, el cibercrimen y el uso indebido de datos personales encabezan la lista de preocupaciones.
📰 Desinformación: el gran fantasma digital
📢 El 77 % de los investigadores cree que la IA agrava el problema de las noticias falsas. El público también lo percibe: el 68 % comparte esta preocupación. Con la capacidad de generar imágenes, textos y audios falsos casi indistinguibles de los reales, los algoritmos plantean un serio desafío a la verdad en los entornos democráticos.
🔐 Privacidad bajo amenaza
📉 El 65 % de los científicos critica duramente el uso no autorizado de datos personales para entrenar modelos. Solo un 25 % acepta esta práctica como válida si la información fue publicada en Internet, mientras que casi la mitad exige consentimiento explícito del autor o propietario.
📎 Esto choca directamente con la política de muchos gobiernos, como el británico, que propone permitir el uso de obras protegidas salvo que los autores se opongan expresamente.
⚖️ ¿Quién debe vigilar la IA?
🏛️ Para los investigadores, la responsabilidad debe recaer sobre las empresas tecnológicas, los gobiernos y organismos internacionales. Por su parte, el público exige la creación de reguladores independientes con participación ciudadana, una señal de desconfianza hacia los actuales centros de poder.
⏳ ¿Avanzar rápido o con cautela?
🚧 Solo el 29 % de los científicos cree que la IA debe avanzar a máxima velocidad. La mayoría pide una pausa reflexiva, priorizando la evaluación de riesgos por sobre la innovación desenfrenada.
🤖 ¿Y la inteligencia artificial general?
🔮 Apenas uno de cada cinco expertos considera inevitable el desarrollo de una IA general, es decir, una máquina capaz de igualar o superar la inteligencia humana. Esto marca distancia con el entusiasmo de ciertas figuras del mundo tecnológico que afirman estar “a un paso” de ese escenario.
📌 Curiosidad final: Muchos de los algoritmos actuales fueron entrenados con textos y obras protegidas por derechos de autor, incluidas novelas clásicas y papers científicos, sin consentimiento. Esto fue posible gracias a vacíos legales en torno al concepto de “datos públicos”, un tema que hoy pone a la industria en una encrucijada ética sin precedentes. 📚💻