🧨 Una revelación inquietante sacudió al mundo de la inteligencia artificial esta semana. Según un informe publicado por OpenAI, más de un millón de personas por semana utilizan ChatGPT para hablar sobre suicidio o autolesiones. La estadística parte del 0,15% de usuarios activos que mantienen conversaciones con estas temáticas, un número que eriza la piel y ha encendido las alarmas dentro de la compañía.
💥 Frente a esto, OpenAI decidió redirigir estos mensajes hacia sistemas más seguros, limitando la posibilidad de que el chatbot responda directamente a quienes manifiestan pensamientos autodestructivos. La compañía fue clara: el modelo no está preparado para ofrecer apoyo emocional profesional, por lo tanto, la prioridad debe ser la seguridad del usuario.
⚠️ Sin embargo, la decisión abre un dilema ético complejo. Si bien restringir las respuestas puede proteger a la empresa de responsabilidades legales, también implica que muchas personas en crisis pierden un canal de contención inmediata, algo que, en algunos casos, podría marcar la diferencia entre la vida y la muerte.
🔧 El desafío que queda planteado ahora es el desarrollo de modelos especializados, supervisados por profesionales de la salud mental, que puedan asistir a quienes necesitan ayuda urgente, sin poner en riesgo su integridad ni dar respuestas inapropiadas.
📌 Curiosidad: ¿Sabías que OpenAI entrena sus modelos para evitar dar consejos médicos o psicológicos justamente para no reemplazar el rol de un profesional humano? Sin embargo, durante la pandemia del COVID-19, se registró un fuerte aumento de personas que acudían a chats automáticos como “último recurso” para conversar.
