Por primera vez en la historia, un grupo de neurocientíficos de la Universidad de Stanford consiguió escuchar en tiempo real la voz interna de personas con discapacidades graves del habla, utilizando una combinación de chips cerebrales, inteligencia artificial e interfaces cerebro-computadora (BCI).
🗣️ El avance, publicado en la revista Cell, tiene un objetivo claro: darle voz a quienes no pueden hablar, de forma más natural y eficiente. Aunque el logro plantea dilemas éticos sobre la privacidad del pensamiento, por ahora el enfoque es terapéutico y respetuoso.
🧪 ¿Cómo lo hicieron? Se implantaron electrodos en la corteza motora del habla de cuatro pacientes con disartria (trastorno que dificulta la articulación por lesiones neurológicas). Los participantes debían decir frases en voz alta —o intentarlo— y también repetirlas en su mente, sin mover un solo músculo.
🔍 Los científicos descubrieron que “pensar en hablar” genera patrones neuronales similares a los del habla real, aunque menos intensos. Como explicaron: “Es como si tuvieras el volumen bajo”.
🤖 A partir de esos datos, entrenaron un modelo de IA capaz de traducir los pensamientos en fonemas y palabras con un 74% de precisión. La velocidad y estabilidad del sistema permiten que los pacientes se comuniquen sin fatiga, un cambio radical respecto a métodos anteriores.
🔐 Además, el equipo implementó un sistema de seguridad con “palabra clave” que protege la privacidad mental. Este sistema de autenticación neuronal registró una efectividad del 98.75%, estableciendo un nuevo estándar para el control individual sobre los dispositivos cerebrales.
🔍 ¿Sabías esto? El primer intento exitoso de una interfaz cerebro-computadora ocurrió en 1998, pero solo permitía mover un cursor con la mente. Hoy, un cuarto de siglo después, la ciencia avanza hacia leer pensamientos con fines terapéuticos, algo que parecía ciencia ficción no hace tanto.