A pesar de los avances en el campo de la asistencia visual, aún existen desafíos para dar a las personas con discapacidad visual una comprensión completa y segura de su entorno. Es por eso que estas gafas buscan solucionar el problema, aprovechando una de las características que destaca a estos dos animales sobre el resto de la naturaleza.
Según la Organización Mundial de la Salud, alrededor de 39 millones de personas en todo el mundo son ciegas y otras 246 millones viven con baja visión, por lo que es necesario encontrar soluciones más practicas para que puedan relacionarse con su entorno y en este caso los murciélagos y delfines ayuda a dar una respuesta.
Cómo son las gafas inteligentes
La ecolocalización es una habilidad que utilizan los animales para reconocer su entorno emitiendo sonidos que rebotan en objetos y superficies, permitiéndoles interpretar la ubicación y la distancia de los elementos. Los murciélagos dependen en gran medida de esta técnica para la búsqueda de presas y el vuelo en la oscuridad de las cuevas.
Los investigadores de la Universidad Tecnológica de Sydney se inspiraron en este principio y aplicaron la ecolocalización a las gafas inteligentes, creando lo que denominaron Dispositivo de Audio Foveado o FAD. Estos dispositivos transforman la información visual en representaciones sonoras únicas, permitiendo a las personas con discapacidad visual entender su entorno a través del sonido.
Las gafas FAD constan de una combinación de hardware y software que trabajan en conjunto para proporcionar una experiencia de “acoustic touch” a los usuarios. Estas gafas están compuestas por lentes de realidad aumentada conectadas a un teléfono Android, específicamente un OPPO Find X Pro.
El motor de videojuegos Unity Game Engine se encarga de gestionar la entrada de audio y la salida de seguimiento de cámara/cabeza de las gafas, lo que permite a las FAD convertir los objetos que entran en el campo de visión del dispositivo en “iconos” de sonido fácilmente distinguibles.
Lo que distingue a estos dispositivos de las gafas inteligentes convencionales es su enfoque en la retroalimentación auditiva en lugar de depender exclusivamente de la visión por computadora. En lugar de sintetizar la información visual en voz, estas gafas crean representaciones sonoras únicas para cada objeto que entra en el campo de visión del usuario. Por ejemplo, el susurro de las hojas puede representar una planta, mientras que un zumbido puede simbolizar un teléfono móvil.
Para evaluar su eficacia, los investigadores llevaron a cabo pruebas con 14 participantes, siete de los cuales tenían los ojos vendados y siete con ceguera o problemas de baja visión. Estas pruebas se realizaron en varias etapas, incluyendo escanear y sonificar objetos sobre una mesa y caminar por una habitación con objetos desordenados como un recipiente, un libro, una taza y una botella.
Fuente: Infobae