Científicos de la Universidad Hebrea de Jerusalén han desarrollado un software denominado vOICe capaz de convertir imágenes en secuencias de sonido. Una tecnología que no sólo le da “ojos” a los que no pueden ver, sino que también ha reorganizado la manera de como pensábamos funcionaba nuestro cerebro.
Con un pequeño entrenamiento, los invidentes pueden deducir de los sonidos la presencia de un cuerpo humano, su silueta y lo que es más interesante, su postura, que pueden incluso imitarla.
Cabe destacar que parte de esta investigación ya se ha traducido en una aplicación llamada EyeMusic que se puede obtener gratis en iTunes. “La idea es reemplazar la información de un sentido que se ha perdido, como la vista, por la que puede transmitir otro (el oído). Es lo que hacen los murciélagos o los delfines, utilizan los sonidos y la ecolocalización para ver a través de sus oídos”, explica Amir Amedi, el autor principal de la investigación.
“Por ejemplo, una línea diagonal descendente de izquierda a derecha puede representarse con una escala musical descendente. Y al revés, una diagonal que apunta hacia arriba estaría representada por una escala musical ascendente y para obtener información sobre el color se utilizan diferentes instrumentos musicales. EyeMusic es un dispositivo de sustitución sensorial (DSS) que escanea una imagen y utiliza tonos musicales para representar la localización de pixeles”, agrego.
Podría parecer complicado de entender y de usar, sin embargo, en los estudios preliminares los participantes lograron aprenderlo después de solo 70 horas de entrenamiento.
Para ejemplificarlo, a pesar de no tener puntos de referencia visuales, después del entrenamiento, los individuos pasaron de “escuchar” los puntos y las líneas simples a “ver” imágenes completas, tales como caras y esquinas de las calles compuestas por 4500 píxeles. En comparación, Mario de Nintendo se compone sólo de 192 píxeles en su primera aparición en los videojuegos.
Resulta muy interesante que en el cerebro de las personas invidentes que participaron en el estudio se activó un área de la corteza visual descubierta recientemente en 2001, que está especializada en el procesamiento de imágenes de cuerpos humanos y su movimiento, una cualidad que nunca habría de ser activada por los invidentes de nacimiento.
Ahora el equipo de Amedi espera que su aplicación EyeMusic, se constituya como una herramienta de la Neurociencia. “Podría ser interesante explorar los cambios en plasticidad asociados con el aprendizaje que lleva a decodificar la información del color a partir de sonidos en las personas con ceguera congénita, que nunca han percibido los colores. Además podría servir de ayuda para comprender la organización del cerebro en general”, explica el neurocientífico.
Referencia: Current Biology, iTunes
No hay comentarios:
Publicar un comentario