Con un promedio de no más de 70 horas de formación, los participantes del estudio podían reconocer la presencia de una forma humana e, incluso, fueron capaces de detectar la posición exacta de la persona en la imagen e imitarla. "La idea es sustituir la información de un sentido que falta mediante la entrada de datos de un sentido diferente -explica Amir Amedi, de la Universidad Hebrea de Jerusalén, Israel-. De la misma forma en la que los murciélagos y los delfines utilizan los sonidos y la ecolocalización para "ver" usando sus oídos".
Los científicos enseñaron primero a las personas a percibir los puntos y las líneas simples y, entonces, esos individuos aprendieron a conectar las líneas con cruces o curvas, trabajando poco a poco hacia imágenes más y más complejas. El éxito del enfoque de sustitución sensorial sugiere un gran potencial para su uso terapéutico.
"Estamos empezando a entender que el cerebro es más que una máquina sensorial pura. Es una máquina de trabajo altamente flexible. Ha llegado el momento de reactivar el enfoque práctico en la rehabilitación visual con dispositivos de sustitución sensorial", subraya Amedi. En el estudio actual, los investigadores utilizaron un algoritmo que llamaron voice, que se traduce en imágenes en blanco y negro, y desarrollaron un algoritmo nuevo, EyeMusic, que incorpora información de color mediante el uso de diferentes instrumentos musicales. La aplicación EyeMusic está disponible gratuitamente en iTunes, donde estos expertos esperan que pueda ser útil para las personas con discapacidad visual y el público en general.