La creencia general es que la ceguera potencia otros sentidos como el oído. Varios estudios muestran que, si bien el resto de sentidos de las personas ciegas no son más finos, sí que emplean una modalidad auditiva como sustituto para interpretar algunas representaciones espaciales. No obstante, la precisión auditiva puede ser menor en individuos con ceguera congénita al desempeñar una tarea de bisección audioespacial.
Un estudio respaldado por el proyecto financiado con fondos europeos weDRAW mostró que el déficit desaparece si los individuos con ceguera congénita cuentan con información espacial y temporal coherente. Los descubrimientos se publicaron recientemente en la revista
«iScience». «Nuestros resultados apuntan a que, en algunos casos, el encéfalo podría servirse de información temporal para extraer coordenadas espaciales del entorno. Una posibilidad es que suponga una velocidad constante del estímulo y, en consecuencia, se sirva de mapas temporales para resolver los análisis métricos espaciales».
En declaraciones publicadas en una
nota de prensa, la autora principal Monica Gori del Instituto Italiano de Tecnología explicó su estudio: «Este trabajo nos muestra que nuestra representación audioespacial está condicionada por nuestra experiencia visual. En ausencia de visión, las capacidades espaciales auditivas no siempre aumentan y, en algunos casos, como la bisección espacial estudiada pueden incluso verse mermadas».
Percepción espaciotemporal
En el estudio de Gori y sus colegas participaron diecisiete personas ciegas que se emparejaron por edad con otras diecisiete personas con capacidad para ver. Todos los participantes se sentaron con los ojos vendados delante de una instalación compuesta por veintitrés altavoces. Se situaron a una distancia de 180 cm y en una composición angular de ±25°; situando en los 0° al altavoz central y con valores negativos y positivos a izquierda y derecha respectivamente. De izquierda a derecha, tres de los altavoces emitían un pitido cada uno y los participantes debían contestar si el segundo pitido procedía de un altavoz más cerca del primero o del tercero.
Tal y como se resume en la misma nota de prensa, en la primera tanda de experimentos se siguió un retraso uniforme de 750 ms entre un pitido y otro. En las dos tandas siguientes, los pitidos se emitieron de manera directa o indirectamente proporcional a la distancia que separaba los altavoces por los que sonaban los pitidos. A pesar de estar con los ojos vendados, los participantes videntes lograron adivinar la posición relativa de los sonidos con independencia del momento de emisión de los pitidos. No obstante, el momento del pitido influyó considerablemente en la capacidad de juicio de los participantes con discapacidad visual. Según la nota de prensa, los investigadores cuentan con datos preliminares que muestran que los niños pequeños utilizan información temporal para calcular la distancia espacial entre sonidos. «Esto significa que el encéfalo se vale de interacciones intersensoriales durante el desarrollo para crear representaciones espaciales».
El proyecto en curso weDRAW (Exploiting the best sensory modality for learning arithmetic and geometrical concepts based on multisensory interactive Information and Communication Technologies and serious games) se propone investigar y diseñar distintos tipos de entornos de aprendizaje digital utilizando diferentes sentidos como la vista, el sonido, el tacto y el movimiento para enseñar conceptos matemáticos a niños de primaria (de seis a diez años). En el
sitio web del proyecto se indica que uno de los objetivos científicos es «conocer mejor las capacidades rítmicas y motrices de los niños de desarrollo normal, con discapacidad visual y disléxicos en distintas fases de su desarrollo (seis y siete años y de ocho a diez años) mediante experimentos psicofísicos».