Un equipo interdisciplinar, liderado por el doctor Ignacio Moreno-Torres, del Departamento de Filología Española, analiza las dificultades de los oyentes para reconocer consonantes en entornos ruidosos.
Foto de portada: Dos personas se comunican con el lenguaje de signos. /UMA
Mantener una conversación en un espacio público puede convertirse en algo complicado debido a la gran cantidad de ruido que hay alrededor, si a esto le añadimos un problema auditivo, escuchar a nuestro interlocutor puede resultar toda una hazaña. Según datos del Instituto Nacional de Estadística (INE), en España hay más de un millón de personas que padecen una discapacidad auditiva, lo que se traduce en que un 8% de la población. Para paliar esta situación, más de 15.000 de personas se han sometido a una intervención para colocarse un implante coclear en nuestro país, según datos de la Federación de Asociaciones de Implantados Cocleares de España. Tras ello se necesita una rehabilitación logopédica para adaptarse al nuevo dispositivo. Con el fin de ayudar en esta última fase del proceso, un equipo interdisciplinar, liderados por Ignacio Moreno-Torres, doctor en Filología Hispánica del Departamento de Filología Española; ha llevado cabo un estudio sobre el reconocimiento de consonantes con un ruido de fondo resultante de mezclar las voces de 8 personas.
El primer paso en esta línea de investigación se ha desarrollado con 81 personas que no tienen ningún problema auditivo. Estos voluntarios realizaron una prueba de reconocimiento de sílabas con diferentes niveles de ruido de fondo (+2, -2 y -6 dB). Los voluntarios debían escoger una entre 86 opciones disponibles en una pantalla de ordenador. Se realizaron 240 estímulos que se presentaron en orden aleatorio. Los participantes escucharon estas sílabas con el ruido de fondo con tres intensidades distintas. En una los decibelios de las composición silábica eran superiores al ruido de fondo y las dos restantes este último superaba la intensidad de las consonantes.
Como resultado se pudo identificar cuáles son los sonidos más fáciles de reconocer. Por ejemplo, las sibilantes, como la s, o africadas, cómo la ch, son más resistentes al sonido de fondo por lo que persisten más. “Los voluntarios no tuvieron problemas al reconocer las silabas que contenían la s”, explica el investigador Moreno-Torres. Por el contrario los sonidos como p, b, d, y k son los más complicados de identificar, por lo que son menos resistentes al ruido.
Asimismo, se determinaron las confusiones que se podían dar con otras sílabas. Este fenómeno se puede ver fácilmente con los errores que se cuando se presenta la sílaba ba que se puede interpretar como pa o fa, que se puede escuchar za. “Normalmente tendemos a escuchar lo que se da de manera más habitual en nuestro idioma, por lo que los errores son diferentes en otros idiomas. Por ejemplo, cuando a un inglés se le presenta la sílaba za a menudo dice haber reconocido fa porque este último sonido está más presente en esta lengua”, afirma el lingüista. En español, ocurre a la inversa, cuando se presenta la sílaba fa, el español cree oír za.
Posibles aplicaciones
ste es solo uno de los pasos que sigue la línea de investigación que busca la mejora en la rehabilitación de personas con pérdida auditiva y que llevan implantes cocleares, sin embargo estos estudios continúan. “En estos momentos estamos inmersos en la segunda parte del estudio, donde se llevará a cabo el mismo experimento en personas que tienen este tipo de dispositivos, para ver las diferencias entre estas personas y las que no tienen ninguna discapacidad”, subraya Moreno-Torres.
Los implantes cocleares son dispositivos médicos electrónicos que sustituyen la función del oído interno dañado para proporcionar señales sonoras al cerebro. Estos aparatos se colocan a personas que sufren una hipoacusia −privación o disminución de la facultad de oír− de moderada a profunda (de los 40dB hasta los 89dB). En esta nueva etapa se puede observar que los errores cometidos por los oyentes son distintos a las confusiones que se dan entre las personas con pérdidas auditivas. “Podría deberse a la forma en la que aprenden a hablar”, reflexiona el profesor.
Esta línea investigación, liderada por Ignacio Moreno-Torres, esta desarrollada por dos profesores más de la Universidad de Málaga: Pablo Otero y Salvador Luna, ambos doctores en Ingeniería en Telecomunicaciones del Departamento de Ingenierías de las Comunicaciones. A ellos se ha unido Elena Garayzábal, doctora en Filología Hispánica del Departamento de Lingüística General de la Universidad Autónoma de Madrid. Al disponer de un equipo interdisciplinar, las conclusiones se dan desde los distintos puntos de vista, por lo que se pueden llegar a soluciones más completas que ayuden a la rehabilitación de las personas con hipoacusia de manera más global.
Ignacio Moreno-Torres, Pablo Otero, Salvador Luna-Ramírez y Elena Garayzábal Heinze (2017): “Analysis of Spanish consonant recognition in 8-talker babble”. The Journal of the Acoustical Socity of America, vol 141, pp. 3079-3090. Disponible en línea: https://doi.org/10.1121/1.4982251