El uso de la voz se remonta al inicio de los tiempos, donde era una herramienta fundamental para la supervivencia de nuestros antepasados.

Como no existía el lenguaje hablado, para poder comunicar o expresar emociones se emitían sonidos sin palabras, que hacían posible comprender el estado emocional ajeno, y expresar el propio.

¿Cómo ha evolucionado la voz desde entonces?

La voz es nuestra forma más orgánica de comunicación, con ella podemos remover recuerdos, despertar emociones, generar sentimientos y sensaciones.

Y a día de hoy, la ciencia aún sigue estudiando y aprendiendo cómo nuestro cerebro procesa el sonido, y cómo la voz influye en nosotros.

¿Cúando empezamos a hablar?

En biología existen diferentes teorías sobre cuando nos convertimos en humanos, y están relacionadas con:

Poder caminar erguidos sobre nuestras piernas y que nuestro cerebro creciera y pudiese realizar procesos cognitivos más complejos

Pero los principales cambios que influyeron en la evolución de nuestra voz fueron en en nuestro aparato fonador.

El cráneo cambió de forma, el rostro se aplanó, la lengua se desplazó hacia atrás, la laringe se alargó y bajó junto a las cuerdas vocales, haciendo más espaciosa la cavidad de la boca, una especie de «recinto acústico», que facilitaba la producción de nuevos sonidos utilizados en el lenguaje.

Nuestro cuerpo es un complejo instrumento musical. A través de la boca se pueden reproducir más de 300 sonidos diferentes. Cientos de músculos se ponen en funcionamiento a la hora de emitir sonidos, y las cuerdas vocales pueden vibrar hasta 100 veces por segundo.

Talking Marc Rodriguez GIF - Find & Share on GIPHY

Voz y cerebro

Nuestro cerebro procesa los sonidos producidos por la voz humana y responde a las emociones en la voz (más que al lenguaje), y este receptor prácticamente no se ha movido del sitio desde nuestros antepasados.

Esta parte del cerebro era, y es, fundamental para la supervivencia, puesto que indica estados como: el miedo, felicidad, asco, alerta, o enfado.

Poder identificar y expresar estas emociones nos sirve para poder evaluar un peligro, o transmitir un sentimiento sin necesidad de usar palabras.

Pero además, la voz rebela detalles sobre nosotros y es fundamental en nuestras relaciones.

La voz en los bebés

Aún dentro del vientre de la madre, podemos reconocer la forma de hablar, el tono o el ritmo de una voz en particular. Aunque no la entendamos, sentimos sus vibraciones. Y esto funciona de forma idéntica en cualquier idioma o raza.

Podemos comunicarnos con bebés sin utilizar el lenguaje hablado, únicamente a través de sonidos. Y los bebés también «inventan» su propio lenguaje de la misma forma, para indicar algo (sorpresa, alegría, enfado..).

El «habla dirigida al bebé», es muy musical, se habla de forma exagerada, aguda, cantarina y sobre todo expresiva. Por eso, la comunicación y el tono de voz que usamos, es tan importante para el desarrollo cognitivo y la conexión emocional de los primeros meses.

En los primeros 4 años de vida, cuando el bebé comienza a hablar, la laringe baja para poder producir diferentes sonidos, algo que a la humanidad le ha llevado millones de años en conseguir.

¿Qué pasa con nuestras emociones cuando crecemos?

Voz y emociones en el habla

Poco tardamos en comenzar a sentir miedo, frustración, vergüenza… y entonces nos empeñamos en esconder y en controlar nuestras emociones, en lugar de conocerlas y gestionarlas.

Y al almacenar todo esto en nuestro interior, creamos una especie de olla a presión.

Nos tensamos, apretamos músculos involuntariamente y no permitimos el paso del aire. Si no damos libertad a la voz, corremos el riesgo de sufrir daños en el aparato fonador y posibles consecuencias físicas como: problemas digestivos, contracturas, patologías de la piel…

Las neuronas espejo. La voz y su reflejo

La neuronas espejo, o neuronas especulares, se activan cuando ejecutamos una acción y cuando observamos esa misma acción al ser ejecutada por otro individuo.

La calidad musical de la voz, el tono, el ritmo o el volumen de otra persona, puede generar distintas emociones y efectos en nuestros sentidos, que pueden sentirse en forma de vibración, palpitaciones, «carne de gallina», escalofríos …

Estas neuronas se activan para reflejar esas emociones que escuchamos y sentirlas en nosotros mismos. Nos permiten sentir empatía, imitar a los demás, así como sentir, intuir si alguien nos está mintiendo y conectar de forma más profunda. E inconscientemente tendemos a imitar esas acciones que llaman nuestra atención.

Happy Laugh GIF - Find & Share on GIPHY

Tecnologías de voz al servicio de las personas

Las personas que han perdido su voz a causa de una enfermedad, accidente o cirugía. Sienten un importante aislamiento en su comunicación con otras personas.

Las consecuencias de no poder hablar son mucho más que físicas, pues todo el mecanismo para recrear sonidos cambia, y se hace imposible producir algo tan natural como la risa o el llanto.

Imitadores de voz humana

Nuestra voz es un regalo de la anatomía, una seña de nuestra identidad, única como las huellas dactilares.

Pero conseguir replicarla, es aún todo un desafío para la ciencia y la tecnología, que siguen trabajando para reproducir la voz humana

En 1769, Wolfgang von Kempelen, escritor e inventor húngaro, creó la «máquina habladora», una especie de sintetizador de voz operado manualmente, que nadie tomó demasiado en serio.

Más que nada, porque el pillo de Kempelen, ya había intentado tomar el pelo antes a algunos personajes de alta alcurnia con el «Turco». Un autómata que  supuestamente jugaba al ajedrez, pero que  resultó ser una persona de pequeña estatura escondida en una caja.

Sin embargo «la máquina habladora», ya  se asimilaba mucho al funcionamiento del aparato fonador.

Kempelen, utilizó un fuelle para suministrar aire a una lengüeta, que pasaba por un resonador, produciendo sonidos muy parecidos a los la la voz humana.

El vocoder

El Vocoder, fue el primer aparato sintetizador de voz.

Fue inventado en los años 20, y utilizado en los años 30 como codificador de voz para telecomunicaciones. Principalmente se usaba en seguridad. Para digitalizar, cifrar y transmitir voz en un canal, a través de sonidos electrónicos, dando como resultado una voz inteligible y mecánica .

Se hizo muy popular como efecto de voz en la música, a partir de los años 70 en las canciones Disco de moda de la época. Algo así como hoy en día lo hace el Autune, aunque sus funciones son diversas.

El Sonovox

El Sonovox fué inventado por Gilbert Wright en 1939. Este dispositivo consistía en dos micrófonos colocados al revés en la garganta, que convirtiéndose en altavoz y conectados a un reproductor de sonido, reproducían las vibraciones producidas por la resonancia.

A comienzos de los 60 el músico Bill West inventó el Steel Guitar, un amplificador de guitarra que enviaba el sonido, hacia a un mini altavoz en un espacio cerrado. De este este lugar salía un tubo hacia la boca del cantante, que podía modular su sonido.

Esta invención dió lugar al Talk Vox que recobró protagonismo 20 años después con la intro de «Livin ‘ On A Prayer» del grupo Bon Jovi

En 1961, las máquinas cantaron por primera vez y un ordenador IBM modelo 7094, fue el primero. A través de una voz sintetizada la computadora cantó  Daisy Bell, canción compuesta por Harry Dacre en 1892.

Como dato curioso, el tema que aparece en la emotiva escena de la película «2001 Odisea del Espacio» de 1968. Durante la desactivación del pc inteligente HAL 900, pierde su mente y «muere» cantando «Daisy Bell», una de las primeras cosas que aprendió  «de niño», cuando fue programado.

Las máquinas habladoras

Más de 50 años después, en Japón,  el profesor Hideyuki Sawada, inventó la «Boca  habladora robótica«.

Una réplica robótica de una caja de voz con un aspecto que podría perseguirte en tus peores pesadillas, y que además canta mal. Muy mal.

Pero  eso sí, fue creado con la mejor de las intenciones, facilitar la comunicación a personas que perdieron su voz o entrenamiento de personas sordas.

Usando ocho cuerdas vocales artificiales y ajustando el tono a medida que se escucha a sí mismo, imitaba el sistema del habla humana. Aquí puedes escuchar al doctor y su boca habladora.

Voces robóticas, los robots comienzan a hablar

Kismet es un tierno robot con cara de Gremlin, creado en los 90 por la Dra. Cynthia Breazeal. Se encuentra en el Instituto Uto de Tecnología de Massachusetts.

Apenas tiene vocabulario, ni idioma aparente, y se expresa únicamente con sonidos.

Y es capaz de reconocer e imitar emociones humanas. Tiene expresiones faciales, y capacidad para ajustar la dirección de la mirada y la orientación de la cabeza

Sus gestos y sonidos «cantarines» facilitan una relación empática con el, a través del contacto visual o la imitación, recordando a formas más primitivas y orgánicas para reconocer otras criaturas e identificarnos con ellas.

Voz, tecnología y ética

Hace ya años que Google sorprendió con Duplex. Un sistema de llamadas robóticas con una voz artificial, que «suena como una persona» y que realizan tareas como: reserva de citas, o responder consultas sobre horarios de atención comercial.

Y a pesar del debate sobre sobre la ética de dicho sistema, Google abrió una puerta al futuro hacia conversaciones mucho más reales.

“La tecnología debe ser FATED.

Es decir, que apueste por la diversidad, que sea justa, transparente y ética.»

Nuria Oliver, Ingeniera de Comunicaciones, Director of Research in Data Science @ Vodafone

Empresas como Vocal ID utilizan la robótica para mejorar la accesibilidad las personas.

Así crearon Human Voicebank. Para que personas puedan ser escuchadas y comunicarse, a través de una voz sintética, pero expresiva.

¿Las máquinas sustituirán a la voz?

La inteligencia artificial adapta las tecnologías de voz a la vida cotidiana, y nos comunicamos con nuestros dispositivos, utilizando tonos y expresiones que las máquinas aprenden.

La  tecnología abre nuevos caminos, para que esta interacción entre el humano y el robot sea fluida.

Se ha logrado que la voz artificial suene más natural, pero no lo suficientemente empática, como para reemplazar el contacto real.

Eso sí, cuanto más se acerca la tecnología a nuestras emociones, más influirá en nosotros y en el modo de relacionarnos con ella.

Ahora que sabemos un poco más sobre la evolución de la voz…

¿Piensas que la voz humana dejaría de tener importancia?  ¿Renunciarías a ella?

“Un ordenador, ya sea un robot o un androide, nunca podrá reemplazar a la voz humana. La voz humana, crea algo nuevo a cada instante, no podemos decir lo mismo dos veces, porque no somos copias, somos los originales”

Jean Abitbol. Otorrinolaringólogo, logopeda.  Jefe de Clínica de la Facultad de Medicina de París.
Dedicado al aspecto científico y artístico de la voz durante casi 30 años, el comienzo de su internado en medicina

Deja un comentario