Las Señales Cerebrales Se Convierten En Habla Mediante Inteligencia Artificial - Vista Alternativa

Tabla de contenido:

Las Señales Cerebrales Se Convierten En Habla Mediante Inteligencia Artificial - Vista Alternativa
Las Señales Cerebrales Se Convierten En Habla Mediante Inteligencia Artificial - Vista Alternativa

Vídeo: Las Señales Cerebrales Se Convierten En Habla Mediante Inteligencia Artificial - Vista Alternativa

Vídeo: Las Señales Cerebrales Se Convierten En Habla Mediante Inteligencia Artificial - Vista Alternativa
Vídeo: ¿Te pueden leer la MENTE con Inteligencia Artificial? 2024, Mayo
Anonim

En un esfuerzo por ayudar a las personas que no pueden hablar, los neurocientíficos han desarrollado un dispositivo que puede convertir las señales cerebrales en habla. Esta tecnología aún no está lo suficientemente desarrollada para su uso fuera del laboratorio, aunque puede usarse para sintetizar oraciones completas que en su mayoría se entienden, escribe "Nature".

En un esfuerzo por ayudar a las personas que no pueden hablar, los neurocientíficos han desarrollado un dispositivo que puede convertir las señales cerebrales en habla.

Esta tecnología aún no está lo suficientemente madura para su uso fuera del laboratorio, aunque puede usarse para sintetizar oraciones completas que generalmente se entienden. Los creadores del decodificador de voz presentaron su descripción en un artículo publicado en la revista Nature el 24 de abril.

Los científicos han utilizado la inteligencia artificial en el pasado para convertir las señales cerebrales en palabras individuales, en su mayoría compuestas de una sola sílaba, dice Chethan Pandarinath, un neuroingeniero de la Universidad Emory en Atlanta, Georgia, que escribió un comentario sobre el artículo. “Saltar de una sílaba a oraciones es un desafío técnico y, en parte, por eso el trabajo es tan impresionante”, dice.

norte

Convertir movimiento en sonido

Muchas personas que han perdido la capacidad de hablar se comunican mediante un dispositivo que les obliga a realizar pequeños movimientos para utilizar el cursor para seleccionar letras o palabras en la pantalla. Un ejemplo famoso fue el del físico británico Stephen Hawking, que padecía una enfermedad de las neuronas motoras. Usó un dispositivo de habla que se activaba con el músculo de la mejilla, dijo el líder del estudio Edward Chang, neurocirujano de la Universidad de California en San Francisco.

Debido a que las personas que utilizan estos dispositivos deben escribir las palabras letra por letra, estos dispositivos pueden ser muy lentos, "hablando" hasta diez palabras por minuto, dice Chang. El habla natural implica un promedio de 150 palabras por minuto. “Esto se debe a la eficiencia del tracto vocal”, dice. Y entonces Chang y su equipo decidieron simular el sistema de voz al construir su decodificador de voz.

Video promocional:

Los científicos trabajaron con cinco personas a las que se les implantaron electrodos en la superficie del cerebro en el proceso de tratamiento de la epilepsia. Al principio, cuando los participantes en el experimento leyeron cientos de oraciones en voz alta, los científicos registraron la actividad del cerebro. Luego, Chang y sus colegas combinaron estas grabaciones con datos de experimentos anteriores que observaron cómo los movimientos de la lengua, los labios, la mandíbula y la laringe producen sonido.

Con estos datos, los científicos "entrenaron" un algoritmo de aprendizaje profundo y luego incluyeron este programa en su decodificador. El dispositivo convierte las señales cerebrales en movimientos específicos del tracto vocal y convierte estos movimientos en habla sintética. Las personas que escucharon las 101 oraciones sintetizadas pudieron entender un promedio del 70% de las palabras, dice Chang.

En otro experimento, los científicos le pidieron a uno de los participantes que leyera oraciones en voz alta y luego silenciara las mismas oraciones con la boca. Las oraciones sintetizadas en este caso fueron de peor calidad que las sintetizadas a partir del discurso “hablado”, dice Chang, pero los resultados siguen siendo alentadores.

Comprender el habla sintetizada es una cuestión del futuro

El habla, sintetizada al convertir las señales cerebrales en movimientos del tracto vocal y traducirlas en sonido, es más fácil de entender que el habla, que se sintetiza al convertir las señales cerebrales directamente en sonido, dice Stephanie Riès, neurocientífica de la Universidad Estatal de San Diego. en California.

Pero no está claro si el nuevo decodificador de voz funcionará con palabras que las personas solo "hablan" en sus mentes, dice Amy Orsborne, neuroingeniera de la Universidad de Washington en Seattle. "El artículo muestra muy bien que el dispositivo funciona con la imitación del habla", dice. "¿Pero cómo funciona si la persona no mueve los labios?"

Marc Slutzky, neurocientífico de la Universidad Northwestern en Chicago, Illinois, está de acuerdo y dice que el decodificador de voz puede ser más eficiente. Señala que los oyentes identificaron el habla sintetizada eligiendo palabras de un conjunto de opciones, pero a medida que aumentaba el número de opciones, se hacía más difícil entender las palabras.

Esta investigación "es un paso realmente importante, pero aún queda mucho por hacer antes de que el habla sintetizada se pueda entender fácilmente", dice Slutsky.

Georgia Guglielmi (Giorgia Guglielmi)

Recomendado: