Los Neurofisiólogos De EE. UU. Han Aprendido A "escuchar A Escondidas" Los Pensamientos Humanos - Vista Alternativa

Los Neurofisiólogos De EE. UU. Han Aprendido A "escuchar A Escondidas" Los Pensamientos Humanos - Vista Alternativa
Los Neurofisiólogos De EE. UU. Han Aprendido A "escuchar A Escondidas" Los Pensamientos Humanos - Vista Alternativa

Vídeo: Los Neurofisiólogos De EE. UU. Han Aprendido A "escuchar A Escondidas" Los Pensamientos Humanos - Vista Alternativa

Vídeo: Los Neurofisiólogos De EE. UU. Han Aprendido A
Vídeo: LA CONSCIENCIA Y LA PERSONALIDAD. DE INEVITABLEMENTE MUERTO A ETERNAMENTE VIVO 2024, Mayo
Anonim

Los biólogos estadounidenses han creado un neurochip capaz de leer señales del centro auditivo del cerebro en tiempo real y descifrar lo que su dueño escucha o dice. Esta tecnología devolverá el poder del habla a personas paralizadas y tontas, escriben los científicos en la revista Nature Communications.

En los últimos 10 años, los neurofisiólogos han logrado un avance real en el campo de la creación de neurointerfaces: un conjunto de microchips, electrodos especiales y programas de computadora que permiten conectar cibermiembros, ojos artificiales e incluso aquellos órganos de los sentidos que no tienen análogos en la naturaleza: cámaras termográficas y Generadores de imágenes de rayos X.

Por ejemplo, en marzo de 2013, científicos brasileños y estadounidenses pudieron combinar los cerebros de dos ratas que vivían a miles de kilómetros entre sí, en una especie de "red local", o, como los propios científicos llamaron a esta construcción, "computadora orgánica", y enseñarles a intercambiar información.

Más tarde crearon una "mente colectiva" similar al combinar los cerebros de tres monos, y hace dos años, otros investigadores pudieron reemplazar la parte dañada del hipocampo, el centro de memoria en el cerebro de los ratones, y librarlos del "síndrome de la marmota", la incapacidad de recordar información nueva.

norte

Tales éxitos, como señala Chartier, hicieron que muchos científicos pensaran si es posible leer directamente los pensamientos de los centros del habla del cerebro y articularlos. La práctica ha demostrado que resolver este problema resultó ser una empresa mucho más difícil que conectar nuevos brazos y piernas al cuerpo de un paciente paralítico.

En la primavera de este año, Chartier y sus colegas pudieron resolverlo debido al hecho de que no intentaron descifrar las señales cerebrales y "leer" directamente palabras y letras, sino que sugirieron que nuestros centros del habla no codifican sonidos específicos, sino conjuntos de instrucciones para los músculos de la boca, laringe de la lengua. y cuerdas vocales. Esto les permitió por primera vez leer "honestamente" los pensamientos del cerebro de varios epilépticos.

Habiendo logrado éxitos similares, los neurofisiólogos de California intentaron aplicar la misma técnica para leer no solo los pensamientos del centro del habla de los voluntarios, sino también de aquellas regiones del cerebro que son responsables de procesar la información de los órganos auditivos.

Con el apoyo de tres pacientes en cuyo centro auditivo se implantaron electrodos, los científicos comenzaron a monitorear la actividad de esa parte de la corteza cerebral mientras los voluntarios escuchaban o respondían preguntas de Chartier y sus colegas.

Video promocional:

Al registrar estas señales y compararlas entre sí, los neurofisiólogos han creado un algoritmo que "descifra" los comandos del cerebro en un lenguaje comprensible para una computadora. A diferencia de la versión anterior de este programa, la nueva creación de los neurofisiólogos californianos no solo puede expresar los pensamientos "escuchados" de los voluntarios, sino también convertirlos en texto mediante la comparación de preguntas y respuestas.

Si bien este sistema tiene un "vocabulario" bastante pequeño, pero al mismo tiempo puede funcionar en tiempo real y comete errores con mucha menos frecuencia que otros sistemas de tipo similar. En promedio, lee correctamente alrededor de tres de cada cuatro palabras, sílabas y sonidos en una oración, lo cual es suficiente para la comunicación.

Un mayor "entrenamiento" del algoritmo, como espera Chartier, permitirá que esta neurointerfaz se utilice para comunicarse libremente con paralíticos, víctimas de derrames cerebrales o personas mudas que han perdido la capacidad de hablar debido a lesiones en el cráneo o las cuerdas vocales.

Recomendado: