Los Japoneses Crearon El Primer Robot: El Avatar - Vista Alternativa

Tabla de contenido:

Los Japoneses Crearon El Primer Robot: El Avatar - Vista Alternativa
Los Japoneses Crearon El Primer Robot: El Avatar - Vista Alternativa

Vídeo: Los Japoneses Crearon El Primer Robot: El Avatar - Vista Alternativa

Vídeo: Los Japoneses Crearon El Primer Robot: El Avatar - Vista Alternativa
Vídeo: Cita entre Will Smith y la robot Sophia 2024, Mayo
Anonim

Los especialistas de la Universidad Keio de Tokio han desarrollado un robot humanoide que se puede controlar desde la primera persona, al igual que el avatar del éxito de taquilla del mismo nombre de James Cameron

Para controlar el robot, debe usar un casco de realidad virtual, un chaleco especial y guantes. Los sensores instalados en ellos detectan los movimientos humanos y obligan al robot a realizar acciones similares. En este caso, los sensores del propio robot se convierten en sentidos para su operador.

Image
Image
Image
Image

norte

Por lo tanto, una persona que controla un robot mira el mundo que lo rodea con los "ojos" del robot, cuyo papel es desempeñado por cámaras especiales, y la vibración de los guantes permite sentir el toque de las "manos" del robot en superficies duras y objetos. “Cuando me pongo el casco y el resto del equipo, veo y siento las manos de nuestro robot como si fueran mías”, explica Syo Kamuro, uno de los desarrolladores de la novedad, que se llama TELESAR V.

La Universidad de Keio cree que estos robots se utilizarán en un futuro próximo en los casos en que el trabajo requiera habilidades humanas especiales, pero se vea complicado por condiciones peligrosas.

En particular, durante el año pasado, los liquidadores del accidente en la planta de energía nuclear japonesa "Fukushima-1" utilizaron activamente robots para trabajar en condiciones de alta radiación, sin embargo, el uso de estas máquinas en orugas equipadas con manipuladores sedentarios fue extremadamente limitado, ya que los robots simplemente no podían funcionar. algunas acciones que no serían tan difíciles para una persona.

La presentación de la invención tuvo lugar en noviembre de 2011. Durante la presentación, el operador de la máquina usó un casco equipado con una pantalla 3D y auriculares que permiten al operador recibir señales de video y audio sobre lo que el robot está viendo y escuchando actualmente.

El sistema es tan preciso que incluso puede reconocer superficies irregulares, hasta la parte LEGO. "Los brazos de los robots no pueden moverse con tanta libertad como los humanos, pero están muy cerca de esto gracias a sus 15 grados de libertad", dijo Masahiro Furukawa, profesor asistente en el laboratorio Tachi.

tass-ural.ru, infuture.ru

Recomendado: