El Chip MIT Redujo El Consumo De Energía De La Red Neuronal En Un 95% - Vista Alternativa

El Chip MIT Redujo El Consumo De Energía De La Red Neuronal En Un 95% - Vista Alternativa
El Chip MIT Redujo El Consumo De Energía De La Red Neuronal En Un 95% - Vista Alternativa

Vídeo: El Chip MIT Redujo El Consumo De Energía De La Red Neuronal En Un 95% - Vista Alternativa

Vídeo: El Chip MIT Redujo El Consumo De Energía De La Red Neuronal En Un 95% - Vista Alternativa
Vídeo: Red Neuronal Perceptron Multicapa MLP 2024, Abril
Anonim

Las redes neuronales son algo poderoso, pero muy voraz. Los ingenieros del Instituto Tecnológico de Massachusetts (MIT) han conseguido desarrollar un nuevo chip que recorta en un 95% el consumo de energía de la red neuronal, lo que en teoría podría permitirles trabajar incluso en dispositivos móviles con baterías. Los teléfonos inteligentes se están volviendo cada vez más inteligentes en estos días, y ofrecen más servicios impulsados por inteligencia artificial como asistentes virtuales y traducciones en tiempo real. Pero, por lo general, las redes neuronales procesan datos para estos servicios en la nube y los teléfonos inteligentes solo transmiten datos de un lado a otro.

Esto no es ideal porque requiere un canal de comunicación grueso y asume que los datos confidenciales se transmiten y almacenan fuera del alcance del usuario. Pero las enormes cantidades de energía necesarias para alimentar las redes neuronales alimentadas por GPU no se pueden proporcionar en un dispositivo alimentado por una pequeña batería.

Los ingenieros del MIT han desarrollado un chip que puede reducir este consumo de energía en un 95%. El chip reduce drásticamente la necesidad de transferir datos entre la memoria del chip y los procesadores.

Las redes neuronales están formadas por miles de neuronas artificiales interconectadas dispuestas en capas. Cada neurona recibe información de varias neuronas en la capa subyacente, y si la entrada combinada pasa un cierto umbral, transmite el resultado a varias neuronas por encima. La fuerza de la conexión entre neuronas viene determinada por el peso que se establece durante el proceso de entrenamiento.

norte

Esto significa que para cada neurona, el chip debe extraer la entrada para una conexión específica y el peso de la conexión de la memoria, multiplicarlos, almacenar el resultado y luego repetir el proceso para cada entrada. Muchos datos viajan aquí y allá, se desperdicia mucha energía.

El nuevo chip MIT elimina esto al calcular todas las entradas en paralelo en la memoria utilizando circuitos analógicos. Esto reduce significativamente la cantidad de datos que deben superarse y se traduce en importantes ahorros de energía.

Este enfoque requiere que el peso de las conexiones sea binario, no un rango, pero el trabajo teórico previo ha demostrado que esto no afectará en gran medida la precisión, y los científicos encontraron que los resultados del chip diferían en un 2-3% de la versión habitual de la red neuronal operativa. en una computadora estándar.

Esta no es la primera vez que los científicos crean chips que procesan procesos en la memoria, reduciendo el consumo de energía de una red neuronal, pero es la primera vez que se utiliza este enfoque para operar una poderosa red neuronal conocida por su procesamiento de imágenes.

Video promocional:

"Los resultados muestran especificaciones impresionantes para la implementación energéticamente eficiente de operaciones rodantes dentro de una matriz de memoria", dijo Dario Gil, vicepresidente de inteligencia artificial de IBM.

"Esto definitivamente abre posibilidades para el uso de redes neuronales convolucionales más sofisticadas para clasificar imágenes y videos en el Internet de las cosas en el futuro".

Y esto es interesante no solo para los grupos de I + D. El deseo de poner IA en dispositivos como teléfonos inteligentes, electrodomésticos y todo tipo de dispositivos de IoT está empujando a muchos en Silicon Valley hacia chips de bajo consumo.

Apple ya ha integrado su Neural Engine en el iPhone X para potenciar, por ejemplo, la tecnología de reconocimiento facial, y se rumorea que Amazon está desarrollando sus propios chips de IA para la próxima generación de asistentes digitales Echo.

Las grandes empresas y los fabricantes de chips también confían cada vez más en el aprendizaje automático, lo que los obliga a hacer que sus dispositivos sean aún más eficientes energéticamente. A principios de este año, ARM presentó dos nuevos chips: el procesador Arm Machine Learning, que maneja tareas generales de inteligencia artificial desde la traducción al reconocimiento facial, y el procesador Arm Object Detection, que detecta, por ejemplo, rostros en imágenes.

El chip móvil más nuevo de Qualcomm, el Snapdragon 845, tiene una GPU y está fuertemente impulsado por IA. La compañía también presentó el Snapdragon 820E, que debería funcionar en drones, robots y dispositivos industriales.

De cara al futuro, IBM e Intel están desarrollando chips neuromórficos con una arquitectura inspirada en el cerebro humano y una increíble eficiencia energética. En teoría, esto podría permitir que TrueNorth (IBM) y Loihi (Intel) lleven a cabo un potente aprendizaje automático utilizando solo una fracción de la potencia de los chips convencionales, pero estos proyectos aún son altamente experimentales.

Será muy difícil obligar a los chips que dan vida a las redes neuronales a ahorrar batería. Pero al ritmo actual de innovación, esto "muy difícil" parece bastante factible.

Ilya Khel

Recomendado: