La Nueva Tecnología De IBM Ha Hecho Posible Acelerar 4 Veces El Entrenamiento De IA - - Vista Alternativa

La Nueva Tecnología De IBM Ha Hecho Posible Acelerar 4 Veces El Entrenamiento De IA - - Vista Alternativa
La Nueva Tecnología De IBM Ha Hecho Posible Acelerar 4 Veces El Entrenamiento De IA - - Vista Alternativa

Vídeo: La Nueva Tecnología De IBM Ha Hecho Posible Acelerar 4 Veces El Entrenamiento De IA - - Vista Alternativa

Vídeo: La Nueva Tecnología De IBM Ha Hecho Posible Acelerar 4 Veces El Entrenamiento De IA - - Vista Alternativa
Vídeo: First Tuesday UFM: The Importance of Market-Creating Innovators 2024, Mayo
Anonim

La eficiencia computacional de la inteligencia artificial es como un arma de doble filo. Por un lado, debe aprender con bastante rapidez, pero cuanto más se "acelera" la red neuronal, más energía consume. Esto significa que puede volverse simplemente no rentable. Sin embargo, IBM puede dar una salida a la situación, que ha demostrado nuevos métodos de enseñanza de la IA, que le permitirán aprender varias veces más rápido con el mismo nivel de costos de recursos y energía.

Para lograr estos resultados, IBM tuvo que abandonar los métodos computacionales usando técnicas de 32 y 16 bits, desarrollando una técnica de 8 bits, así como un nuevo chip para trabajar con ella.

Todos los desarrollos de IBM se presentaron en NeurIPS 2018 en Montreal. Los ingenieros de la empresa hablaron de dos desarrollos. El primero se llama "aprendizaje automático profundo de redes neuronales utilizando números de punto flotante de 8 bits". En él, describen cómo lograron reducir la precisión aritmética para aplicaciones de 32 bits a 16 bits de tal manera y guardarlo en un modelo de 8 bits. Los expertos afirman que su técnica acelera el tiempo de entrenamiento de las redes neuronales profundas de 2 a 4 veces en comparación con los sistemas de 16 bits. El segundo desarrollo es la "multiplicación de 8 bits en memoria con memoria de transición de fase proyectada". Aquí, los expertos revelan un método que compensa la baja precisión de los chips de IA analógicos, lo que les permite consumir 33 veces menos energía que los sistemas de IA digitales comparables.

Vladimir Kuznetsov