"Tenemos Que Pensar Ahora Cómo Proteger La Inteligencia Artificial" - Vista Alternativa

"Tenemos Que Pensar Ahora Cómo Proteger La Inteligencia Artificial" - Vista Alternativa
"Tenemos Que Pensar Ahora Cómo Proteger La Inteligencia Artificial" - Vista Alternativa

Vídeo: "Tenemos Que Pensar Ahora Cómo Proteger La Inteligencia Artificial" - Vista Alternativa

Vídeo:
Vídeo: Webinar NLP y transformers: ¿Cómo hemos llegado aquí y ahora que hacemos? Con Álvaro Barbero 2024, Septiembre
Anonim

Stephen Hawking continúa la "cruzada" contra la inteligencia artificial (IA).

Durante la muy esperada campaña Pregúntame todo en Reddit, escribió que el trabajo en el desarrollo de un protocolo de seguridad de IA debería hacerse ahora, no en un futuro lejano.

“Nuestro objetivo no debería ser crear inteligencia artificial abstracta, sino crear inteligencia útil”, escribió el famoso físico. IA avanzada”.

Hawking ha estado usando la fama para apoyar el movimiento de seguridad de la IA desde 2014, cuando coescribió un editorial con otros investigadores advirtiendo sobre la amenaza existencial que las máquinas avanzadas representan para la humanidad.

norte

Otras personalidades tecnológicas notables, Elon Musk y Steve Wozniak, se han unido a Hawking. Anteriormente, los tres firmaron una carta abierta en la que pedían la prohibición de armas autónomas o robots de combate.

Las expectativas de que la humanidad pronto creará inteligencia artificial han existido desde los años 50 y aún no se han justificado. Sin embargo, la mayoría de los científicos de IA creen que en este siglo aparecerán máquinas que tienen la misma inteligencia que los humanos.

Image
Image

Foto: ANDREW COWIE / AFP

Video promocional:

Hawking advierte que la representación de la inteligencia artificial en las películas de ciencia ficción distorsiona el peligro real de las máquinas. Películas como Terminator muestran a robots asesinos demoníacos que buscan destruir a la humanidad por razones que la inteligencia artificial real no tenía. También facilitan la mitigación del riesgo potencial de IA (como no construir cyborgs).

“La verdadera amenaza de la IA no es que sea maligna, sino que es muy capaz. La superinteligencia artificial es muy buena para realizar sus tareas.

Si sus tareas no coinciden con las nuestras, tendremos problemas --escribió Hawking--, difícilmente odias a las hormigas, pero si estás a cargo de un proyecto de energía verde y el área donde se encuentra el hormiguero necesita ser inundada, las hormigas no tienen suerte. No permitamos que la humanidad se encuentre en la posición de estas hormigas.

Nick Bostrom, un filósofo de la IA, fantasea con escenarios del fin del mundo cuando un programa comienza a funcionar en la dirección equivocada. Por ejemplo, a la inteligencia artificial se le encomienda la tarea de desarrollar un plan para proteger el medio ambiente, y para resolver el problema de la ecología, decide destruir a la humanidad.

Elon Musk ya ha comprometido $ 10 millones para la investigación de seguridad de inteligencia artificial para evitar que la inteligencia artificial destructiva como Skynet aparezca en Terminator. Pero Hawking quiere que las personas cambien su percepción general de la IA.

"Por favor, dígales a sus estudiantes que piensen no solo en cómo crear IA, sino también en cómo asegurarse de que se use para propósitos útiles", dijo Hawking a un instructor que da conferencias sobre inteligencia artificial. "La aparición de una IA que trasciende a los humanos se convertirá en ya sea el mejor o el peor evento en la historia humana. Por eso, es importante que todo salga como debe ".

Recomendado: