Stephen Hawking Calificó La Inteligencia Artificial Como El Mayor Error De La Historia - Vista Alternativa

Stephen Hawking Calificó La Inteligencia Artificial Como El Mayor Error De La Historia - Vista Alternativa
Stephen Hawking Calificó La Inteligencia Artificial Como El Mayor Error De La Historia - Vista Alternativa

Vídeo: Stephen Hawking Calificó La Inteligencia Artificial Como El Mayor Error De La Historia - Vista Alternativa

Vídeo: Stephen Hawking Calificó La Inteligencia Artificial Como El Mayor Error De La Historia - Vista Alternativa
Vídeo: STEPHEN HAWKING SE OPONE a la inteligencia artificial 😰 2024, Septiembre
Anonim

El famoso físico británico Stephen Hawking, en un artículo inspirado en la película de ciencia ficción "Transcendence" protagonizada por Johnny Depp, dijo que subestimar la amenaza de la inteligencia artificial puede ser el mayor error en la historia de la humanidad.

En un artículo en coautoría con el profesor de ciencias de la computación Stuart Russell de la Universidad de California en Berkeley y los profesores de física Max Tegmark y Frank Wilczek del MIT, Hawking señala algunos avances en inteligencia artificial, destacando los autos autónomos, el asistente de voz de Siri y la supercomputadora. el ganador del hombre en el juego de preguntas Jeopardy TV.

“Todos estos logros palidecen en el contexto de lo que nos espera en las próximas décadas. La creación exitosa de inteligencia artificial será el evento más grande en la historia de la humanidad. Desafortunadamente, puede llegar a ser el último, si no aprendemos a evitar riesgos”, cita a Hawking en el diario británico The Independent.

Los profesores escriben que en el futuro puede suceder que nada ni nadie pueda detener la superación personal de las máquinas con inteligencia inhumana. Y esto pondrá en marcha el proceso de la denominada singularidad tecnológica, que significa un desarrollo tecnológico extremadamente rápido. En la película con la participación de Depp, la palabra "trascendencia" se utiliza en este sentido.

norte

Imagínense tal tecnología superando a los humanos y comenzando a gobernar los mercados financieros, la investigación científica, las personas y el desarrollo de armas más allá de nuestro entendimiento. Si el efecto a corto plazo de la inteligencia artificial depende de quién la controla, entonces el efecto a largo plazo depende de si se puede controlar o no.

Es difícil decir qué consecuencias puede tener la inteligencia artificial en los humanos. Hawking cree que hay poca investigación seria dedicada a estos temas fuera de organizaciones sin fines de lucro como el Centro de Cambridge para el Estudio de Riesgos Existenciales, el Instituto para el Futuro de la Humanidad e institutos de investigación para la inteligencia de las máquinas y la vida futura.

Según él, cada uno de nosotros debería preguntarse qué podemos hacer ahora para evitar el peor escenario del futuro.

Recomendado: