¿Por Qué Malinterpreta El Robo-apocalipsis - Vista Alternativa

Tabla de contenido:

¿Por Qué Malinterpreta El Robo-apocalipsis - Vista Alternativa
¿Por Qué Malinterpreta El Robo-apocalipsis - Vista Alternativa

Vídeo: ¿Por Qué Malinterpreta El Robo-apocalipsis - Vista Alternativa

Vídeo: ¿Por Qué Malinterpreta El Robo-apocalipsis - Vista Alternativa
Vídeo: Cita entre Will Smith y la robot Sophia 2024, Abril
Anonim

El miedo a la inteligencia artificial ha estado arraigado en la cultura popular desde hace mucho tiempo. Las mejores mentes de la humanidad, desde Stephen Hawking hasta Elon Musk, han hablado sobre la amenaza existencial de la mente digital para la humanidad.

El profesor de la Universidad de California en Berkeley Stuart Russell también habla de ello, pero en su visión del futuro no hay robots malvados que se rebelen contra la dominación humana.

Según Russell, en algún momento, las máquinas simplemente llegarán a ser tan efectivas que nos destruirán, realizando las tareas que les encomendamos.

Russell es un experto en aprendizaje automático y autor de Human Compatible: AI and the Problem of Control.

norte

"La historia tradicional de Hollywood es que las máquinas se vuelven conscientes de manera espontánea y luego deciden que odian a la gente y quieren matar a todos", señala el profesor Russell.

Pero esto, en su opinión, es una visión errónea del robo-apocalipsis, porque las máquinas no tienen emociones humanas.

“Debemos preocuparnos no por la autoconciencia de las máquinas malvadas, sino por la competencia de las máquinas que realizan las tareas que nos hemos propuesto”, está convencido el científico.

Video promocional:

Demasiado competente

En una entrevista con BBC Today, el profesor Russell describió una situación hipotética en la que la existencia de la humanidad podría verse amenazada por la inteligencia artificial.

Imagínese que existe una inteligencia artificial superpoderosa que puede controlar el clima del planeta. Tiene la tarea de llevar los niveles de dióxido de carbono en la atmósfera a los niveles preindustriales.

Image
Image

“El sistema considerará que la forma más efectiva de hacer esto es destruir personas. Producen dióxido de carbono”, dice el profesor.

“Esto se puede eludir, por ejemplo, convirtiéndola en una condición para no deshacerse de las personas. ¿Qué hará entonces el sistema? Ella se asegurará de que nazcan cada vez menos niños hasta que la gente desaparezca por completo.

Este es un ejemplo de lo que la inteligencia artificial puede llevar a cabo bajo instrucciones humanas mal concebidas.

Superinteligencia

Los sistemas de inteligencia artificial que existen hoy en día tienen aplicaciones específicas. Están diseñados para resolver problemas claramente definidos en un área, dicen los científicos del Centro para el Estudio de Riesgos Existenciales de la Universidad de Cambridge.

El momento triunfal de esta filosofía de IA fue la victoria de la computadora Deep Blue sobre el actual campeón mundial de ajedrez Garry Kasparov en 1997.

* La victoria de Deep Blue sobre Kasparov en 1997 fue un triunfo de la IA
* La victoria de Deep Blue sobre Kasparov en 1997 fue un triunfo de la IA

* La victoria de Deep Blue sobre Kasparov en 1997 fue un triunfo de la IA.

Pero Deep Blue fue creado exclusivamente para el juego de ajedrez. En damas, habría perdido ante un alumno de quinto grado.

Los recientes avances en inteligencia artificial nos han traído programas muy diferentes.

Por ejemplo, el programa AlphaGo Zero aprendió a jugar por sí solo, sin usar datos de juegos pasados jugados por personas, y en solo tres días de jugar consigo mismo alcanzó un nivel inalcanzable para una persona común.

Se utilizaron algoritmos de aprendizaje profundo para crear AlphaGo Zero. Esto significa que se requirió relativamente poco trabajo humano para desarrollar el programa.

Al mismo tiempo, AlphaGo Zero sabe cómo jugar bien tanto al ajedrez como al shogi.

Recuerde que el programa es completamente de autoaprendizaje. Esto puede ser motivo de preocupación para algunos.

"A medida que la IA se vuelve más poderosa y versátil, existe el riesgo de que se vuelva superinteligente, es decir, superará a los humanos en muchas o todas las áreas", dice el Centro para el Estudio de Riesgos Existenciales.

No sabemos lo que queremos

El profesor Russell cree que simplemente asignar a la IA tareas muy específicas no es una salida, porque los humanos mismos no son capaces de formularlas lo suficientemente bien.

Image
Image

"No nos damos cuenta de que no nos gusta algo hasta que sucede", dice.

“Necesitamos cambiar el enfoque muy básico para crear sistemas de IA”, agrega el profesor. Él cree que darle a los robots una tarea, que luego realizan, es fundamentalmente incorrecto.

“El sistema debe entender que el objetivo no está claro para él. él dice. - Cuando se crean tales sistemas, realmente dependen de la persona. Empiezan a pedir permiso antes de hacer algo porque no están seguros de si quieres hacerlo.

Lo más importante, dice el profesor, no se resistirán si decides apagarlos, porque están diseñados para no hacer lo que no te gusta.

Lámpara de aladino

La IA de hoy se crea como si fuera un genio de una lámpara, dice el profesor Russell. Frota la lámpara y dice: "Quiero que suceda esto y aquello".

En 2001 de Stanley Kubrick * A Space Odyssey *, una computadora superinteligente se rebela contra los humanos que deciden apagarla
En 2001 de Stanley Kubrick * A Space Odyssey *, una computadora superinteligente se rebela contra los humanos que deciden apagarla

En 2001 de Stanley Kubrick * A Space Odyssey *, una computadora superinteligente se rebela contra los humanos que deciden apagarla.

Y si la inteligencia artificial es lo suficientemente poderosa, hará exactamente lo que le pida.

"El problema con la ginebra es que el tercer deseo es siempre cancelar los dos primeros, porque la persona los ha redactado incorrectamente".

"Una máquina que persigue el objetivo equivocado se convierte de facto en el enemigo de la humanidad, y este enemigo es mucho más fuerte que nosotros", concluye el científico.

Recomendado: