Para Evitar La Muerte, La Humanidad Necesita Encerrar La Inteligencia Artificial - Vista Alternativa

Tabla de contenido:

Para Evitar La Muerte, La Humanidad Necesita Encerrar La Inteligencia Artificial - Vista Alternativa
Para Evitar La Muerte, La Humanidad Necesita Encerrar La Inteligencia Artificial - Vista Alternativa

Vídeo: Para Evitar La Muerte, La Humanidad Necesita Encerrar La Inteligencia Artificial - Vista Alternativa

Vídeo: Para Evitar La Muerte, La Humanidad Necesita Encerrar La Inteligencia Artificial - Vista Alternativa
Vídeo: ¿Superará la inteligencia artificial a la humana? | Nicolás Franco | TEDxPlazaCañadío 2024, Mayo
Anonim

Las computadoras o robots superinteligentes que amenazan la existencia de la raza humana son una trama favorita de la ciencia ficción. En realidad, según los científicos, tal escenario apocalíptico solo se puede prevenir creando una "prisión" virtual para contener inteligencia artificial (IA). Y esto debe hacerse antes de que aprenda a ser consciente de sí mismo y a mejorarse.

Si dejas que este genio salga de la botella, entonces de un oráculo que resuelve nuestros problemas, puede convertirse en una amenaza apocalíptica, dice Roman Yampolsky, científico de la Universidad de Louisville, Kentucky, que trabaja en el campo de la informática. El entorno en el que estará contenida la IA debe planificarse cuidadosamente para que no pueda liberarse a través de amenazas, sobornos, tentaciones o piratería informática.

"Puede inventar muchas formas de influir, crear una combinación compleja de ingeniería social y utilizar componentes de hardware existentes para fines que ni siquiera podemos imaginar", cree Yampolsky. - Este software tiene posibilidades ilimitadas para infectar computadoras y redes. La IA puede encontrar formas de influir en la psique humana, sobornando o chantajeando a las personas que están en contacto con ella ".

El surgimiento de una nueva área de investigación científica que se ocupa del problema de crear una "prisión" para la inteligencia artificial tiene beneficios adicionales. Estos estudios son muy útiles para mejorar la seguridad informática y la criptografía, está seguro Yampolsky. Sus propuestas fueron detalladas en la edición de marzo de la revista académica Journal of Consciousness Studies.

norte

Cómo configurar una trampa para Skynet

Para empezar, puede encerrar la inteligencia artificial dentro de una "máquina virtual". Deje que funcione dentro de un sistema operativo normal: limitar el acceso de la IA al software y hardware de la computadora host lo hará mucho más inofensivo. De todos modos, la inteligencia artificial inteligente no podrá enviar mensajes secretos a sus seguidores humanos, superando el código Morse con ventiladores de refrigeración.

Poner inteligencia artificial en una computadora sin acceso a Internet es una buena manera de frustrar los planes insidiosos de AI para proteger la Tierra de ti y de mí. En el caso de cualquier otra falla, los investigadores siempre pueden ralentizar el proceso de pensamiento de la IA disminuyendo la velocidad de procesamiento de la computadora, presionando regularmente el botón de reinicio o desconectando la IA de la fuente de alimentación.

Video promocional:

Estas medidas de seguridad están diseñadas para hacer frente a virus informáticos altamente inteligentes y peligrosos, pero nadie sabe qué tan efectivas resultan ser realmente.

Catch-22 (novela del escritor estadounidense J. Heller; aproximadamente Mixednews) es que no podemos realizar pruebas a gran escala de nuestras ideas hasta que se complete el desarrollo de la IA. Pero para que la IA sea segura, es necesario desarrollar un conjunto de medidas adecuadas, dice Yampolsky. "La mejor opción es imponer restricciones sobre el uso de sistemas de IA y luego, según sea necesario, cambiar esas restricciones de acuerdo con las crecientes capacidades de la IA".

Image
Image

El científico Roman Yampolsky sugirió usar el signo "@" u otros signos que se usan hoy para denotar una radiación o amenaza biológica para indicar la presencia de un peligro asociado con la inteligencia artificial.

Nunca ponga un guardia de seguridad humano en el vehículo

Durante una conversación aparentemente inocente con un guardia de seguridad, nada evitará que la IA utilice técnicas psicológicas como la amistad o el chantaje. Una persona puede ser sobornada prometiéndole una salud perfecta, inmortalidad o incluso la promesa de regresar a parientes y amigos del otro mundo. O lograr cualquier cosa con amenazas.

La forma más segura de comunicarse con la IA es hacer que, al resolver un problema científico o técnico específico, elija una respuesta entre las muchas opciones disponibles, explica Yampolsky. Esto ayudará a mantener a raya al oráculo superinteligente.

Muchos investigadores creen que, a pesar de todas las precauciones, mantener la IA inteligente bajo llave nunca tendrá éxito. El último experimento de Eliezer Yudkowsky, investigador del Instituto de Singularidad sobre la creación de Inteligencia Artificial, mostró que incluso la inteligencia a nivel humano puede engañar a una persona y "escapar" del encarcelamiento.

Sin embargo, Yampolsky insiste en mantener la IA en estricto aislamiento; es mejor que rendirse y darle total libertad. Pero si el desarrollo de la IA llega al punto en que puede manipular a una persona usando el subconsciente (prediciendo el futuro), la telepatía o la telequinesia, las consecuencias serán impredecibles.

“Si tal IA se auto-mejora y alcanza un nivel que excede significativamente las capacidades de la inteligencia humana, las consecuencias ni siquiera se pueden imaginar”, advierte Yampolsky.

Recomendado: