Google No Quiere Crear Skynet Algún Día, Por Lo Que Está Creando Un Cambio Para AI - Vista Alternativa

Google No Quiere Crear Skynet Algún Día, Por Lo Que Está Creando Un Cambio Para AI - Vista Alternativa
Google No Quiere Crear Skynet Algún Día, Por Lo Que Está Creando Un Cambio Para AI - Vista Alternativa

Vídeo: Google No Quiere Crear Skynet Algún Día, Por Lo Que Está Creando Un Cambio Para AI - Vista Alternativa

Vídeo: Google No Quiere Crear Skynet Algún Día, Por Lo Que Está Creando Un Cambio Para AI - Vista Alternativa
Vídeo: Skynet от Google 2024, Julio
Anonim

Hay dos lados opuestos principales en las preguntas y discusiones sobre el futuro de la inteligencia artificial. En un rincón están empresas como Google, Facebook, Amazon y Microsoft que invierten agresivamente en tecnología para hacer que los sistemas de IA sean más inteligentes; en el otro están los grandes pensadores de nuestro tiempo como Elon Musk y Stephen Hawking que creen que el desarrollo de la IA es similar a un "hechizo de demonio".

Una de las empresas de inteligencia artificial más avanzadas, DeepMind, propiedad de Google, ha creado medidas de seguridad en caso de que una persona necesite "tomar el control de un robot, cuya falla podría tener consecuencias irreparables". Podemos asumir que estamos hablando de … "matar a todas las personas". Por supuesto, en realidad, la medida tomada no es un indicio de un posible apocalipsis, se trata más bien de medidas de seguridad asociadas a robots inteligentes que funcionan y funcionarán en el futuro en diversas fábricas y plantas.

El documento publicado con recetas es un trabajo conjunto de DeepMind y el Instituto Oxford para el Futuro de la Humanidad, que, como su nombre lo indica, trata temas que permitirán a esta misma humanidad adentrarse en el futuro. Durante décadas, el director fundador del instituto, Nick Bostrom, habló de manera muy vívida sobre los posibles peligros del desarrollo de la inteligencia artificial y escribió más de un libro sobre este tema, en el que discutió las consecuencias de crear robots superinteligentes.

La guía de la que estamos hablando hoy, denominada “Agentes discapacitados con seguridad”, explora cómo desactivar la IA si hace algo que el operador humano no quiere hacer. El trabajo consta de varios cálculos y fórmulas que el 99 por ciento de nosotros probablemente no entenderá. Por lo tanto, en pocas palabras, estamos hablando de un "botón rojo" que puede desactivar la IA.

norte

Es posible que se ría y se pregunte, pero los pioneros de la robótica y la IA están viendo las mismas películas de ciencia ficción que nosotros. Aquellos en los que los robots alguna vez descubrieron cómo ignorar el comando de apagado. Entonces ahora estaremos listos para esto. El documento publicado describe métodos y soluciones para garantizar que el "agente entrenable" (lea IA) no pueda aprender a ignorar o prevenir el impacto del entorno externo o del operador humano.

Esto puede parecer una exageración, especialmente si se considera que la IA más avanzada en este momento solo es buena en los juegos de mesa. Sin embargo, Bostrom cree que antes de comenzar a crear IA a nivel del cerebro humano, se deben tomar las medidas adecuadas:

“Tan pronto como la inteligencia artificial alcance el nivel humano, se espera un gran salto en el desarrollo en muchas áreas. Además, poco después, las propias IA crearán nuevas IA. Simplemente evalúe estas perspectivas y al mismo tiempo los posibles peligros. Por lo tanto, es mejor exagerar que perderlo.

NIKOLAY KHIZHNYAK

Video promocional:

Recomendado: