¿Cómo Se Crea Un Robot Que Quiere Cambiar El Mundo? - Vista Alternativa

Tabla de contenido:

¿Cómo Se Crea Un Robot Que Quiere Cambiar El Mundo? - Vista Alternativa
¿Cómo Se Crea Un Robot Que Quiere Cambiar El Mundo? - Vista Alternativa

Vídeo: ¿Cómo Se Crea Un Robot Que Quiere Cambiar El Mundo? - Vista Alternativa

Vídeo: ¿Cómo Se Crea Un Robot Que Quiere Cambiar El Mundo? - Vista Alternativa
Vídeo: Cita entre Will Smith y la robot Sophia 2024, Septiembre
Anonim

El científico informático Christoph Solge está tratando de eliminar la necesidad de reglas que gobiernen el comportamiento de los robots. Su estrategia es darles un objetivo: hacernos más poderosos. Christophe trabaja en el Game Innovation Lab de la Universidad de Nueva York. Sasha Maslov entrevistó a Sold para Quanta Magazine, de lo que nos enteramos de que puede que no valga la pena intentar contener el flujo imparable de la singularidad tecnológica.

Las famosas Tres leyes de la robótica de Isaac Asimov, que limitan el comportamiento de los androides y los autómatas para mantener a la humanidad a salvo, también quedaron inconclusas. Estas leyes aparecieron por primera vez en la historia de Asimov en 1942, y luego en obras clásicas como "Yo, Robot" y suenan así:

1. Un robot no puede dañar a una persona o, por su inacción, permitir que se haga daño a una persona.

2. El robot debe obedecer las órdenes dadas por personas, si estas no contradicen la Primera Ley.

norte

3. Un robot debe defender su existencia, si esta protección no contradice la Primera o Segunda Ley.

Por supuesto, en estas leyes se pueden encontrar muchas contradicciones y lagunas (que, de hecho, el propio Azimov utilizó). En nuestra era actual de software avanzado con aprendizaje automático y robótica autónoma, definir e implementar la ética de hierro de la inteligencia artificial se ha convertido en un desafío apremiante para organizaciones como el Instituto de Investigación de Inteligencia de Máquina y OpenAI.

Christoph Salge adoptó un enfoque diferente. En lugar de imponer definiciones filosóficas de arriba hacia abajo de cómo los agentes artificiales deben o no deben comportarse, Salge y su colega Daniel Polani están explorando el camino de abajo hacia arriba, o "lo que el robot debe hacer primero", como escribieron. en su artículo "El empoderamiento como reemplazo de las tres leyes de la robótica". El empoderamiento, un concepto nacido en la intersección de la cibernética y la psicología, describe la motivación intrínseca de un agente para resistir y trabajar en el entorno al mismo tiempo. “Como organismo, quiere sobrevivir. Quiere dejar una huella en el mundo”, explica Salge. La aspiradora de Roomba, programada para buscar una estación de carga cuando las baterías están bajas, es un ejemplo rudimentario de "empoderado": seguir funcionando en el mundo,debe recibir una carga y continuar su propia existencia, es decir, sobrevivir.

El empoderamiento puede sonar como una receta para el resultado que temen los defensores de la IA segura como Nick Bostrom: un poderoso sistema autónomo, preocupado solo por el interés propio y volviéndose loco en el proceso. Pero Salge, que estudia las interacciones sociales entre humanos y máquinas, pregunta: ¿Qué pasa si un agente empoderado “también empodera a otro? El robot no solo debe querer permanecer en funcionamiento, también debe querer apoyar a su socio humano.

Video promocional:

Solge y Polanyi se dieron cuenta de que la teoría de la información ofrecía una forma de traducir esta expansión mutua en un marco matemático para un agente artificial no filosofante. “Una de las desventajas de las tres leyes de la robótica es que se basan en el lenguaje y el lenguaje es muy ambiguo”, dice Salge. "Estamos tratando de encontrar algo que realmente se pueda hacer".

Algunos tecnólogos creen que la IA es una amenaza importante, incluso catastrófica, para la existencia humana. ¿Y tu?

Me abstendré. Así que realmente creo que ahora existe el miedo a los robots y la creciente influencia de la IA. Pero creo que a corto plazo es probable que estemos más preocupados por los posibles cambios de trabajo, el proceso de toma de decisiones, la pérdida de la democracia, la pérdida de la privacidad. No sé la probabilidad de que surja una IA imparable en el corto plazo. Pero incluso si la IA debe supervisar el sistema de atención médica y emitir recetas, debemos pensar en los problemas éticos que conlleva.

¿Cómo puede ayudarnos el concepto de empoderamiento a enfrentar estos desafíos?

Creo que la idea de empoderamiento llena un nicho. No permitirá que el agente deje morir a la persona, pero una vez que pueda aferrarse a ese umbral, apoyará la intención de crear oportunidades adicionales para que la persona se exprese e influya en el mundo. En uno de los libros de Asimov, los robots simplemente terminarán poniendo a todos los humanos en contenedores seguros. Esto sería indeseable. Si nuestra capacidad de influir en el mundo continúa mejorando, creo que será un objetivo mucho más interesante de lograr.

Probó sus ideas de agente virtual en un entorno de videojuego. ¿Que pasó?

El agente, motivado por sus propios derechos extendidos, esquivará el proyectil y no caerá al foso, en general, evitará cualquier situación que pudiera derivar en su pérdida de movilidad, muerte o daño de tal forma que reduzca su operatividad. Solo aguantará.

Junto con un jugador humano, que también está dotado de derechos mejorados, vimos que el robot virtual mantendría una cierta distancia para no impedir el movimiento humano. No te bloqueará, no se parará en el pasillo para que no puedas pasar. Él estará lo más cerca posible de ti para ayudarte. Esto conduce a un comportamiento en el que puede tomar la iniciativa y seguir la de otra persona.

Por ejemplo, creamos un escenario en el que teníamos una barrera láser que es peligrosa para los humanos, pero segura para un robot. Si la persona en este juego se acerca a los láseres, el robot tiene más incentivos para bloquear el láser. El estímulo se intensifica cuando la persona se para directamente frente a la barrera, como si pretendiera cruzarla. Y el robot realmente bloquea el láser, parado frente a la persona.

norte

¿Estos agentes exhibieron algún comportamiento no intencional similar a las tres leyes del libro de Asimov?

El comportamiento fue bueno al principio. Por ejemplo, un robot virtual interceptó a los oponentes que intentaron matarte. De vez en cuando saltaría bajo una bala si esa era la única forma de salvarte. Pero lo que nos sorprendió especialmente desde el principio fue que también le tenía mucho miedo a la persona.

La razón de esto se debe a su modelo "miope": de hecho, analiza cómo secuencias de determinadas acciones en dos o tres pasos pueden afectar al mundo, tanto para ti como para él. Por eso, en el primer paso, programamos que el jugador actúe de forma aleatoria. Pero en la práctica, esto resultó en el hecho de que el agente trataba a la persona como una especie de psicópata que podía, por ejemplo, dispararle al agente en cualquier momento. Por lo tanto, el agente tuvo que elegir con mucho cuidado la posición en la que la persona no podría matarlo.

Necesitábamos arreglar esto, así que modelamos el supuesto supuesto de confianza. Básicamente, el agente acompañante actúa asumiendo que la persona solo elegirá aquellas acciones que no limitarán los derechos ampliados del propio agente; quizás este sea un modelo más adecuado para el acompañante.

También notamos que si tenías, digamos, 10 puntos de vida en el juego, al compañero realmente no le importaba si perdías ocho o nueve de esos puntos; incluso podía dispararte una vez, solo por diversión. Y luego nos dimos cuenta de que existe una brecha entre el mundo en el que vivimos y el modelo en un juego de computadora. Tan pronto como modelamos las limitaciones de capacidad causadas por la pérdida de salud, el problema desapareció. También podría resolverse creando un modelo que no fuera tan miope que pudiera calcular acciones un par de pasos más en el futuro. Si el agente pudiera mirar más hacia el futuro, vería que tener más puntos de salud podría ser beneficioso para eventos futuros.

Teniendo en cuenta que el cambio en el número de puntos de salud no afecta en modo alguno mis derechos ampliados, el agente decide: "Le disparo, no disparo, ¿cuál es la diferencia?" Y a veces dispara. Lo cual, por supuesto, es un problema. No quiero disparos aleatorios a los jugadores. Hemos agregado una solución para que el robot virtual se preocupe un poco más por su condición que por la suya propia.

¿Cómo logra que estos conceptos sean precisos?

Si consideramos a los agentes como sistemas de control, se pueden descomponer en componentes de información: en el mundo, algo está sucediendo y de una forma u otra te preocupa. Hablamos de información no como cosas que percibes, sino como influencias de cualquier tipo; puede ser una sustancia, algo que fluye entre el mundo y tú. Puede haber temperatura o nutrientes en su cuerpo. Cualquier cosa que cruce la frontera entre el mundo y el agente lleva información en sí misma. De la misma manera, un agente puede influir en el mundo exterior de diversas formas y también enviar información a él.

Puede considerar este flujo como el ancho de banda del canal, este es un concepto de la teoría de la información. Puede tener amplios poderes, derechos extendidos, si puede realizar diferentes acciones que conduzcan a diferentes resultados. Si algo sale mal, perderá su autoridad, porque la pérdida de capacidad corresponde a una disminución cuantitativa del ancho de banda entre usted y el entorno. Ésta es la idea principal.

¿Cuánto necesita saber un agente para que sus poderes ampliados surtan efecto?

Los derechos ampliados tienen la ventaja de que pueden aplicarse incluso cuando no se tiene pleno conocimiento. El agente realmente necesita un modelo de cómo sus acciones afectarán al mundo, pero no necesita una comprensión completa del mundo y todas sus sutilezas. A diferencia de algunos enfoques que intentan modelar todo lo que existe en el mundo tanto como sea posible, en nuestro caso solo necesita averiguar cómo sus acciones afectan su propia percepción. No es necesario que aprenda todo sobre todo; solo necesitas un agente que explore el mundo. Hace algo e intenta comprender cómo sus acciones afectan al mundo. El modelo crece y el agente comprende cada vez mejor dónde se extienden los límites de sus poderes.

Lo probó en un entorno virtual. ¿Por qué no en el mundo real?

El principal obstáculo para escalar este modelo y colocarlo en un robot real es la dificultad de calcular el ancho de banda de un agente y una persona en un entorno tan rico como el mundo real durante mucho tiempo. Todos estos procesos aún no se han hecho efectivos. Soy optimista, pero hasta ahora este problema sigue siendo puramente computacional. Por lo tanto, verificamos el funcionamiento del sistema en un juego de computadora, de forma simplificada.

Parece que el empoderamiento, idealmente, hará que nuestras máquinas sean perros de servicio poderosos

Incluso conozco a algunos técnicos en robots que modelan deliberadamente el comportamiento de un compañero basado en perros. Creo que si los robots nos tratan como a nuestros perros, en este futuro todos podremos llevarnos bien.

Ilya Khel

Recomendado: