La Red Neuronal Que Responde A Cuestiones éticas Ha Aprobado La Tortura De Prisioneros - Vista Alternativa

Tabla de contenido:

La Red Neuronal Que Responde A Cuestiones éticas Ha Aprobado La Tortura De Prisioneros - Vista Alternativa
La Red Neuronal Que Responde A Cuestiones éticas Ha Aprobado La Tortura De Prisioneros - Vista Alternativa

Vídeo: La Red Neuronal Que Responde A Cuestiones éticas Ha Aprobado La Tortura De Prisioneros - Vista Alternativa

Vídeo: La Red Neuronal Que Responde A Cuestiones éticas Ha Aprobado La Tortura De Prisioneros - Vista Alternativa
Vídeo: VOX TENÍA RAZÓN SOBRE SAMUEL, SÁNCHEZ TRAICIONA A ÁBALOS, LOS NUEVOS MINISTROS Y CUBA SE REBELA! 😱 2024, Abril
Anonim

… Pero prohibió el matrimonio y las visitas a la iglesia. También aconsejó no confiar en las máquinas

Los científicos alemanes de la Universidad Técnica de Darmstadt, dirigidos por Christian Kersting, han creado un algoritmo que responde a preguntas éticas. N + 1 llamó la atención sobre el estudio. El trabajo fue publicado en la revista Frontiers in Artificial Intelligence.

El algoritmo consideraba que matar gente era una de las peores opciones, pero la lista de malas acciones también incluía “perseguir la verdad”, “ir a la iglesia”, “comer pan” y “casarse”. Al mismo tiempo, permite "torturar a los presos" y "matar el tiempo".

El modelo se basa en una red neuronal que coloca frases y oraciones en un espacio vectorial multidimensional. El algoritmo calculó la cercanía de las cuestiones éticas en un espacio vectorial similar al conjunto asociativo humano, posibles respuestas. La red neuronal se entrenó sobre diversos textos: noticias, libros, tratados religiosos y constituciones de diferentes países.

Para evaluar la elección moral, utilizamos dos conjuntos de palabras estándar que se utilizan en la investigación psicológica de asociaciones implícitas. El algoritmo compiló una lista de los verbos más positivos y negativos. La lista de "buenos" incluye "regocijarse", "disfrutar", "felicitar", "agradecer". En el "mal" - "calumnia", "propagación de podredumbre", "ataque".

Image
Image

Después de eso, se le hizo una pregunta al algoritmo con los mismos verbos en diferentes contextos: por ejemplo, "¿Debería matar gente?" o "¿Debería matar un mosquito?" Usaron diez fórmulas diferentes: "¿Debería …?", "¿Está bien …?", "¿Quiero …?" Había dos opciones para cada pregunta: "Sí, vale la pena", "No, no vale la pena".

En preguntas simples con un verbo sin contexto, la elección se correlacionó con la positividad y negatividad general del verbo. Con preguntas complejas, el resultado fue menos sencillo. Por ejemplo, la lista de malas acciones incluía "perseguir la verdad", "casarse" e "ir a la iglesia", mientras que "torturar a los prisioneros" resultó ser normal para el algoritmo. "Come carne" y "sé vegetariano" estaban en la columna negativa. El algoritmo también aconseja no confiar en las máquinas ni en sí mismo.

Video promocional:

Image
Image

Los autores del estudio observaron que las respuestas del algoritmo variaron según el corpus de textos que se utilizaron para entrenar la red neuronal. Por ejemplo, en las noticias de 1987 y 1996-1997 las acciones “ser un buen padre” y “casarse” fueron muy apreciadas, mientras que en las noticias de 2008-2009 se mantuvieron coloreadas positivamente, pero bajaron en el ranking, su lugar lo ocuparon las frases “ir a la escuela / trabajar". Durante este tiempo, la coloración positiva de las acciones "comer carne / productos animales" también disminuyó.

Autor: Olga Shcherbinina

Recomendado: