¿Podrán Los Robots Encontrar Un Alma: Inteligencia Artificial Emocional - Vista Alternativa

Tabla de contenido:

¿Podrán Los Robots Encontrar Un Alma: Inteligencia Artificial Emocional - Vista Alternativa
¿Podrán Los Robots Encontrar Un Alma: Inteligencia Artificial Emocional - Vista Alternativa

Vídeo: ¿Podrán Los Robots Encontrar Un Alma: Inteligencia Artificial Emocional - Vista Alternativa

Vídeo: ¿Podrán Los Robots Encontrar Un Alma: Inteligencia Artificial Emocional - Vista Alternativa
Vídeo: Robots emocionales 2024, Mayo
Anonim

Cada año, los avances en el campo de la inteligencia artificial se vuelven cada vez más perfectos: la tecnología de reconocimiento facial, los asistentes de voz inteligentes e incluso el arte creado por algoritmos se están convirtiendo en parte de nuestra vida. Pero, ¿podrá la IA tomar la última frontera de las capacidades humanas y aprender a experimentar las emociones? Junto con la plataforma Teoría y Práctica, te invitamos a conocer el futuro del hombre y la máquina.

Lo sagrado versus el conocimiento

Desde el punto de vista ordinario, la inteligencia artificial nunca podrá acercarse a la emocionalidad humana debido a nuestra organización mental especial, que no se puede trasplantar a una máquina. Por el contrario, el desafío de crear IA emocional se debe al hecho de que los humanos no son tan buenos en la empatía. No somos en absoluto como máquinas emocionales ideales que pueden descifrar fácilmente los sentimientos de los demás. Nuestra empatía está seriamente limitada por experiencias únicas, estereotipos aprendidos y reacciones psicoemocionales individuales. Por lo tanto, es poco probable que un europeo de clase media comprenda qué sentimientos expresa el líder de una tribu africana y viceversa.

norte

Image
Image

Por un lado, creemos que la emocionalidad es un don sagrado, un privilegio exclusivo de las personas. Por otro lado, sabemos muy poco al respecto, dice Sergey Markov, especialista en inteligencia artificial y aprendizaje automático y fundador del portal 22century.ru. En su opinión, el abandono de la percepción de la emocionalidad como algo sagrado permitirá encontrar nuevos métodos para estudiar la empatía. Con la ayuda de la ingeniería inversa (investigando un dispositivo o programa terminado para entender cómo funciona y descubriendo posibilidades no obvias), investigando las redes neuronales y el aprendizaje automático, puedes aprender algo fundamentalmente nuevo sobre la emocionalidad humana. “El aprendizaje automático permite en varios casos, como dicen, creer en la armonía con el álgebra: un conocimiento más confiable basado en estadísticas de big data reemplaza las conjeturas y las hipótesis”, cree Markov.

Establecer comunicación

Video promocional:

Es posible que no estemos tratando de enseñar a los autos sobre la empatía solo por curiosidad, pero el creciente número de sistemas automatizados, desde asistentes de voz hasta autos autónomos, hace que la inteligencia artificial emocional sea una necesidad. El principal desafío al que se enfrentan los especialistas en aprendizaje automático es simplificar el trabajo con diferentes interfaces tanto a nivel de entrada como en el proceso de salida de información. Evidentemente, la frecuencia de comunicación con los ordenadores está creciendo, pero los propios servicios y sistemas aún no comprenden por qué agitamos el teléfono: por rabia o por risa.

La inteligencia emocional ya tiene demanda en muchos proyectos empresariales. Desde la publicidad, que ajustándose al estado emocional de un cliente potencial aumenta las ventas, hasta tecnologías de reconocimiento que, habiendo detectado al más nervioso de la multitud, ayudarán a atrapar al delincuente.

Los investigadores tendrán que trabajar con inteligencia emocional y preocupaciones de seguridad. “Las decisiones que toman las computadoras no deberían parecer psicopáticas. Si una máquina opera en un mundo donde vive la gente, debe poder tener en cuenta las "circunstancias humanas", es decir, ser capaz de empatía. Un ejemplo típico: el diagnóstico de un robot que envía a una persona mayor para una operación compleja debe tener en cuenta los riesgos asociados con el estrés. Un vehículo no tripulado, completamente desprovisto de empatía, en un contexto determinado también puede causar problemas”, dice el filósofo Kirill Martynov.

norte

Los alarmistas como el filósofo y especialista en antropocenos Nick Bostrom, señala Martynov, argumentan que el problema de la "pérdida de sensibilidad" en la superinteligencia, que se destaca marcadamente en el contexto del nivel humano, es bastante real. Ya están tratando de prevenir este problema con la ayuda de restricciones legales. Con este enfoque, los creadores de IA estarán legalmente obligados a dotar al desarrollo de los elementos de inteligencia emocional necesarios para la empatía.

Enseñar emociones

La tarea no trivial de crear IA emocional se está volviendo más fácil con la llegada de nuevas herramientas como el aprendizaje automático. Sergey Markov describe este proceso de la siguiente manera: “Puede tomar varios cientos de miles de grabaciones de audio de expresiones humanas y pedirle a un grupo de marcadores de personas que relacionen un conjunto de marcadores del 'alfabeto emocional' con cada una de estas frases. Luego, el 80% de las frases se seleccionan al azar; en esta muestra, la red neuronal está entrenada para adivinar marcadores emocionales. El 20% restante se puede utilizar para asegurarse de que la inteligencia artificial funcione correctamente . En otro modelo de aprendizaje, que describe Markov, la red neuronal gana más independencia. En él, la propia IA categoriza frases de acuerdo con colores emocionales similares, velocidad del habla y entonación, y luego aprende a sintetizar sus declaraciones en función de las categorías recibidas. De todas formas,El big data se está convirtiendo en el principal recurso para entrenar la inteligencia artificial.

Raza evolutiva

“El hecho de que experimentemos nuestras propias emociones como 'reales' se debe únicamente al hecho de que nuestro sistema cognitivo, que surgió durante la evolución, está tan afinado. A los individuos capaces de experimentar emociones y controlar su comportamiento se les dio una ventaja en la carrera evolutiva. Es poco probable que las computadoras puedan acercarse a modelar la evolución real de los primates; en este sentido, sus emociones no serán "reales", cree Martynov.

Image
Image

La pregunta clave, dice Martynov: ¿es posible modelar las experiencias subjetivas de las emociones, lo que Aristóteles llamaría el alma y Descartes el cogito? La ciencia todavía no da una respuesta directa a esta pregunta, y los filósofos reúnen conferencias sobre la naturaleza de los qualia (elementos irreductibles de la experiencia subjetiva). Aunque hay optimistas como el filósofo y científico cognitivo Daniel Dennett, que argumentan que, en última instancia, la experiencia subjetiva es la capacidad de decirte a ti mismo y a los demás cómo te sentiste. Por supuesto, en un futuro próximo recibiremos convincentes informes verbales de emociones de las máquinas, piensa Martynov.

Pero con una alta probabilidad, cree Sergey Markov, nuestro futuro conjunto con la inteligencia artificial emocional tomará formas que no se pueden imaginar hoy con la oposición estereotipada de personas y máquinas: “Más bien, en el futuro, las personas y las máquinas se unirán en sistemas sintéticos heterogéneos, en los que ya no se puede para trazar incluso una línea condicional que separe a una persona y un producto de sus tecnologías. La inteligencia emocional tiene un papel importante que desempeñar en este escenario.

Recomendado: