Inteligencia Artificial Emocional: Quién Y Por Qué Reconoce Las Emociones En Rusia Y En El Extranjero - Vista Alternativa

Tabla de contenido:

Inteligencia Artificial Emocional: Quién Y Por Qué Reconoce Las Emociones En Rusia Y En El Extranjero - Vista Alternativa
Inteligencia Artificial Emocional: Quién Y Por Qué Reconoce Las Emociones En Rusia Y En El Extranjero - Vista Alternativa

Vídeo: Inteligencia Artificial Emocional: Quién Y Por Qué Reconoce Las Emociones En Rusia Y En El Extranjero - Vista Alternativa

Vídeo: Inteligencia Artificial Emocional: Quién Y Por Qué Reconoce Las Emociones En Rusia Y En El Extranjero - Vista Alternativa
Vídeo: LA CONSCIENCIA Y LA PERSONALIDAD. DE INEVITABLEMENTE MUERTO A ETERNAMENTE VIVO 2024, Mayo
Anonim

La inteligencia artificial se está desarrollando activamente en Rusia y el mundo, incluida la emocional. Está interesado en grandes empresas y startups ambiciosas que están introduciendo nuevos desarrollos en el sector minorista, marketing, educación, banca y contratación. Según Mordor Intelligence, el mercado de reconocimiento de emociones se valoró en $ 12 mil millones en 2018 y crecerá a $ 92 mil millones en 2024.

Que es la IA emocional

Emotion AI (Emotion AI) es una IA que permite a una computadora reconocer, interpretar y responder a las emociones humanas. Una cámara, un micrófono o un sensor portátil lee el estado de una persona y una red neuronal procesa los datos para determinar una emoción.

norte

Hay dos formas principales de analizar las emociones:

  1. Contacto. Se coloca a una persona en un dispositivo que lee su pulso, impulsos eléctricos corporales y otros indicadores fisiológicos. Dichas tecnologías pueden determinar no solo las emociones, sino también el nivel de estrés o la probabilidad de un ataque epiléptico.
  2. Sin contacto. Las emociones se analizan sobre la base de grabaciones de audio y video. La computadora aprende expresiones faciales, gestos, movimientos oculares, voz y habla.

Para entrenar una red neuronal, los científicos de datos recopilan una muestra de datos y marcan manualmente el cambio en el estado emocional de una persona. El programa estudia patrones y comprende qué signos pertenecen a qué emociones.

La red neuronal se puede entrenar con diferentes datos. Algunas empresas y laboratorios usan cintas de video, otros estudian la voz y algunos se benefician de múltiples fuentes. Pero cuanto más diversos sean los datos, más preciso será el resultado.

Considere dos fuentes principales:

Video promocional:

Fotos e imágenes fijas de video

Las imágenes se procesan primero para facilitar el trabajo de la IA. Los rasgos faciales (cejas, ojos, labios, etc.) están marcados con puntos. La red neuronal determina la posición de los puntos, los compara con los signos de emociones de la plantilla y concluye qué emoción se refleja: ira, miedo, sorpresa, tristeza, alegría o tranquilidad.

También hay otro enfoque. Los marcadores de emociones se notan inmediatamente en la cara, por ejemplo, una sonrisa o cejas fruncidas. Luego, la red neuronal busca marcadores en la imagen, analiza sus combinaciones y determina el estado de la persona.

El estudio de los marcadores emocionales se inició en el siglo XX. Es cierto, entonces se consideraron por separado de las redes neuronales. Los científicos Paul Ekman y Wallace Friesen desarrollaron el Sistema de Codificación de Acción Facial (FACS) en 1978. Descompone las expresiones faciales en movimientos musculares individuales o Unidades de Acción. El investigador estudia las unidades motoras y las compara con la emoción.

Voz y habla

La red neuronal extrae muchos parámetros de la voz de la señal acústica, por ejemplo, tono y ritmo. Estudia su cambio en el tiempo y determina el estado del hablante.

A veces, se utiliza un espectrograma para el entrenamiento, una imagen que muestra la fuerza y la frecuencia de una señal a lo largo del tiempo. Además, la IA analiza el vocabulario para obtener resultados más precisos.

¿Dónde se utiliza la tecnología?

Ventas y publicidad

El uso más obvio de la tecnología de reconocimiento de emociones es el marketing. Con su ayuda, puede determinar cómo un video publicitario afecta a una persona. Para ello, puede, por ejemplo, instalar una estructura con una cámara que cambiará la publicidad en función del estado de ánimo, el género y la edad de las personas que pasan.

Un diseño similar fue desarrollado por las startups Cloverleaf y Affectiva. Introdujeron un anuncio electrónico de estantería llamado shelfPoint que recopila datos sobre las emociones de los compradores. Procter & Gamble, Walmart y otras grandes empresas han probado nuevas tecnologías. Según Cloverleaf, las ventas aumentaron entre un 10 y un 40%, mientras que la participación del cliente aumentó entre 3 y 5 veces.

Una opción más inusual es un consultor de robots con inteligencia artificial. Interactuará con los clientes, leerá sus emociones e influirá en ellos. Y también realizar ofertas personalizadas.

Image
Image

El robot de servicio fue presentado por la startup rusa Promobot. Utiliza una red neuronal desarrollada por Neurodata Lab, que determina las emociones de varias fuentes a la vez: grabaciones de un rostro, voz, movimientos, así como la frecuencia respiratoria y del pulso.

Promobot vende activamente sus robots en el extranjero. En 2018, la startup firmó un contrato con la empresa estadounidense Intellitronix por $ 56,7 millones, y en el próximo acordó suministrar dispositivos a Arabia Saudita, Israel, Kuwait y Suecia, para ellos la empresa recibirá $ 1,1 millones. Según Promobot, hoy 492 robots están funcionando. en 34 países alrededor del mundo como guías, conserjes, consultores y promotores.

Bancos

Las tecnologías de reconocimiento de emociones ayudan a los bancos a obtener comentarios de los clientes sin encuestas y a mejorar el servicio. Se instalan cámaras de video en los departamentos y los algoritmos de grabación determinan la satisfacción de los visitantes. Las redes neuronales también pueden analizar la voz y el habla del cliente y el operador durante una llamada al centro de contacto.

En Rusia, han estado tratando de implementar la IA emocional durante mucho tiempo: se probó en Sberbank en 2015, y tres años después, Alfa-Bank lanzó su piloto para analizar emociones a partir de videos. Además de las grabaciones de las cámaras de vigilancia, también se utilizan grabaciones de llamadas. VTB lanzó un proyecto piloto para implementar IA emocional en 2019. Y Rosbank, junto con Neurodata Lab, ya han probado la determinación de las emociones de los clientes por voz y discurso. El cliente llamó al banco y la red neuronal analizó su estado y el significado de la conversación. Además, la IA notó pausas en el habla del operador, el volumen de la voz y el tiempo de comunicación. Esto permitió no solo verificar la satisfacción con el servicio, sino también monitorear el trabajo de los operadores del centro de contacto.

Ahora Rosbank ha implementado su propia solución para el reconocimiento de emociones. En lugar de una señal acústica, el sistema analiza el texto, mientras que la precisión sigue siendo alta.

El Speech Technology Center también participa en el reconocimiento de emociones en el habla (Sberbank posee una participación mayoritaria). El servicio Smart Logger analiza la voz y el vocabulario de los clientes y operadores, el tiempo de conversación y las pausas para conocer la satisfacción con el servicio.

Esfera de entretenimiento

Los sistemas de reconocimiento de emociones se pueden utilizar para medir la reacción de la audiencia a una película. Disney en 2017, en colaboración con científicos, realizó un experimento: instaló cámaras en un cine y conectó algoritmos de aprendizaje profundo para evaluar las emociones de los espectadores. El sistema podría predecir las reacciones de las personas observándolas durante unos minutos. Durante el experimento, recopilamos un conjunto de datos impresionante: 68 marcadores de cada uno de 3,179 espectadores. En total, se obtuvieron 16 millones de imágenes de rostros.

Con el mismo propósito, el alojamiento de videos de YouTube ha creado su propia IA llamada YouFirst. Permite a los blogueros de video y a las empresas probar el contenido antes de publicarlo en la plataforma. Los usuarios hacen clic en un enlace especial, aceptan grabar un video y ver el video. En este momento, la red neuronal determina sus reacciones y envía los datos al propietario del canal.

Entre las empresas rusas, las reacciones a los videos pueden ser analizadas, por ejemplo, por Neurobotics. La empresa ha desarrollado el programa EmoDetect que reconoce la alegría, la tristeza, la sorpresa, el miedo, la ira, el disgusto y la neutralidad. El programa estudia hasta 20 rasgos faciales locales en fotogramas congelados y una serie de imágenes. El sistema analiza las unidades motoras y utiliza la tecnología de codificación facial FACS. Es posible grabar video desde una cámara web. La API EmoDetect le permite integrar el producto con aplicaciones externas.

norte

La IA emocional también está comenzando a aplicarse en la industria del juego. Ayuda a personalizar el juego y agregar más interacción con el jugador.

Por ejemplo, la empresa estadounidense de inteligencia artificial emocional Affectiva ayudó a crear el thriller psicológico Nevermind. La tensión depende del estado del jugador: la trama se vuelve más oscura cuando está bajo estrés, y viceversa.

Image
Image

Educación

El reconocimiento de emociones también se aplica a la educación. Se puede utilizar para estudiar el estado de ánimo y la atención de los estudiantes durante la clase.

Los desarrolladores rusos han aplicado IA emocional en Perm. El ímpetu para el desarrollo de la tecnología fueron los ataques de los estudiantes a los estudiantes de la escuela primaria y al maestro. Rostelecom y la startup New Vision han desarrollado el programa Smart and Safe School para monitorear el estado emocional de los niños. Esto ayudará a identificar a los adolescentes asociales antes de que ocurra la tragedia.

Se basó en el sistema Paul Ekman. La red neuronal analizó los más mínimos movimientos musculares utilizando 150 puntos en la cara. Se recopiló una gran cantidad de datos durante la lección: 5-6 mil marcos para cada alumno. El programa estudió el conjunto de datos y calculó el estado emocional de cada niño. Según los creadores, la precisión fue del 72%.

HORA

La IA emocional puede resultar útil en el trabajo con el personal. Ayuda a determinar el estado del empleado, a notar su fatiga o insatisfacción a tiempo y a redistribuir las tareas de manera más eficiente.

Además, la tecnología ayuda a la contratación. Con la ayuda de la inteligencia artificial emocional, puede verificar a un candidato para un trabajo o descubrir una mentira durante una entrevista.

La empresa estadounidense HireVue utiliza inteligencia artificial para evaluar candidatos. El solicitante pasa por una video entrevista, y la red neuronal determina su condición por palabras clave, entonación de voz, movimientos y expresiones faciales. La IA destaca las características que son importantes para el trabajo y otorga calificaciones, y el gerente de recursos humanos selecciona a los candidatos adecuados.

Human, una startup con sede en Londres, utiliza videos para identificar emociones y relacionarlas con los rasgos de los personajes. Después de la entrevista en video, los reclutadores reciben un informe que dice cuán honesto, curioso, emocionado, entusiasta o seguro era el candidato y cómo respondió a las preguntas.

Medicamento

En esta área, no solo será útil el no contacto, sino también los métodos de contacto para determinar las emociones. Están siendo implementados activamente por nuevas empresas extranjeras, por ejemplo, Affectiva y Brain Power. Los desarrollos de las empresas incluyen gafas de inteligencia artificial que ayudan a niños y adultos con autismo a reconocer las emociones de otras personas y desarrollar habilidades sociales.

Pero las redes neuronales pueden ayudar a los pacientes sin sensores portátiles. Los científicos del Instituto de Tecnología de Massachusetts han creado una red neuronal que detecta la depresión analizando el habla de una persona. La precisión del resultado fue del 77%. Y la startup Beyond Verbal está utilizando IA para analizar la salud mental de los pacientes. En este caso, la red neuronal selecciona solo biomarcadores de voz de la grabación de audio.

Coches

El Instituto de Tecnología de Massachusetts está desarrollando una IA llamada AutoEmotive que determinará la condición del conductor y los pasajeros. No solo controlará el nivel de estrés, sino que también intentará reducirlo, tocando música suave, ajustando la temperatura en la cabina o tomando una ruta menos transitada.

Limitaciones de la IA emocional

La red neuronal no puede tener en cuenta el contexto

La IA ha aprendido a identificar las emociones y los estados humanos básicos, pero hasta ahora no se adapta bien a situaciones más complejas. Los científicos señalan que las expresiones faciales no siempre muestran con precisión cómo se siente realmente una persona. Su sonrisa puede ser fingida o sarcástica, y esto solo puede ser determinado por el contexto.

Los expertos de NtechLab creen que todavía es difícil determinar con precisión el motivo de tal o cual emoción.

NtechLab enfatiza que es necesario reconocer no solo las expresiones faciales, sino también los movimientos humanos. La diversidad de datos hará que la IA emocional sea mucho más eficiente. Daniil Kireev, un investigador líder de la empresa de desarrollo de productos de reconocimiento facial VisionLabs, está de acuerdo con esto. En su opinión, con más datos, aumenta la precisión de los algoritmos.

“Hay errores, su número depende de muchos factores: la calidad de la muestra de entrenamiento, la red neuronal entrenada, los datos sobre los que funciona el sistema final. Al agregar información de diferentes fuentes, por ejemplo, voz, puede mejorar la calidad del sistema. Al mismo tiempo, es importante entender que por el rostro determinamos más bien su expresión que la emoción final. El algoritmo puede intentar determinar la emoción simulada, pero para ello, el desarrollo de la tecnología debe dar un pequeño paso adelante”, dice Daniil Kireev.

Mal equipo

Los factores externos influyen en la calidad de los algoritmos. Para que la precisión del reconocimiento de emociones sea alta, las cámaras de video y los micrófonos deben ser de alta calidad. Además, el resultado está influenciado por la iluminación, la posición de la cámara. Según Daniil Kireev, las condiciones incontroladas complican el proceso de determinación de los estados de una persona.

Para que la IA emocional se desarrolle, necesita hardware de calidad. Si encuentra un buen equipo y lo configura correctamente, la precisión de los resultados será muy alta. Y cuando sea más accesible y generalizado, las tecnologías de reconocimiento de emociones se mejorarán y se implementarán de manera más activa.

“La precisión del sistema depende de muchos factores. El principal es la calidad de los fotogramas fijos de la cámara, que se entregan al sistema para su reconocimiento. La calidad de los fotogramas fijos, a su vez, se ve afectada por la configuración y las características de la cámara, la matriz, la iluminación, la ubicación del dispositivo y el número de caras en el fotograma. Con la configuración correcta del hardware y software, es posible lograr la precisión de la emoción detectada hasta en un 90-95%”, señala Vitaly Vinogradov, gerente de producto del servicio de videovigilancia y análisis de video en la nube Ivideon.

Perspectiva tecnológica

Ahora, en Rusia, la IA emocional solo está ganando impulso. Las empresas emergentes desarrollan tecnología y comercializan sus productos, y los clientes los prueban con precaución.

Pero Gartner estima que para 2024, más de la mitad de los anuncios en línea se realizarán utilizando inteligencia artificial emocional. La visión por computadora, que se utiliza para detectar emociones, se convertirá en una de las tecnologías más importantes en los próximos 3-5 años. Y MarketsandMarkets predice que el mercado de análisis de emociones se duplicará para 2024, de $ 2.2 mil millones a $ 4.6 mil millones.

Además, las grandes empresas están mostrando interés en el reconocimiento de emociones, por ejemplo, Procter & Gamble, Walmart, VTB, Rosbank, Sberbank y Alfa-Bank. Y las nuevas empresas nacionales están desarrollando proyectos piloto que se convertirán en soluciones listas para usar para los negocios en el futuro.

Evgeniya Khrisanfova

Recomendado: