Se Ha Enseñado A La Inteligencia Artificial A Engañar A Otras Inteligencias Artificiales - Vista Alternativa

Se Ha Enseñado A La Inteligencia Artificial A Engañar A Otras Inteligencias Artificiales - Vista Alternativa
Se Ha Enseñado A La Inteligencia Artificial A Engañar A Otras Inteligencias Artificiales - Vista Alternativa

Vídeo: Se Ha Enseñado A La Inteligencia Artificial A Engañar A Otras Inteligencias Artificiales - Vista Alternativa

Vídeo: Se Ha Enseñado A La Inteligencia Artificial A Engañar A Otras Inteligencias Artificiales - Vista Alternativa
Vídeo: La Inteligencia Artificial que hizo trampa #OpenAi 2024, Abril
Anonim

Investigadores del Instituto de Tecnología de Massachusetts (MIT) han desarrollado una técnica para engañar a la inteligencia artificial (IA) de análisis de texto, informó Wired el 23 de febrero.

Los investigadores han notado que un ligero cambio en una frase, comprensible para una persona, puede engañar a la IA. Desarrollaron un algoritmo para reemplazar palabras con sinónimos y engañar al texto de reconocimiento de la IA. El matiz es que el propio algoritmo de ataque utiliza IA para seleccionar sinónimos.

Como ejemplo, la frase "Los personajes, proyectados en situaciones imposiblemente artificiales, están totalmente alejados de la realidad". ("Los personajes interpretados en situaciones increíblemente artificiales están completamente fuera de contacto con la realidad"), que es una crítica negativa de la película.

Si reemplaza las palabras en él con sinónimos, entonces la frase "Los personajes, proyectados en circunstancias imposiblemente diseñadas, están completamente alejados de la realidad" ("Los personajes interpretados en circunstancias increíblemente hábiles están completamente divorciados de la realidad"), entonces la IA considera que la revisión es positiva.

También se pueden engañar otros tipos de sistemas de IA; en este caso, las vulnerabilidades se demostraron principalmente en los sistemas de reconocimiento de imagen y voz.

Los investigadores notaron que distorsiones de datos tan sutiles pueden engañar a la IA y usarse para atacar sistemas, lo que se vuelve significativo a medida que la IA se propaga en los campos de las finanzas, la atención médica y otros.

Recomendado: