La Inteligencia Artificial Ha Aprendido A Ver Los Trolls De La Red - Vista Alternativa

La Inteligencia Artificial Ha Aprendido A Ver Los Trolls De La Red - Vista Alternativa
La Inteligencia Artificial Ha Aprendido A Ver Los Trolls De La Red - Vista Alternativa

Vídeo: La Inteligencia Artificial Ha Aprendido A Ver Los Trolls De La Red - Vista Alternativa

Vídeo: La Inteligencia Artificial Ha Aprendido A Ver Los Trolls De La Red - Vista Alternativa
Vídeo: La Inteligencia Artificial revela el rostro del universo 2024, Mayo
Anonim

La inteligencia artificial leyó los comentarios agresivos de los usuarios de Reddit y entendió cómo hablan las personas que odian a otras personas. Es más difícil engañarlo que un moderador de bot regular.

Internet está habitada por trolls gordos y flacos y gente grosera que no busca palabras en sus bolsillos. Moderar Internet manualmente es un trabajo duro e ingrato. Los bots programados para buscar palabras de la "lista prohibida" funcionan mejor, pero no pueden saber cuándo un comentario cáustico con palabras en clave es una broma inofensiva y cuándo es un ataque verbal maligno.

Investigadores de Canadá han enseñado a la inteligencia artificial a distinguir los chistes groseros de los chistes hirientes y lo que los sociólogos llaman "discurso de odio".

Dana Wormsley, una de las creadoras de IA, señala que el "discurso de odio" es difícil de formalizar. De hecho, las palabras formalmente ofensivas se pueden utilizar tanto con ironía como en sus significados más suaves; sólo algunos de los textos que contienen tales palabras incitan y humillan seriamente. No daremos ejemplos, porque las organizaciones gubernamentales que regulan Internet en Rusia aún no tienen inteligencia artificial).

norte

La red neuronal se entrenó a partir de muestras de declaraciones de miembros de la comunidad conocidos por su hostilidad hacia diferentes grupos de la población. La red neuronal aprendió de las publicaciones del sitio de Reddit, una plataforma donde puede encontrar una amplia variedad de grupos de interés, desde activistas de derechos civiles hasta misóginos radicales. Los textos que se subieron al sistema con mayor frecuencia insultaban a los afroamericanos, las personas con sobrepeso y las mujeres.

Una red neuronal entrenada de esta manera dio menos falsos positivos que los programas que determinan el "discurso de odio" mediante palabras clave. El sistema atrapó el racismo donde no había palabras indicadoras en absoluto. Pero a pesar del buen desempeño, los creadores del moderador de IA no están seguros de que su desarrollo sea ampliamente utilizado. Hasta ahora, ha encontrado con éxito el discurso de odio en Reddit, pero se desconoce si podrá hacer lo mismo en Facebook y otras plataformas. Además, el sistema es imperfecto, a veces se pierden muchas de las declaraciones racistas aparentemente groseras que un motor de búsqueda de palabras clave no perdería. El único que es capaz de distinguir un insulto de una broma inocente mientras la persona permanece.

Recomendado: