A La Caza De La Negatividad. Se Confiará En La Inteligencia Artificial Para Controlar Las Redes Sociales - Vista Alternativa

A La Caza De La Negatividad. Se Confiará En La Inteligencia Artificial Para Controlar Las Redes Sociales - Vista Alternativa
A La Caza De La Negatividad. Se Confiará En La Inteligencia Artificial Para Controlar Las Redes Sociales - Vista Alternativa

Vídeo: A La Caza De La Negatividad. Se Confiará En La Inteligencia Artificial Para Controlar Las Redes Sociales - Vista Alternativa

Vídeo: A La Caza De La Negatividad. Se Confiará En La Inteligencia Artificial Para Controlar Las Redes Sociales - Vista Alternativa
Vídeo: #MDM 378: IA y las marcas. Inteligencia Artificial 2024, Octubre
Anonim

Si no vive en las redes sociales, lo más probable es que no viva en absoluto. La mitad de la población mundial puede darte un diagnóstico tan decepcionante. En cualquier caso, según las estadísticas, hoy están registrados en las redes sociales. En Rusia, el número de usuarios de redes es de unos 30 millones.

Los psicólogos ya han escrito volúmenes sobre la adicción a las redes, que se compara con una droga. Y el autor del término "realidad virtual", uno de sus creadores, un representante de la ciber élite de Silicon Valley, Jaron Lanier, incluso escribió un libro sobre por qué es necesario correr desde la red social. Aunque se ha convertido en un éxito de ventas, es poco probable que estas llamadas convenzan a grandes masas de usuarios. Hoy, la población de las redes sociales está creciendo rápidamente. Según los expertos, a mediados de siglo enredarán a casi toda la población del planeta. A menos, por supuesto, que la humanidad cambie de opinión.

Y hay algo en que pensar. En las redes de hoy hay clubes para los intereses no solo de filatelistas y cinéfilos, sino de suicidios y drogadictos, aquí se pueden encontrar instrucciones para terroristas novatos, compañeros en la lucha contra el actual gobierno y mucho más, francamente hablando, negativo. Por ejemplo, puede pensar en la ola de suicidios, cuando hubo un boom en un juego popular en línea, cuyo objetivo final es el suicidio. Los usuarios de las redes sociales (mayoritariamente adolescentes) son contactados por un "curador" que usa cuentas falsas, no pueden ser identificados. Primero, explican las reglas: "no le digas a nadie sobre este juego", "siempre completa las tareas, sean las que sean", "por no completar la tarea te excluyen del juego para siempre y te enfrentarás a malas consecuencias".

Y los políticos ya están hablando del fenómeno de las redes: derrocan gobiernos e incluso eligen presidentes. Las técnicas son sorprendentemente simples. Se arrojan falsificaciones a la red sobre determinadas acciones atroces de las autoridades y se hacen llamados a tomar las calles para expresar indignación. Hay muchos ejemplos conocidos, por ejemplo, en Egipto, Sudán del Sur, Myanmar.

norte

¿Cómo proteger a la sociedad de la influencia destructiva de las redes sociales? Esto es especialmente cierto para la generación más joven, que constituye la abrumadora mayoría en las redes.

En principio, para los especialistas, en particular los psicólogos, esto no es un problema. Pero los volúmenes de la información más diversa, incluso negativa, en las redes son enormes, incluso los mejores profesionales no pueden hacer frente a su procesamiento "manual". Solo la tecnología puede hacer esto. Y sobre todo, la inteligencia artificial (IA), construida sobre la base de redes neuronales que imitan la estructura y el funcionamiento del cerebro. Un equipo de psicólogos de la Primera Universidad Médica Estatal de San Petersburgo que lleva el nombre de I. I. Pavlov y especialistas en el campo de la tecnología de la información del Instituto de Informática y Automatización de San Petersburgo de la Academia de Ciencias de Rusia.

norte

"Estamos hablando de identificar con la ayuda de la inteligencia artificial a diferentes grupos de personas propensas a comportamientos destructivos", dijo al corresponsal de RG el profesor Igor Kotenko, que dirige este grupo de científicos. - Los psicólogos nos ofrecieron siete opciones para tal comportamiento, en particular, esta es una actitud negativa hacia la vida, que puede llevar al suicidio, esta es una tendencia a la agresión o protesta, estas son amenazas contra una persona o grupo de personas en específico, etc. Nuestra tarea es crear una IA que pueda trabajar con estos signos, en sentido figurado, "martillarlos" en la IA, de modo que pueda analizar constantemente la enorme información que circula por la red y captar varias opciones perturbadoras.

A primera vista, la tarea no es muy difícil. Después de todo, todos los residentes de la red social, como dicen, están a la vista. En su página puedes ver qué le interesa, qué piensa, con quién se comunica, qué acciones realiza él mismo y a qué llama a los demás. Todo es de un vistazo. Observe y actúe. Pero si todo fuera tan obvio … Lo cierto es que los pensamientos y el comportamiento de una persona en la mayoría de los casos están lejos de ser tan sencillos e inequívocos como podría parecer. En general, el diablo está en los detalles. Y donde todo es obvio para un especialista, la IA puede estar equivocada. Por ejemplo, los científicos canadienses le enseñaron a la inteligencia artificial a distinguir entre bromas groseras o "discurso de odio" de simplemente ofensivo. El sistema resultó ser bastante imperfecto, por ejemplo, omitió muchas declaraciones obviamente racistas.

Video promocional:

En resumen, todo depende de cómo se enseñe la IA. Y el sistema aprende con ejemplos como aprende un niño. Después de todo, no le explican que un gato tiene tal bigote, tales orejas, tal cola. Muchas veces le muestran un animal y dicen que es un gato. Y luego él mismo repite esta lección muchas veces, mirando a otro gato.

Las redes neuronales creadas por científicos de San Petersburgo estudiarán de la misma manera. Se les presentarán varias opciones para el comportamiento destructivo de las personas. Manteniendo en su "cerebro" los signos desarrollados por los psicólogos, la IA los memorizará para luego captarlos en los enormes flujos de información de las redes sociales. El profesor Kotenko enfatiza que la tarea de la IA es dar solo un consejo para los destructivos, y la última palabra es para los especialistas. Solo ellos podrán decir si la situación es realmente alarmante y una necesidad urgente de actuar o la alarma es falsa.

El proyecto fue apoyado por la Fundación Rusa para la Investigación Básica.

Yuri Medvedev

Recomendado: