Cómo Se Enseñó A Las Redes Neuronales A Falsificar La Imagen De Las Noticias - Vista Alternativa

Tabla de contenido:

Cómo Se Enseñó A Las Redes Neuronales A Falsificar La Imagen De Las Noticias - Vista Alternativa
Cómo Se Enseñó A Las Redes Neuronales A Falsificar La Imagen De Las Noticias - Vista Alternativa

Vídeo: Cómo Se Enseñó A Las Redes Neuronales A Falsificar La Imagen De Las Noticias - Vista Alternativa

Vídeo: Cómo Se Enseñó A Las Redes Neuronales A Falsificar La Imagen De Las Noticias - Vista Alternativa
Vídeo: Programar Red Neuronal Convolucional (CNN) en Python utilizando Keras 2024, Abril
Anonim

Para crear falsificaciones, se utilizan sistemas de inteligencia artificial y tecnologías para generar falsificaciones de video y audio.

Para crear una imagen informativa “individual” para cualquiera de nosotros y falsificar los informes de los medios seleccionados en ella, hoy bastan los esfuerzos de un programador. Especialistas en inteligencia artificial y ciberseguridad se lo contaron a Izvestia. Más recientemente, estimaron que esto requería el trabajo de varios equipos. Esta aceleración se hizo posible con el desarrollo de tecnologías para ataques a redes neuronales y la generación de falsificaciones de sonido y video utilizando programas para la creación de “deep fakes”. El diario Izvestia sufrió recientemente un ataque similar, cuando tres portales de noticias libios publicaron a la vez un mensaje que supuestamente apareció en uno de los números. Según los expertos, dentro de 3-5 años, se puede esperar una invasión de manipuladores robóticos, que automáticamente podrán crear muchas falsificaciones.

Nuevo mundo valiente

norte

Cada vez hay más proyectos que ajustan la imagen de la información a la percepción de usuarios específicos. Un ejemplo de su trabajo fue la acción reciente de tres portales libios, que publicaron noticias supuestamente impresas en el número de Izvestia el 20 de noviembre. Los creadores de la falsificación modificaron la portada del periódico, publicando en ella un mensaje sobre las negociaciones entre el mariscal de campo Khalifa Haftar y el primer ministro del Gobierno de Acuerdo Nacional (PNS) Fayez Sarraj. La falsificación, en tipografía Izvestia, iba acompañada de una foto de los dos líderes tomada en mayo de 2017. La etiqueta con el logotipo de la publicación se cortó del número real publicado del 20 de noviembre y todos los demás textos de la página del número del 23 de octubre.

Desde el punto de vista de los especialistas, en un futuro previsible tales falsificaciones se pueden realizar automáticamente.

Image
Image

"Las tecnologías de inteligencia artificial ahora están completamente abiertas, y los dispositivos para recibir y procesar datos se están miniaturizando y abaratando", dijo a Izvestia Yuri Vilsiter, Doctor en Ciencias Físicas y Matemáticas, Profesor de la Academia de Ciencias de Rusia y jefe del departamento FSUE "GosNIIAS". - Por tanto, es muy probable que en un futuro próximo ni el Estado y las grandes corporaciones, sino simplemente los particulares, puedan espiarnos y espiarnos, así como manipular la realidad. En los próximos años será posible, mediante el análisis de las preferencias del usuario, influir en él a través de noticias y falsificaciones muy inteligentes.

Video promocional:

Según Yuri Vilsiter, ya existen tecnologías que pueden utilizarse para tal intervención en el entorno mental. En teoría, la invasión de robots manipuladores se puede esperar en unos pocos años, dijo. Un momento límite aquí puede ser la necesidad de recopilar grandes bases de datos de ejemplos de respuestas de personas reales a estímulos artificiales con seguimiento de las consecuencias a largo plazo. Es probable que dicho seguimiento requiera varios años más de investigación antes de que los ataques dirigidos se obtengan de manera constante.

Ataque de visión

Alexei Parfentiev, jefe del departamento de análisis de SearchInform, está de acuerdo con Yuri Vilsiter. Según él, los expertos ya predicen ataques a redes neuronales, aunque ahora prácticamente no existen tales ejemplos.

- Investigadores de Gartner creen que para 2022, el 30% de todos los ciberataques estarán destinados a corromper los datos sobre los que se entrena la red neuronal y robar modelos de aprendizaje automático ya hechos. Entonces, por ejemplo, los vehículos no tripulados pueden comenzar repentinamente a confundir a los peatones con otros objetos. Y no hablaremos de riesgo financiero o reputacional, sino de la vida y la salud de la gente corriente, cree el experto.

Los ataques a los sistemas de visión por computadora se están llevando a cabo como parte de la investigación. El propósito de tales ataques es forzar a la red neuronal a detectar en la imagen lo que no está allí. O, por el contrario, no ver lo que estaba planeado.

Image
Image

“Uno de los temas en desarrollo activo en el campo del entrenamiento de redes neuronales son los llamados ataques adversarios (“ataques adversarios”- Izvestia)”, explicó Vladislav Tushkanov, analista web de Kaspersky Lab. - En la mayoría de los casos, están dirigidos a sistemas de visión artificial. Para llevar a cabo un ataque de este tipo, en la mayoría de los casos, es necesario tener acceso completo a la red neuronal (los llamados ataques de caja blanca) o los resultados de su trabajo (ataques de caja negra). No existen métodos que puedan engañar a cualquier sistema de visión artificial en el 100% de los casos. Además, ya se han creado herramientas que le permiten probar las redes neuronales para determinar la resistencia a los ataques adversarios y aumentar su resistencia.

norte

En el curso de tal ataque, un atacante intenta de alguna manera cambiar la imagen reconocida para que la red neuronal no funcione. A menudo, el ruido se superpone a la foto, similar al que se produce al fotografiar en una habitación poco iluminada. Una persona generalmente no nota bien tal interferencia, pero la red neuronal comienza a funcionar mal. Pero para llevar a cabo dicho ataque, el atacante necesita acceder al algoritmo.

Según Stanislav Ashmanov, director general de Neuroset Ashmanov, actualmente no existen métodos para abordar este problema. Además, esta tecnología está disponible para cualquier persona: un programador promedio puede usarla descargando el software de código abierto necesario del servicio Github.

Image
Image

- Un ataque a una red neuronal es una técnica y algoritmos para engañar a una red neuronal, que hacen que produzca resultados falsos y, de hecho, la rompan como la cerradura de una puerta, cree Ashmanov. - Por ejemplo, ahora es bastante fácil hacer que el sistema de reconocimiento facial piense que no eres tú, sino Arnold Schwarzenegger frente a él; esto se hace mezclando aditivos imperceptibles para el ojo humano en los datos que ingresan a la red neuronal. Los mismos ataques son posibles para los sistemas de análisis y reconocimiento de voz.

El experto está seguro de que solo empeorará: estas tecnologías han llegado a las masas, los estafadores ya las están utilizando y no hay medios de protección contra ellas. Como no existe protección contra la creación automatizada de falsificaciones de video y audio.

Falsas profundas

Las tecnologías deepfake basadas en Deep Learning (tecnologías de aprendizaje profundo de redes neuronales. - Izvestia) ya suponen una amenaza real. Las falsificaciones de video o audio se crean editando o superponiendo los rostros de personajes famosos que supuestamente pronuncian el texto necesario y juegan el papel necesario en la trama.

“Deepfake le permite reemplazar los movimientos de los labios y el habla humana con video, lo que crea una sensación de realismo de lo que está sucediendo”, dice Andrey Busargin, director del departamento de protección de marca innovadora y propiedad intelectual en Group-IB. - Falsos famosos “ofrecen” a los usuarios en las redes sociales participar en el sorteo de valiosos premios (smartphones, coches, sumas de dinero), etc. Los enlaces de estos videos a menudo conducen a sitios fraudulentos y de phishing donde se solicita a los usuarios que ingresen información personal, incluidos los detalles de la tarjeta bancaria. Tales esquemas representan una amenaza tanto para los usuarios comunes como para las figuras públicas que se mencionan en los comerciales. Debido a este tipo de travesuras, las imágenes de celebridades se asocian con estafas o productos publicitados.y aquí es donde nos encontramos con el daño de la marca personal”, dice.

Image
Image

Otra amenaza está asociada con el uso de "votos falsos" para el fraude telefónico. Por ejemplo, en Alemania, los ciberdelincuentes utilizaron la voz deepfake para hacer que el director de una subsidiaria del Reino Unido transfiriera urgentemente 220.000 € a la cuenta de un proveedor húngaro en una conversación telefónica, haciéndose pasar por el director de una empresa. El director de la firma británica sospechó un truco cuando su "jefe" le pidió un segundo giro postal, pero la llamada procedía de un número austriaco. En ese momento, el primer tramo ya se había transferido a una cuenta en Hungría, desde donde se retiraba el dinero a México.

Resulta que las tecnologías actuales permiten crear una imagen informativa individual llena de noticias falsas. Además, pronto será posible distinguir las falsificaciones del video y audio reales solo por hardware. Según los expertos, es poco probable que las medidas que prohíben el desarrollo de redes neuronales sean eficaces. Por lo tanto, pronto viviremos en un mundo en el que será necesario volver a revisar todo constantemente.

“Necesitamos prepararnos para esto y tenemos que aceptarlo”, enfatizó Yuri Vilsiter. - La humanidad no es la primera vez que pasa de una realidad a otra. Nuestro mundo, forma de vida y valores son radicalmente diferentes del mundo en el que vivieron nuestros antepasados hace 60.000 años, hace 5.000 años, hace 2.000 años e incluso hace 200-100 años. En un futuro cercano, una persona se verá privada en gran medida de su privacidad y, por lo tanto, se verá obligada a no ocultar nada y actuar con honestidad. Al mismo tiempo, nada en la realidad circundante y en la propia personalidad puede tomarse con fe, todo tendrá que ser cuestionado y revisado constantemente. Pero, ¿será terrible esta realidad futura? No. Simplemente será completamente diferente.

Anna Urmantseva

Recomendado: