¿Qué Peligros De Las Redes Neuronales Subestimamos? - Vista Alternativa

Tabla de contenido:

¿Qué Peligros De Las Redes Neuronales Subestimamos? - Vista Alternativa
¿Qué Peligros De Las Redes Neuronales Subestimamos? - Vista Alternativa

Vídeo: ¿Qué Peligros De Las Redes Neuronales Subestimamos? - Vista Alternativa

Vídeo: ¿Qué Peligros De Las Redes Neuronales Subestimamos? - Vista Alternativa
Vídeo: Redes neuronales y sus aplicaciones 2024, Mayo
Anonim

¿Alguna vez has conocido a una persona en la calle que sea uno a uno como tú? La ropa, el rostro, la forma de andar, la forma de comunicarse, los hábitos son completamente idénticos a los suyos. Es como ser escaneado e impreso en una impresora. Suena un poco espeluznante, ¿no? Ahora imagina que has visto un video en el que una persona así cuenta algo sobre sí mismo. En el mejor de los casos, tratará de recordar cuándo caminó de tal manera que no recordaba nada, pero podría decirlo en cámara. Si bien todo esto parece un razonamiento simple, la tecnología ya está muy cerca de crear a esas personas. Ya existen, pero pronto habrá muchos más.

¿De dónde viene la falsificación?

Ahora ya hay demasiadas cosas que comúnmente se llaman falsificaciones. Están en todos lados. Pueden encontrarse en fotografías, en las noticias, en la producción de bienes y en los servicios de información. Es más fácil decir dónde no hay fenómenos acompañados de esta palabra. Mientras puedas luchar contra ellos. Puede estudiar el origen de la foto, verificar las características distintivas de un producto de marca de una falsificación y verificar las noticias. Aunque, las noticias son un tema aparte.

norte

Hoy en día un consumidor de contenidos no quiere esperar y requiere una producción instantánea de su creador, a veces ni siquiera le importa la calidad, lo principal es la rapidez. Aquí es donde surgen situaciones en las que alguien dijo algo y los demás, sin comprobarlo, lo quitaron de sus sitios web y periódicos. En algunos casos, lleva mucho tiempo hacer girar esta pelota y demostrar que todo estaba mal.

No tiene sentido explicar por qué se hace todo esto. Por un lado, están los que solo quieren reírse de la situación, por el otro, los que realmente no sabían que estaban equivocados. Un lugar separado, aproximadamente en el medio, está ocupado por aquellos para quienes es trivial lucrar. Estos pueden ser intereses de influencia a diferentes niveles, incluido el político. A veces, este es el propósito de obtener ganancias. Por ejemplo, sembrar el pánico en el mercado de valores y realizar transacciones rentables con valores. Pero a menudo esto se debe a la hostilidad hacia una persona (empresa, producto, etc.) con el fin de menospreciarla. Un ejemplo simple es "bajar" las calificaciones de una película o institución que no es deseable para alguien. Por supuesto, esto requiere un ejército de aquellos que irán y no les gustarán (a veces incluso bots), pero esa es otra historia.

¿Qué es el aprendizaje profundo?

Video promocional:

Recientemente, este término suena cada vez con más frecuencia. A veces ni siquiera está relacionado con el caso y se confunde con otra cosa. Entonces, el producto de software se ve más impresionante.

No crea que el concepto y los principios básicos del aprendizaje automático aparecieron hace solo unos años. De hecho, tienen tantos años que muchos de nosotros ni siquiera nacimos entonces. Los principios básicos de los sistemas de aprendizaje profundo y los modelos matemáticos para su trabajo se conocieron en los años 80 del siglo pasado.

En ese momento, no tenían mucho sentido debido a la falta de un componente importante. Fue una gran potencia de cálculo. Recién a mediados de la década de 2000 aparecieron sistemas que pueden ayudar a trabajar en esta dirección y permitir calcular toda la información necesaria. Ahora las máquinas han evolucionado aún más y algunos sistemas de visión artificial, percepción de voz y algunos otros funcionan de manera tan eficiente que a veces incluso superan las capacidades de una persona. Aunque todavía no están "encarcelados" en direcciones responsables, lo que los convierte en una adición a las capacidades humanas mientras mantienen el control sobre ellos.

Image
Image

¿Qué es Deepfake? ¿Cuándo apareció Deepfake?

Es fácil adivinar que Deepfake es un pequeño juego de palabras asociadas con Deep Learning y las mismas falsificaciones de las que hablé anteriormente. Es decir, Deepfake debería llevar la falsificación a un nuevo nivel y descargar a una persona en este difícil negocio, permitiéndole crear contenido falso sin desperdiciar energía.

En primer lugar, estas falsificaciones se refieren al vídeo. Es decir, cualquier persona puede sentarse frente a la cámara, decir algo y su cara será reemplazada por otra persona. Parece aterrador, porque, de hecho, solo necesitas captar los movimientos básicos de una persona y será simplemente imposible distinguir una falsificación. Veamos como empezó todo.

La primera red generativa de confrontación fue creada por un estudiante de la Universidad de Stanford. Sucedió en 2014 y el nombre del estudiante era Ian Goodfellow. De hecho, enfrentó dos redes neuronales entre sí, una de las cuales estaba involucrada en la generación de rostros humanos, y la segunda las analizó y habló de manera similar o no. Entonces se entrenaron entre sí y un día la segunda red neuronal comenzó a confundirse y a tomar las imágenes generadas de verdad. Es este sistema cada vez más complejo el que da origen a Deepfake.

Ahora uno de los principales impulsores de la idea de Deepfake es Hao Li. No solo hace esto, sino también muchos otros. Por esto, fue galardonado repetidamente con varios premios, incluidos los no oficiales. Por cierto, es de los que hay que agradecer la aparición de animoji en el iPhone X. Si está interesado, puede familiarizarse con él con más detalle en su sitio web. Hoy no es el principal tema de discusión.

Solo lo recordamos porque mostró su aplicación en el Foro Económico Mundial en Davos, lo que le permitirá reemplazar el rostro de una persona sentada frente a la cámara por cualquier otro rostro. En particular, mostró cómo funciona el sistema en el ejemplo de los rostros de Leonardo DiCaprio, Will Smith y otros personajes famosos.

Parece un poco espeluznante. Por un lado, solo puede admirar las tecnologías modernas que le permiten escanear un rostro, cambiarlo por otro sobre la marcha y producir una nueva imagen. Todo esto lleva una fracción de segundo y el sistema ni siquiera se ralentiza. Es decir, permite no solo procesar el video terminado y reemplazar la cara, sino también participar de dicho personaje en algún tipo de comunicación de video en vivo.

Peligro de Deepfake. ¿Cómo cambio la cara en un video?

Puedes hablar todo lo que quieras de que se necesita esta tecnología, es genial y no tienes que calumniar. Incluso puedes ir al extremo y empezar a decir que esta es la posición de un viejo feroz que simplemente le teme a todo lo nuevo, pero en realidad hay más peligros que beneficios.

Con dicha tecnología, especialmente si es de código abierto, cualquiera podrá navegar y grabar cualquier video. No está mal si solo difama el honor y la dignidad de alguien, mucho peor si es una declaración hecha en nombre de una persona importante. Por ejemplo, al grabar un video de solo 30 a 40 segundos de duración en nombre de Tim Cook, puede derribar casi toda la esfera de TI de EE. UU., Liderada por Apple. El mercado de valores se verá tan afectado que sembrará el pánico entre los inversores. Como resultado, miles de personas perderán miles de millones de dólares.

Cualquiera que no le guste esta forma de ganar dinero dirá que esto es lo que necesita, déjelo ir a la planta. Pero en el escenario más triste, no habrá ninguna planta después de esto. Además, es cursi que tengamos una persona que engaña sobre las fluctuaciones en el valor de los valores. Basta con comprarlos y venderlos a tiempo.

La situación podría ser aún peor si el "bromista" habla en nombre del líder de un estado grande. Por supuesto, entonces todo se revelará, pero durante este tiempo puedes hacer muchas cosas desagradables. En este contexto, simplemente sustituir el rostro de una celebridad por un actor en una película para adultos sería una broma inocente.

Con estas tecnologías, lo principal es escanear y luego es una cuestión de tecnología. En el verdadero sentido de la palabra
Con estas tecnologías, lo principal es escanear y luego es una cuestión de tecnología. En el verdadero sentido de la palabra

Con estas tecnologías, lo principal es escanear y luego es una cuestión de tecnología. En el verdadero sentido de la palabra.

Puedes imaginar la situación opuesta, cuando una persona real dice algo y luego asegura a todos que fue incriminado. Tampoco está muy claro cómo estar en esta situación. Esto traerá tanta confusión a las fuentes de noticias que simplemente no es posible verificarlo en otra fuente. Como resultado, generalmente no estará claro qué es verdadero y qué es falso en este mundo. Una imagen emerge de películas sobre un futuro sombrío, como Surrogates o Terminator, donde el T-1000 se presentó como otras personas y, entre otras cosas, llamó a John Conor en nombre de su madre adoptiva.

Ahora ni siquiera hablo de otro abuso que permitirá la recolección de pruebas falsas. En este contexto, toda la diversión del juguete se vuelve demasiado dudosa.

¿Cómo detectar Deepfake?

El problema ni siquiera es que tales sistemas deban prohibirse, sino que esto ya no es posible. Ya están ahí, y el desarrollo de tecnologías, incluida la lectura de rostros, ha propiciado su aparición y la difusión del código abierto. Incluso si imaginamos que el sistema en su forma actual dejará de existir, debemos entender que se creará de nuevo. Una vez más, enseñarán a las redes neuronales a trabajar entre sí y eso es todo.

Hasta ahora, no todo es tan aterrador, y literalmente puedes identificar una falsificación a simple vista. La imagen es similar, pero bastante tosca. Además, a veces tiene algunos problemas de mezcla, especialmente alrededor de los bordes de la cara. Pero nada se detiene y no es nada difícil desarrollarlo aún más. El mismo Hao Li está seguro de que esto no llevará más de unos meses, y para crear "máscaras" que ni siquiera una computadora puede distinguir, tomará varios años más. Después de eso, no habrá vuelta atrás.

Por un lado, el algoritmo que ya están creando YouTube y Facebook puede protegerse contra esto. Por cierto, este último incluso abrió un concurso para el desarrollo de tecnología de reconocimiento: Deepfake Detection Challenge ("La tarea de detectar deepfakes"). El fondo de premios de esta competencia es de $ 10 millones. La competición ya está en marcha y finalizará en marzo de 2020. Aún puedes tener tiempo para participar.

Reemplazar una cara en un video ya no es un problema
Reemplazar una cara en un video ya no es un problema

Reemplazar una cara en un video ya no es un problema.

Quizás esta generosidad se deba a un video falso con el propio Mark Zuckerberg. Si estas dos cosas están relacionadas, la aparición de tal competencia no es sorprendente.

Si la cara reemplazada coincide completamente con la original, la contrafuerza representada por una red neuronal especial será impotente. En este caso, tendrá que detectar diferencias mínimas en las expresiones faciales, los movimientos y la forma de hablar. En el caso de los famosos, tal problema se resolverá a nivel del servicio de video, ya que el mismo YouTube sabe cómo se mueve el Donald Trump convencional. Cuando se trata de una persona menos conocida, se vuelve más complicado. Aunque, esto también se puede probar colocándolo frente a la cámara y manteniendo una conversación informal mientras la red neuronal analiza sus movimientos. Resultará algo así como estudiar una huella dactilar, pero, como podemos ver, esto volverá a generar dificultades innecesarias.

También se puede eludir la instalación de sistemas de autenticación de video en las cámaras. Puede hacer que la cámara marque el video capturado y dejar en claro que no fue filmado a través de una aplicación separada ni procesado en un programa especial. Pero, ¿qué pasa con los videos que se acaban de procesar? Por ejemplo, una entrevista editada. Como resultado, obtendremos un video en el que la clave original ya no estará.

Algunos memes al final
Algunos memes al final

Algunos memes al final.

¿Podemos decir que ahora hemos esbozado uno de los escenarios de un futuro oscuro? En general, sí. Si las tecnologías que se crearon para lograr buenos objetivos se salen de control, se pueden beber con dolor. En realidad, existen muchas opciones para tecnologías tan peligrosas, pero la mayoría de ellas están protegidas. Por ejemplo, fusión nuclear. Aquí estamos tratando con un código que cualquiera puede obtener.

Escriba en los comentarios cómo ve la protección contra la falsificación, considerando que el sistema de enmascaramiento pudo hacer que las máscaras fueran completamente idénticas a las caras originales. Y debido a que están en video, ni siquiera se les puede aplicar reconocimiento de profundidad y volumen. Además, supongamos que cualquier código y clave incrustados en la imagen pueden ser pirateados. Como dicen, sería para qué. Ahora podemos discutir, toda la introducción está ahí.

Artem Sutyagin

Recomendado: