Sabes De Inmediato Que Esto Es Porno. ¿Entenderá La Computadora? - Vista Alternativa

Tabla de contenido:

Sabes De Inmediato Que Esto Es Porno. ¿Entenderá La Computadora? - Vista Alternativa
Sabes De Inmediato Que Esto Es Porno. ¿Entenderá La Computadora? - Vista Alternativa

Vídeo: Sabes De Inmediato Que Esto Es Porno. ¿Entenderá La Computadora? - Vista Alternativa

Vídeo: Sabes De Inmediato Que Esto Es Porno. ¿Entenderá La Computadora? - Vista Alternativa
Vídeo: Esto Es Porno 2024, Mayo
Anonim

Tumblr anunció a principios del mes pasado que prohibiría la pornografía. Cuando la nueva política de contenido entró en vigor, unas dos semanas después, el 17 de diciembre, se hizo evidente que habría problemas. Después de implementar un sistema de inteligencia artificial que se suponía prohibiría toda la pornografía en el sitio, marcó por error publicaciones inocentes en 455.4 millones de blogs en el sitio entre 168.2 mil millones de publicaciones: jarrones, brujas, peces y todo ese jazz.

Pornografía para inteligencia artificial

Si bien no está claro qué filtro automático utilizó Tumblr o creó el suyo propio (la compañía no respondió a las consultas sobre el tema), está claro que la red social está atrapada entre su propia política y tecnología. Por ejemplo, la postura inconsistente del sitio sobre "mujeres que muestran pezones" y desnudez artística, por ejemplo, ha llevado a decisiones contextuales que demuestran que incluso Tumblr no sabe qué prohibir en su plataforma. ¿Cómo puede una empresa frecuente determinar qué considera obsceno?

norte

Primero, es difícil bloquear el contenido de riesgo porque es difícil definir qué es en primer lugar. La definición de obscenidad es una trampa para osos que tiene más de cien años, y en 1896, los Estados Unidos aprobaron por primera vez leyes que regulan la obscenidad. En 1964, en Jacobellis v. Ohio, sobre si Ohio podía prohibir la proyección de una película de Louis Malle, la Corte Suprema emitió lo que probablemente sea la definición más famosa de pornografía hardcore en la actualidad: según tengo entendido, se incluirá en la descripción literal; y es posible que nunca pueda hacerlo inteligible”, dijo el juez Potter Stewart. "Pero sé lo que es cuando lo veo, y la película asociada con este caso no".

Los algoritmos de aprendizaje automático tienen el mismo problema. Este es exactamente el problema que Brian Delorge, CEO de Picnix, una empresa que vende tecnología especializada en inteligencia artificial, está tratando de resolver. Uno de sus productos, Iris, es una aplicación del lado del cliente para detectar pornografía para "ayudar a las personas", como dice Delorge, "que no quieren pornografía en sus vidas". Señala que el problema particular de la pornografía es que puede ser cualquier cosa, un montón de cosas diferentes, y las imágenes que no son pornográficas pueden tener elementos similares. La imagen de la fiesta en la playa puede estar bloqueada no porque tenga más piel que la foto de la oficina, sino porque está en el borde. “Por eso es muy difícil entrenar un algoritmo de reconocimiento de imágenes para que haga todo a la vez”, dice DeLorge."Cuando la definición se vuelve difícil para los humanos, la computadora también tiene dificultades". Si la gente no puede ponerse de acuerdo sobre qué es la pornografía y qué no, ¿puede una computadora siquiera esperar saber la diferencia?

Para enseñarle a una IA a detectar pornografía, lo primero que debes hacer es alimentarla con pornografía. Mucha pornografía. ¿Dónde puedo conseguirlo? Bueno, lo primero que hace la gente es descargar un montón de videos de Pornhub, XVideos, dice Dan Shapiro, cofundador de Lemay.ai, una startup que crea filtros de IA para sus clientes. "Esta es una de esas áreas grises de la naturaleza legal; por ejemplo, si aprendes del contenido de otras personas, ¿te pertenece?"

Después de que los programadores descargan toneladas de pornografía, cortan imágenes no pornográficas del video para asegurarse de que las imágenes utilizadas no bloqueen a los repartidores de pizzas. Las plataformas pagan a personas, principalmente fuera de los EE. UU., Para etiquetar dicho contenido; el trabajo es aburrido y mal pagado, como ingresar a un captcha. Simplemente se sientan y notan: esto es porno, esto es esto. Hay que filtrar un poco, porque todo el porno sale con una etiqueta. Aprender es mejor si usa no solo fotografías, sino muestras de datos grandes.

Video promocional:

“Muchas veces, no solo tienes que filtrar la pornografía, sino el material que lo acompaña”, dice Shapiro. "Como perfiles falsos con la foto y el teléfono de una chica". Se refiere a las trabajadoras sexuales que buscan clientes, pero podría ser cualquier cosa que no sea del todo legal. "Esto no es pornografía, pero este es el tipo de cosas que no quieres ver en tu plataforma, ¿verdad?" Un buen moderador automatizado aprende de millones, si no decenas de millones, de contenido de muestra, lo que puede ahorrarle toneladas de horas de trabajo.

“Puede comparar eso con la diferencia entre un niño y un adulto”, dice Matt Zeiler, CEO y fundador de Clarifai, una startup de visión por computadora que realiza este tipo de filtrado de imágenes para clientes corporativos. “Te lo puedo asegurar, hace un par de meses tuvimos un bebé. No saben nada del mundo, todo es nuevo para ellos ". Tienes que mostrarle al niño (el algoritmo) muchas cosas para que entienda algo. “Millones y millones de ejemplos. Pero como adultos, cuando hemos creado tanto contexto sobre el mundo y entendido cómo funciona, podemos aprender algo nuevo con solo un par de ejemplos ". (Sí, enseñarle a una IA a filtrar contenido para adultos es como mostrarle a un niño mucha pornografía). Empresas como Clarifai están creciendo rápidamente en la actualidad. Tienen una buena base de datos del mundo, pueden distinguir perros de gatos, vestidos de desnudos. La compañía de Zeiler usa sus modelos para entrenar nuevos algoritmos para sus clientes; dado que el modelo original procesaba una gran cantidad de datos, las versiones personalizadas solo requerirían nuevos conjuntos de datos para funcionar.

norte

Sin embargo, es difícil para el algoritmo hacerlo bien. Funciona bien con contenido que obviamente es pornográfico; pero un clasificador podría marcar incorrectamente un anuncio de ropa interior como prohibido porque la imagen tiene más cuero que, digamos, una oficina. (Con bikinis y ropa interior, según Zeiler, es muy difícil). Esto significa que los especialistas en marketing deben centrarse en estos casos extremos en su trabajo, dando prioridad a los modelos difíciles de clasificar.

¿Cuál es la parte más difícil?

"Porno animado", dice Zeiler. "La primera versión de nuestro detector de desnudez no usaba pornografía de dibujos animados para la educación". Muchas veces la IA se equivocó porque no reconoció el hentai. “Después de trabajar en esto para el cliente, inyectamos muchos de sus datos en el modelo y mejoramos significativamente la precisión del filtro de dibujos animados mientras manteníamos la precisión de las fotografías reales”, dice Zeiler.

La tecnología que se ha enseñado a detectar pornografía también se puede utilizar en otras cosas. Las tecnologías detrás de este sistema son notablemente flexibles. Esto es más que tetas de anime. Jigsaw from Alphabet, por ejemplo, se usa ampliamente como moderador automático de comentarios en un periódico. Este software funciona de manera similar a los clasificadores de imágenes, excepto que clasifica por toxicidad en lugar de desnudez. (La toxicidad en los comentarios textuales es tan difícil de determinar como la pornografía en las imágenes). Facebook utiliza este tipo de filtrado automático para detectar mensajes suicidas y contenido relacionado con el terrorismo, y ha intentado utilizar esta tecnología para detectar noticias falsas en su plataforma masiva.

Todo esto todavía depende de la supervisión humana; somos mejores para manejar la ambigüedad y el contexto ambiguo. Zeiler dice que no cree que su producto le haya quitado el trabajo a nadie. Resuelve el problema del escalado de Internet. Los humanos seguirán entrenando a la IA clasificando y etiquetando el contenido para que la IA pueda distinguirlo.

Este es el futuro de la moderación: soluciones personalizadas llave en mano que se brindan a empresas que hacen todo su negocio enseñando más y más datos a clasificadores avanzados. Al igual que Stripe y Square ofrecen soluciones de pago listas para usar para empresas que no quieren procesarlas por sí mismas, las nuevas empresas como Clarifai, Picnix y Lemay.ai harán la moderación en línea.

Dan Shapiro de Lemay.ai tiene esperanzas. “Como con cualquier tecnología, todavía está en proceso de ser inventada. Así que no creo que cedamos si fallamos ". Pero, ¿podrá la IA funcionar de forma autónoma sin supervisión humana? Poco claro. “No hay ningún hombrecito en una caja de rapé que filtre cada disparo”, dice. "Es necesario obtener datos de todas partes para entrenar el algoritmo".

Zeiler, por otro lado, cree que algún día la inteligencia artificial moderará todo por sí sola. Al final, el número de intervenciones humanas se reducirá a cero o con poco esfuerzo. Gradualmente, los esfuerzos humanos se convertirán en algo que la IA no puede hacer ahora, como el razonamiento de alto nivel, la autoconciencia, todo lo que tenemos los humanos.

Reconocer la pornografía es parte de eso. La identificación es una tarea relativamente trivial para los humanos, pero es mucho más difícil entrenar un algoritmo para reconocer matices. Determinar el umbral cuando un filtro marca una imagen como pornográfica o no pornográfica también es una tarea difícil, en parte matemática.

La inteligencia artificial es un espejo imperfecto de cómo vemos el mundo, al igual que la pornografía es un reflejo de lo que sucede entre las personas cuando están solas. Hay algo de verdad en ello, pero no hay una imagen completa.

Ilya Khel

Recomendado: