Humanidad Peligrosa: ¿por Qué Necesitamos Inteligencia Artificial Inteligente? - Vista Alternativa

Tabla de contenido:

Humanidad Peligrosa: ¿por Qué Necesitamos Inteligencia Artificial Inteligente? - Vista Alternativa
Humanidad Peligrosa: ¿por Qué Necesitamos Inteligencia Artificial Inteligente? - Vista Alternativa

Vídeo: Humanidad Peligrosa: ¿por Qué Necesitamos Inteligencia Artificial Inteligente? - Vista Alternativa

Vídeo: Humanidad Peligrosa: ¿por Qué Necesitamos Inteligencia Artificial Inteligente? - Vista Alternativa
Vídeo: Nick Bostrom, el filósofo que advierte de los riesgos de la superinteligencia artificial 2024, Mayo
Anonim

Cuando Norbert Wiener, el padre de la cibernética, escribió su libro Human Uses of Human Beings en 1950, los tubos de vacío seguían siendo los componentes básicos de la electrónica y, de hecho, solo había unas pocas computadoras en funcionamiento. Sin embargo, imaginó el futuro que vemos ahora con una precisión sin precedentes, confundiendo solo detalles menores.

Antes que cualquier otro filósofo de la inteligencia artificial, se dio cuenta de que la IA no solo imitará y reemplazará a los seres humanos en muchos tipos de actividad intelectual, sino que también cambiará a las personas en el proceso. “Somos sólo remolinos en un río de agua que fluye constantemente”, escribió. "No somos algo que solo vive, somos modelos que se perpetúan".

Por ejemplo, cuando surgen muchas oportunidades atractivas, estamos dispuestos a pagar y aceptar los pequeños costos de administrar una empresa para acceder a nuevas oportunidades. Y muy pronto nos volvemos dependientes de nuevas herramientas, perdemos la capacidad de existir sin ellas. Se requieren opciones.

Ésta es una historia muy antigua de la evolución, y conocemos bien muchos de sus capítulos. La mayoría de los mamíferos pueden sintetizar su propia vitamina C, pero los primates que comen frutas han perdido esta capacidad inherente. Los patrones que se repiten a sí mismos que llamamos humanos ahora dependen de la ropa, los alimentos procesados, las vitaminas, las jeringas, las tarjetas de crédito, los teléfonos inteligentes e Internet. Y mañana, si no hoy, de la inteligencia artificial.

norte

Wiener previó varios problemas con este estado de cosas que Alan Turing y otros primeros optimistas de la IA pasaron por alto en gran medida. La verdadera amenaza, dijo, era:

… que tales máquinas, aunque indefensas por derecho propio, pueden ser utilizadas por humanos o bloquear a los seres humanos para aumentar su control sobre el resto de la raza, o que los líderes políticos pueden intentar tomar el control de sus poblaciones utilizando métodos políticos en lugar de las propias máquinas, tan estrechos e indiferentes al hombre, como si fueran inventados mecánicamente.

Evidentemente, estos peligros son ahora muy relevantes.

En los medios, por ejemplo, las innovaciones en audio y video digital nos permiten pagar un pequeño precio (a los ojos de los audiófilos y cinéfilos) para alejarnos de los formatos analógicos y, a cambio, recibir una forma extremadamente simple, demasiado simple, de reproducir grabaciones sin casi restricciones.

Video promocional:

Image
Image

Pero hay un costo oculto enorme. El ministerio de la verdad de Orwell se ha convertido en una verdadera oportunidad. Las técnicas de IA para crear "registros" falsos virtualmente indistinguibles hacen que las herramientas que hemos usado para las investigaciones sean obsoletas durante los últimos 150 años.

Solo tenemos que abandonar la breve era de la evidencia fotográfica y regresar a ese viejo mundo donde la memoria y la confianza humanas eran el estándar de oro. O podemos desarrollar nuevos métodos de defensa y ataque en la batalla por la verdad. Uno de los ejemplos recientes más interesantes es el hecho de que es mucho más barato destruir una reputación que ganar y proteger la misma reputación. Wiener vio este fenómeno de manera muy amplia: "A largo plazo, no habrá diferencia entre armarse a sí mismo y armar al enemigo". La era de la información también se ha convertido en una era de desinformación.

¿Lo que podemos hacer? La clave está en la misma observación de Wiener de que "estas máquinas" son "indefensas". Creamos herramientas, no colegas, y la verdadera amenaza es que no vemos la diferencia.

La inteligencia artificial en su forma actual es un parásito de la inteligencia humana. Él toma posesión sin ceremonias de todo lo que los creadores humanos han creado y dibuja patrones, incluidos nuestros hábitos más secretos. Estas máquinas aún no tienen metas ni estrategias, no son capaces de autocrítica e innovaciones, solo estudian nuestras bases de datos, sin sus propios pensamientos y metas.

Son, como dice Wiener, indefensos, no en el sentido de que estén encadenados o inmovilizados, no, no son agentes en absoluto, no tienen la capacidad de “actuar por causas”, como diría Kant.

A largo plazo, la "IA fuerte", o inteligencia artificial general, es posible en principio, pero no deseable. La IA aún más limitada que es posible en la práctica hoy no será mala. Pero representa una amenaza, en parte porque puede confundirse con una poderosa IA.

¿Qué tan fuerte es la inteligencia artificial hoy?

La brecha entre los sistemas actuales y los sistemas de ciencia ficción que inundan la imaginación popular sigue siendo enorme, aunque muchas personas, tanto aficionados como profesionales, tienden a subestimarla. Echemos un vistazo a Watson de IBM, que bien puede ser respetable en la actualidad.

Esta supercomputadora es el resultado de un proceso de I + D (investigación y desarrollo) a gran escala que involucró a muchas personas e inteligencia de diseño durante muchos siglos, y utiliza miles de veces más energía que el cerebro humano. Su victoria en Jeopardy! fue un verdadero triunfo hecho posible por las limitaciones de las fórmulas de las reglas de Jeopardy!, pero incluso esas reglas tuvieron que ser revisadas para que él pudiera participar. Tuve que renunciar a un poco de versatilidad y agregar humanidad para hacer el espectáculo.

Watson es una mala empresa, a pesar de los anuncios engañosos de IBM que prometen la capacidad de conversación de la IA en ambos niveles, y convertir a Watson en un agente multifacético y creíble sería como convertir una calculadora en Watson. Watson puede ser un buen caso informático para un agente de este tipo, pero más bien un cerebelo o una amígdala en lugar de una mente; en el mejor de los casos, un subsistema de propósito especial que sirve como soporte, pero no como un sistema para planificar y formular metas basadas en la experiencia conversacional recibida.

¿Por qué querríamos crear un agente pensante y creativo de Watson? Quizás la brillante idea de Turing, la famosa prueba de Turing, nos atrajo a una trampa: nos obsesionamos con crear al menos la ilusión de una persona real sentada frente a una pantalla, sin pasar por el "valle siniestro".

El peligro es que desde que Turing presentó su tarea, que era principalmente una tarea para engañar a los jueces, los creadores de la IA han tratado de lograrlo utilizando divertidos muñecos humanoides, versiones "de dibujos animados" que fascinarán y desarmarán a los no iniciados. ELIZA de Joseph Weisenbaum, el primer chatbot, fue un excelente ejemplo de cómo crear tal ilusión, pero con un algoritmo extremadamente simple que podía convencer a las personas de que estaban teniendo conversaciones sinceras y sinceras con otras personas.

norte

Le preocupaba la facilidad con la que la gente está dispuesta a creer esto. Y si descubrimos algo de la prueba anual limitada de Turing del Premio Lebner, es que incluso las personas más inteligentes que no están familiarizadas con la programación de computadoras caen fácilmente en estos simples trucos.

La actitud de las personas en IA hacia tales técnicas varía de crítica a gratificante, y el consenso es que estos trucos no son muy profundos, pero pueden ser útiles. Un cambio de actitud que sería muy bienvenido sería una admisión sincera de que los androides pintados con muñecas son anuncios falsos que deben juzgarse, no alentarse.

¿Cómo se puede lograr esto? Una vez que entendemos que las personas comienzan a tomar decisiones de vida o muerte siguiendo los "consejos" de los sistemas de inteligencia artificial, cuyas operaciones internas son casi incomprensibles, veremos una buena razón para que aquellos que instan a las personas a confiar en tales sistemas comiencen a confiar en las normas de la moral y la ley.

Los sistemas de inteligencia artificial son herramientas muy poderosas. Tan poderoso que incluso los expertos tienen una buena razón para no confiar en su propio juicio cuando hay "juicios" representados por estas herramientas. Pero si estos usuarios de las herramientas se van a beneficiar, económicamente o de otro modo, de la popularización de estas herramientas, deben asegurarse de saber cómo hacerlo con total responsabilidad, máximo control y justificación.

Conceder licencias y aprobar a los operadores de dichos sistemas, al igual que otorgamos licencias a los farmacéuticos, operadores de grúas y otros profesionales cuyos errores y juicios erróneos pueden tener consecuencias nefastas, tal vez, con el apoyo de las compañías de seguros y otras organizaciones, obligue a los creadores de sistemas de inteligencia artificial a recorrer un largo camino. buscando las debilidades y carencias de sus productos, y también formar a quienes van a trabajar con ellos.

Uno puede imaginar una especie de prueba de Turing inversa en la que el juez será el sujeto de la evaluación; hasta que encuentre debilidad, violación de límites, brechas en el sistema, no recibirá una licencia. Dicho juez requerirá una formación seria para obtener una certificación. El impulso de atribuir a un objeto la capacidad humana de pensar, como solemos hacer cuando nos encontramos con un agente inteligente, es muy, muy fuerte.

De hecho, la capacidad de resistir el impulso de ver algo humanizado es algo extraño. Muchas personas encontrarían dudoso cultivar un talento así, porque incluso los usuarios más pragmáticos del sistema son ocasionalmente "amigables" con sus herramientas.

Independientemente de cuán cuidadosamente los diseñadores de IA elijan eliminar los falsos matices "humanos" en sus productos, deberíamos esperar el florecimiento de etiquetas, soluciones y distorsiones tolerables de la "comprensión" real de ambos sistemas y sus operadores. De la misma forma que en la televisión se anuncian medicamentos con una larga lista de efectos secundarios, o el alcohol se anuncia con abundancia de letra pequeña con todas las advertencias que exige la ley, los desarrolladores de inteligencia artificial cumplirán con la ley, pero serán sofisticados en las advertencias.

¿Por qué necesitamos inteligencia artificial?

No necesitamos agentes conscientes artificiales. Existe una multitud de agentes naturales conscientes que son suficientes para realizar cualquier tarea de profesionales y privilegiados. Necesitamos herramientas inteligentes. Las herramientas no tienen derechos y no deben tener sentimientos que puedan ser heridos o mal utilizados.

Una razón para no crear agentes artificiales conscientes es que, aunque pueden volverse autónomos (y en principio pueden ser tan autónomos, auto-mejorantes o auto-creadores como cualquier persona), no deberían - sin un permiso especial - compartir con nuestros agentes naturales conscientes, nuestra vulnerabilidad o nuestra mortalidad.

Daniel Dennett, profesor de filosofía en la Universidad de Tufts, una vez desafió a los estudiantes en un taller sobre agentes artificiales y autonomía: Dame las especificaciones de un robot que puede firmar un contrato contigo, no un sustituto propiedad de otra persona, sino por sí mismo. No se trata de entender las razones o de manipular la pluma sobre el papel, sino de la propiedad y merecida propiedad de personería jurídica y responsabilidad moral. Los niños pequeños no pueden firmar estos contratos, al igual que las personas discapacitadas, cuya condición jurídica los obliga a estar bajo tutela e impone la responsabilidad a los tutores.

El problema con los robots que podrían querer alcanzar un estatus tan elevado es que, como Superman, son demasiado vulnerables para hacer tales afirmaciones. Si se niegan, ¿qué pasará? ¿Cuál será el castigo por romper una promesa? ¿Serán encerrados en una jaula o desarmados? Una prisión para la inteligencia artificial no será un inconveniente a menos que primero carguemos la sed de libertad que la IA misma no puede ignorar o desactivar. Desmontar la IA no matará la información que está almacenada en su disco y en el software.

La facilidad de grabar y transmitir datos digitalmente, un avance que permitió que el software y los datos lograran, de hecho, la inmortalidad, hace que los robots sean invulnerables. Si no parece obvio, piense en cómo cambiaría la moralidad de las personas si pudiéramos respaldar a las personas cada semana. Saltar de un puente sin una banda elástica el domingo después de una copia de seguridad del viernes puede ser una decisión apresurada, luego puedes ver las imágenes de tu muerte prematura más tarde.

Por eso no estamos creando agentes humanoides conscientes, nos gustaría crear, sino un tipo de criaturas completamente nuevo, unos oráculos, inconscientes, sin miedo a la muerte, sin distracciones por el amor y el odio, sin personalidad: espejos de la verdad que casi con certeza serán infectados por humanos. mentiras.

El uso humano de los seres humanos cambiará pronto, una vez más, para siempre, pero si asumimos la responsabilidad de nuestra trayectoria evolutiva, podemos evitar peligros innecesarios.

Ilya Khel

Recomendado: