Todo Nuestro Conocimiento Sobre La Inteligencia Artificial Es Solo Una Ilusión - Vista Alternativa

Tabla de contenido:

Todo Nuestro Conocimiento Sobre La Inteligencia Artificial Es Solo Una Ilusión - Vista Alternativa
Todo Nuestro Conocimiento Sobre La Inteligencia Artificial Es Solo Una Ilusión - Vista Alternativa

Vídeo: Todo Nuestro Conocimiento Sobre La Inteligencia Artificial Es Solo Una Ilusión - Vista Alternativa

Vídeo: Todo Nuestro Conocimiento Sobre La Inteligencia Artificial Es Solo Una Ilusión - Vista Alternativa
Vídeo: La Inteligencia Artificial del futuro y la simbiosis digital | Nicholas Ávedon | TEDxGranVíaSalon 2024, Mayo
Anonim

Quizás una de las pruebas más difíciles de la inteligencia de las máquinas fue la partida de ajedrez que tuvo lugar hace casi 20 años entre la computadora Deep Blue y el campeón mundial de ajedrez Garry Kasparov. El coche ganó. De momento ha finalizado la serie de juegos en el juego de lógica de go, donde compitieron el AI AlphaGo de DeepMind (propietario de Google) y el legendario campeón de go de China Li Si Dol. En cuatro de los cinco juegos, la máquina ganó, mostrando su superioridad sobre el humano en este juego. El juego increíblemente complejo entre humanos e IA muestra que la inteligencia de las máquinas se ha desarrollado con mucha fuerza durante este tiempo. Parece que el fatídico día, cuando las máquinas realmente se vuelven más inteligentes que los humanos, está ahora más cerca que nunca. Sin embargo, parece que muchos no comprenden nada, sino que incluso se equivocan sobre las consecuencias que nos pueden aguardar en el futuro.

Subestimamos algunas consecuencias muy graves e incluso peligrosas del desarrollo de la inteligencia artificial. El año pasado, el cofundador de SpaceX, Elon Musk, emitió un comunicado en el que expresó su preocupación por la posible esclavización del mundo por la inteligencia artificial, lo que a su vez provocó una gran cantidad de comentarios tanto de partidarios como de opositores a esta opinión.

Image
Image

Para un futuro tan fundamentalmente revolucionario que nos aguarda, es sorprendente que existan tantos desacuerdos hoy sobre si sucederá o no y lo que eventualmente resultará ser. Es especialmente extraño negar los increíbles beneficios que podemos obtener al crear una IA verdaderamente inteligente, por supuesto, teniendo en cuenta todos los posibles riesgos. Todas estas preguntas son increíblemente difíciles de obtener las respuestas que necesita, ya que la IA, a diferencia de cualquier otro invento de la humanidad, realmente puede "rejuvenecer" a esta humanidad o destruirla por completo.

norte

Ahora es difícil entender qué creer y qué esperar. Sin embargo, gracias a los pioneros de la informática, los neurocientíficos y los teóricos del desarrollo de la IA, poco a poco está empezando a aclararse una imagen clara. A continuación se muestra una lista de los conceptos erróneos y los mitos más comunes con respecto a la inteligencia artificial.

Nunca crearemos IA con inteligencia humanoide

La realidad, a su vez, sugiere que ya tenemos computadoras que igualan e incluso superan las capacidades humanas en algunas áreas. Tomemos, por ejemplo, el ajedrez o el mismo juego de go, la negociación en bolsas de valores o el papel de un interlocutor virtual. Las computadoras y los algoritmos que las controlan solo mejorarán con el tiempo, y es solo cuestión de tiempo hasta que se igualen a las capacidades humanas.

Video promocional:

Image
Image

El investigador de la Universidad de Nueva York, Gary Marcus, dijo una vez que "prácticamente todos" los que trabajan con IA creen que las máquinas algún día nos superarán:

"La única disputa entre partidarios y escépticos es el momento de este evento".

Futuristas como Ray Kurzweil creen que esto podría suceder en las próximas décadas, mientras que otros dicen que llevará varios siglos.

Los escépticos de la IA no son convincentes en su evidencia de que la creación de la inteligencia artificial como algo único y muy similar a un cerebro humano vivo real en términos tecnológicos está en algún lugar más allá de la realidad. Nuestro cerebro también es una máquina. Máquina biológica. Existe en el mismo mundo y obedece a las mismas leyes de la física que todo lo demás. Y con el tiempo, descubriremos por completo todo el principio de su trabajo.

La IA tendrá conciencia

Existe un consenso general de que la inteligencia artificial será consciente. Es decir, la IA pensará de la misma manera que lo hace un ser humano. Además, algunos críticos, por ejemplo, el cofundador de Microsoft Paul Allen, creen que debido a una base teórica incompleta que describe los mecanismos y principios de la autoconciencia, aún no hemos creado ni siquiera la inteligencia artificial general, es decir, una inteligencia capaz de realizar cualquier tarea intelectual con la que una persona puede manejar. Sin embargo, según Murray Shanahan, profesor asistente en el Departamento de Robótica Cognitiva del Imperial College de Londres, no deberíamos equiparar los dos.

Image
Image

“La autoconciencia es definitivamente un tema de investigación muy interesante e importante, pero no creo que la autoconciencia deba ser un atributo obligatorio de la inteligencia artificial similar a la humana”, dice Shanahan.

"En general, usamos el término 'autoconciencia' solo para indicar varios atributos psicológicos y cognitivos que generalmente están relacionados en una persona".

Es posible imaginar un automóvil muy inteligente que carece de uno o más de estos atributos. Algún día seremos capaces de construir una IA realmente increíblemente inteligente, pero al mismo tiempo desprovista de la capacidad de autoconciencia, así como de una comprensión subjetiva y consciente del mundo que nos rodea. Shanahan señala que la unificación de la inteligencia y la autoconciencia dentro de la máquina aún será posible, pero no debemos pasar por alto el hecho de que estos son dos conceptos completamente separados entre sí.

Y aunque una de las variantes de la "Prueba de Turing", en la que una máquina mostraba que no es diferente de una persona, fue superada con éxito, esto no significa en absoluto que esta máquina tenga conciencia. Desde nuestro punto de vista (humano), la inteligencia artificial avanzada puede parecernos algo que posee autoconciencia, pero la máquina en sí no será más consciente de sí misma que la misma piedra o calculadora.

No deberíamos tenerle miedo a la IA

En enero de este año, el fundador de Facebook, Mark Zuckerberg, compartió sus pensamientos sobre cómo no debemos temerle a la IA y agregó que esta tecnología puede traer enormes beneficios en todo el mundo. La verdad es que solo tiene razón en parte. De hecho, podremos obtener beneficios asombrosos con la IA a nuestra disposición (desde vehículos autónomos hasta nuevos descubrimientos en medicina), pero nadie puede garantizar que cada aplicación de la IA sea beneficiosa.

Un sistema altamente inteligente, quizás, sabrá todo lo necesario para ciertas tareas (por ejemplo, resolver una situación financiera global compleja o piratear los sistemas informáticos del enemigo), pero fuera de las tareas altamente especializadas, el potencial de la IA aún es completamente confuso y, por lo tanto, potencialmente peligroso. Por ejemplo, el sistema de DeepMind está especializado en el juego del go, pero no tiene la capacidad (ni la razón) para explorar áreas fuera de este ámbito.

Virus informático Flame, cuya tarea era rastrear los países de Oriente Medio

Image
Image

Muchos de estos sistemas pueden presentar graves riesgos de seguridad. Un buen ejemplo es el poderoso y muy astuto virus Stuxnet, un gusano militarizado creado por el ejército estadounidense e israelí para infiltrarse y atacar las centrales nucleares iraníes. Solo que este programa malicioso de alguna manera (accidental o deliberadamente) también infectó una de las centrales nucleares rusas.

Otro ejemplo es el virus Flame, desarrollado para el ciberespionaje dirigido en Oriente Medio. Es fácil imaginar cómo las "versiones futuras" de los virus Stuxnet y Flame irán de forma independiente más allá de sus tareas asignadas y podrán infectar casi toda la infraestructura de un país. Y lo harán de forma muy silenciosa e imperceptible.

La superinteligencia artificial será demasiado inteligente para cometer errores

Richard Luzmore, matemático, investigador de inteligencia artificial y fundador de la empresa de robótica Surfing Samurai Robots, cree que la mayoría de los escenarios apocalípticos de la IA parecen improbables porque todos se basan ampliamente en lo que la IA dirá algún día: "Entiendo esa destrucción personas es un error en el código de mi programa, pero todavía tengo que seguir la tarea ".

Image
Image

Luzmore cree que si la IA se comporta de acuerdo con este escenario, se enfrentará a contradicciones lógicas que cuestionarán toda su base de conocimientos acumulada y eventualmente conducirán a su propia conciencia de su estupidez e inutilidad.

El investigador también cree que se equivocan aquellas personas que dicen que "la IA solo hará lo que está incluido en su programa", al igual que aquellas personas que alguna vez dijeron las mismas palabras, pero hacia las computadoras, declarando que los sistemas informáticos nunca tendrán universalidad.

Peter McIntyre y Stuart Armstrong, ambos del Instituto para el Futuro de la Humanidad de la Universidad de Oxford, a su vez, no están de acuerdo con esta opinión, argumentando que el comportamiento de la IA será obligatorio y en gran parte justificado por el código del programa. Los científicos no creen que la IA nunca cometa errores o, por el contrario, sea demasiado estúpida para entender exactamente lo que queremos de ellos.

"Por definición, la superinteligencia artificial (ISI) es un agente cuya inteligencia superará muchas veces a las mejores mentes de la humanidad en casi todas las áreas", dice McIntyre.

"Definitivamente entenderá lo que queremos de él".

McIntyre y Armstrong creen que la IA realizará solo aquellas tareas para las que fue programada, pero si de alguna manera se desarrolla por sí sola, lo más probable es que intente averiguar en qué medida sus acciones diferirán de las tareas humanas e inherentes a ella. leyes.

McIntyre compara la situación futura de los humanos con la que enfrentan los ratones. Los ratones tienen un instinto poderoso para encontrar comida y refugio, pero sus objetivos a menudo entran en conflicto con una persona que no quiere verlos en su hogar.

“Al igual que nuestro conocimiento de los ratones y sus deseos, el sistema de superinteligencia también puede saber todo sobre nosotros y saber lo que queremos, pero al mismo tiempo será completamente indiferente a nuestros deseos”.

Una solución simple eliminará el problema del control de la IA

Como se muestra en la película "From the Machine", será muy difícil controlar la IA, que será mucho más inteligente que nosotros.

Image
Image

Si asumimos que algún día crearemos una superinteligencia que será más inteligente que los humanos, entonces tendremos que enfrentar un problema serio, el problema del control. Los futuristas y los teóricos de la inteligencia artificial aún no son capaces de explicar cómo podemos controlar y contener a ISI después de su creación. Tampoco está claro cómo podemos asegurarnos de que sea amigable con la gente. Más recientemente, investigadores del Instituto de Tecnología de Georgia (EE. UU.) Sugirieron ingenuamente que la IA puede aprender y absorber los valores humanos y el conocimiento de las normas sociales simplemente leyendo cuentos de hadas simples. Sí, sí, cuentos e historias infantiles simples que los padres nos leen en la infancia. Pero en realidad todo resultará mucho más complicado que todo esto.

norte

"Se han propuesto muchas de las llamadas 'soluciones' para el control de la inteligencia artificial", dice Stuart Armstrong.

Un ejemplo de tales soluciones puede ser programar el ISI de tal manera que intente constantemente complacer o complacer a una persona. Una alternativa sería integrar conceptos como amor o respeto en su código fuente. Y para evitar tal desarrollo del escenario, según el cual la IA puede simplificar todos estos conceptos y percibir este mundo a través del prisma de estos conceptos súper simplificados, dividiéndolo solo en blanco y negro, se puede programar para comprender y aceptar la diversidad intelectual, cultural y social.

Las tres leyes de la robótica de Isaac Asimov encajan perfectamente en el concepto de ficción, pero en realidad necesitamos algo más completo para abordar el tema del control.

Image
Image

Desafortunadamente, estas soluciones son demasiado simples y parecen un intento de encajar toda la complejidad de los gustos y disgustos humanos dentro de una definición o concepto general, o un intento de encajar toda la complejidad de los valores humanos en una palabra, frase o idea. Intente, por ejemplo, encajar en este marco una definición coherente y adecuada de algo como "respeto".

“Por supuesto, uno no debería pensar que opciones tan simples son completamente inútiles. Muchos de ellos ofrecen una gran razón para pensar y tal vez estimulan la búsqueda de una solución al problema fundamental”, dice Armstrong.

"Pero no podemos confiar únicamente en ellos sin un trabajo más complejo, sin una investigación clara y buscando las consecuencias de utilizar determinadas soluciones".

Seremos destruidos por superinteligencia artificial

Nadie puede garantizar que la IA nos destruirá algún día, al igual que nadie puede decir con certeza que no podremos encontrar formas de controlar y usar la IA para nuestros propios fines. Como dijo una vez el experto estadounidense en inteligencia artificial Eliezer Yudkowski: "La IA no puede amarte ni odiarte, pero estás hecho de átomos que podría usar para otra cosa".

El filósofo de Oxford Nick Bostrom, en su libro "Superinteligencia: caminos, peligros y estrategias", escribe que la superinteligencia real algún día podrá realizarse, lo que la hará más peligrosa que cualquier invención jamás creada por el hombre. Pensadores modernos prominentes como Elon Musk, Bill Gates y Stephen Hawking (muchos de los cuales creen que "la IA podría ser el peor error en la historia de la humanidad") tienen más probabilidades de estar de acuerdo con esta opinión y ya están dando la alarma.

Peter McIntyer cree que para la mayoría de las tareas que la superinteligencia puede establecer por sí misma, las personas parecerán un vínculo adicional.

“Algún día la IA podrá concluir, y debe tenerse en cuenta que lo calculará de manera muy correcta, que la gente no quiere usarla para maximizar la rentabilidad de una empresa en particular a cualquier costo, independientemente de las consecuencias para los consumidores, el medio ambiente y los seres vivos. Por lo tanto, tendrá un gran incentivo para desarrollar un plan y una estrategia, gracias al cual una persona no podrá interferir con la solución de la tarea, cambiándola o incluso apagando la IA.

Según MacIntyer, si las tareas de la IA son directamente opuestas a las nuestras, entonces le dará grandes razones para no dejar que lo detengamos. Y si tenemos en cuenta que el nivel de su inteligencia será mucho más alto que el nuestro, realmente será muy, muy difícil detenerlo, si es que es posible.

Sin embargo, es imposible decir algo con certeza en este momento, y nadie podrá decir con qué forma de IA tendremos que lidiar y cómo puede amenazar a la humanidad. Como dijo una vez Elon Musk, la IA podría usarse para controlar, rastrear y controlar otras IA. Y tal vez se introduzcan en él los valores humanos y la simpatía inicial hacia las personas.

La superinteligencia artificial será amigable

El filósofo Immanuel Kant creía que la inteligencia está fuertemente interconectada con los principios de la moral. En su obra Singularity: A Philosophical Analysis, el neurocientífico David Chalmers tomó como base la famosa idea de Kant y trató de aplicarla para analizar la formación de superinteligencia artificial.

Image
Image

“Si los principios descritos en este documento son correctos, entonces, junto con el desarrollo agudo de la IA, uno debería esperar un desarrollo agudo de los principios morales. Un mayor desarrollo conducirá al surgimiento de sistemas ISI, que tendrán supermoral y superinteligencia. Por lo tanto, deberíamos esperar sólo cualidades benévolas de su parte.

La verdad es que la idea de una IA avanzada con principios de moralidad y virtud excepcional no se sostiene. Como señala Armstrong, el mundo está lleno de criminales de guerra inteligentes. El intelecto y la moralidad en una persona, por ejemplo, no están conectados de ninguna manera, por lo tanto, el científico cuestiona que tal relación existirá en otras formas de inteligencia.

“Las personas inteligentes que se comportan de manera inmoral tienden a crear muchos más problemas y dolor que sus contrapartes menos inteligentes. La inteligencia les da la capacidad de ser más sofisticados en sus acciones malas que en las buenas”, dice Armstrong.

McIntyre explica que la capacidad de un agente para realizar una tarea determinada no tiene nada que ver con cuál es esa tarea.

“Tendremos mucha suerte si nuestras IA se vuelven más morales, no solo inteligentes. Confiar en la suerte es, por supuesto, lo último en este asunto, pero tal vez sea la suerte la que determine nuestra posición en el futuro”, dice el investigador.

Los riesgos asociados con la IA y la robótica son los mismos

Este es un concepto erróneo particularmente común utilizado en los medios de comunicación, así como en los éxitos de taquilla de Hollywood como Terminator.

Image
Image

Si una superinteligencia artificial como Skynet, por ejemplo, realmente quiere destruir a toda la humanidad, entonces es poco probable que use androides paramilitares con ametralladoras en cada mano. Su pensamiento astuto y eficiente le permitirá comprender que sería mucho más conveniente utilizar, digamos, un nuevo tipo de plaga biológica o, por ejemplo, algún desastre nanotecnológico. O tal vez simplemente tomará y destruirá la atmósfera de nuestro planeta. La IA es potencialmente peligrosa no solo porque su desarrollo está estrechamente relacionado con el desarrollo de la robótica. La razón de su peligro potencial radica en los métodos y medios a través de los cuales puede declarar su presencia al mundo.

La IA que aparece en la ciencia ficción refleja nuestro futuro

Sin duda, durante muchos años, escritores y escritores de ciencia ficción han utilizado el entorno de la ciencia ficción como trampolín para especular sobre nuestro futuro real, pero la creación real de ISI y las consecuencias reales de esto aún están más allá del horizonte de nuestro conocimiento real. Además, una naturaleza tan artificial y claramente inhumana de la IA ni siquiera nos permite suponer con certeza cómo será realmente esta IA.

Image
Image

En la mayoría de las obras de ciencia ficción, la IA está lo más cerca posible de los humanos.

“Ante nosotros hay en realidad todo un espectro de los más diversos tipos de mente posibles. Incluso si tomamos solo la forma humana. Por ejemplo, su mente está lejos de ser idéntica a la mente de su vecino. Pero esta comparación es solo una gota en el mar de toda la posible diversidad de mentes que podría existir”, dice McIntyre.

La mayoría de las ficciones de ciencia ficción, por supuesto, se crean principalmente para contar una historia, en lugar de ser lo más científicamente convincentes posible. Si fuera todo lo contrario (la ciencia es más importante que la trama), entonces seguir estos trabajos no sería interesante.

“Imagínense lo aburridas que serían todas estas historias, donde la IA, sin autoconciencia, la capacidad de regocijarse, amar u odiar, destruye a todas las personas prácticamente sin ninguna resistencia para lograr su objetivo, que, por cierto, puede que tampoco sea muy interesante. para el lector o espectador”, comenta Armstrong.

La IA se llevará nuestros trabajos

La capacidad de la IA para automatizar los procesos que hacemos manualmente y su potencial para destruir a toda la humanidad no son lo mismo. Sin embargo, según Martin Ford, autor de Rise of the Robots: Technology and the Threat of a Jobless Future, estos conceptos a menudo se intentan comparar y combinar en un todo coherente. Por supuesto, es genial que intentemos anticipar las consecuencias de crear IA hasta ahora, pero solo si estos esfuerzos no nos distraen de los problemas que podemos enfrentar en un par de décadas si no hacemos nada. Y uno de los principales problemas de este tipo es la automatización masiva.

Image
Image

Pocos dirían que uno de los desafíos de la inteligencia artificial será encontrar una manera de automatizar muchos trabajos, desde trabajos en fábricas hasta algunos trabajos administrativos. Algunos expertos predicen que la mitad de todos los trabajos, al menos en EE. UU., Pueden automatizarse en un futuro próximo.

Pero esto no significa en absoluto que no podamos aceptar tales cambios. Es importante comprender que el deseo de liberarse del estrés físico y psicológico innecesario en el trabajo ha sido un sueño de nuestra especie humana durante mucho tiempo.

“En unas pocas décadas, la IA reemplazará a las personas en muchos trabajos. Y esto es realmente muy bueno. Por ejemplo, los automóviles autónomos reemplazarán a los camioneros, lo que a su vez no solo reducirá el costo de envío de bienes, sino que también reducirá el costo de los bienes en sí. Si trabaja como camionero, entonces, por supuesto, seguirá siendo el extremo, pero es más probable que todos los demás en este caso reciban un aumento en sus salarios. Y cuanto más se pueda ahorrar este dinero, más se podrá gastar en otros bienes y servicios en los que la gente participará en sus lugares de trabajo.

Lo más probable es que la inteligencia artificial busque nuevas formas de bienestar y alimente a las personas mientras hacen otras cosas. Los avances en el desarrollo de la IA estarán acompañados de éxitos en otras áreas. Especialmente en los sectores manufactureros. En el futuro, es probable que todo esto simplifique en gran medida en lugar de complicar la satisfacción de nuestras necesidades básicas.

Recomendado: