Inteligencia Artificial. Segunda Parte: ¿extinción O Inmortalidad? - Vista Alternativa

Tabla de contenido:

Inteligencia Artificial. Segunda Parte: ¿extinción O Inmortalidad? - Vista Alternativa
Inteligencia Artificial. Segunda Parte: ¿extinción O Inmortalidad? - Vista Alternativa

Vídeo: Inteligencia Artificial. Segunda Parte: ¿extinción O Inmortalidad? - Vista Alternativa

Vídeo: Inteligencia Artificial. Segunda Parte: ¿extinción O Inmortalidad? - Vista Alternativa
Vídeo: Inmortalidad, viabilidad energética e inteligencia artificial 2024, Septiembre
Anonim

Antes de ti está la segunda parte de un artículo de la serie "Espera, cómo todo esto puede ser real, por qué todavía no se habla en cada esquina". En la serie anterior, se supo que una explosión de inteligencia se está acercando gradualmente a la gente del planeta Tierra, está tratando de desarrollarse desde una inteligencia estrechamente enfocada a una inteligencia universal y, finalmente, a una superinteligencia artificial.

“Quizás estemos ante un problema extremadamente difícil, y no se sabe cuánto tiempo se asigna para su solución, pero el futuro de la humanidad puede depender de su solución”. - Nick Bostrom.

La primera parte del artículo comenzó de manera bastante inocente. Hablamos de la inteligencia artificial de enfoque estrecho (IA, que se especializa en resolver un problema específico, como determinar rutas o jugar al ajedrez), en nuestro mundo hay mucha. Luego analizaron por qué es tan difícil desarrollar la inteligencia artificial direccional general (AGI, o IA, que, en términos de capacidades intelectuales, se puede comparar con un humano para resolver cualquier problema), es tan difícil. Concluimos que el ritmo exponencial del avance tecnológico sugiere que AGI podría estar a la vuelta de la esquina muy pronto. Al final, decidimos que tan pronto como las máquinas alcanzaran la inteligencia humana, podría suceder lo siguiente:

Image
Image

norte

Image
Image
Image
Image
Image
Image

Como es habitual, miramos la pantalla, sin creer que la superinteligencia artificial (ISI, que es mucho más inteligente que cualquier persona) pueda aparecer durante nuestra vida y eligiendo las emociones que mejor reflejarían nuestra opinión sobre este tema.

Video promocional:

Antes de sumergirnos en los detalles de ISI, recordemos lo que significa para una máquina ser superinteligente.

La principal diferencia radica entre la superinteligencia rápida y la superinteligencia de calidad. A menudo, lo primero que viene a la mente cuando se piensa en una computadora superinteligente es que puede pensar mucho más rápido que una persona, millones de veces más rápido, y en cinco minutos comprenderá lo que le tomaría a una persona diez años. ("¡Sé kung fu!")

Suena impresionante, y el ISI realmente debería pensar más rápido que cualquiera de las personas, pero la principal característica que lo separa será la calidad de su inteligencia, que es completamente diferente. Los seres humanos son mucho más inteligentes que los monos, no porque piensen más rápido, sino porque sus cerebros contienen una serie de módulos cognitivos ingeniosos que llevan a cabo representaciones lingüísticas complejas, planificación a largo plazo, pensamiento abstracto, que los monos no son capaces de hacer. Si acelera el cerebro de un mono mil veces, no se volverá más inteligente que nosotros, incluso después de diez años no podrá ensamblar un juego de construcción de acuerdo con las instrucciones, lo que a una persona le tomaría un par de horas como máximo. Hay cosas que un mono nunca aprenderá, no importa cuántas horas dedique o qué tan rápido funcione su cerebro.

Además, un mono no sabe cuán humanamente, porque su cerebro simplemente no es capaz de darse cuenta de la existencia de otros mundos; un mono puede saber qué es una persona y qué es un rascacielos, pero nunca entenderá que un rascacielos fue construido por personas. En su mundo, todo pertenece a la naturaleza, y el macaco no solo no puede construir un rascacielos, sino que también entiende que cualquiera puede construirlo. Y este es el resultado de una pequeña diferencia en la calidad de la inteligencia.

En el esquema general de inteligencia del que estamos hablando, o simplemente según los estándares de los seres biológicos, la diferencia en la calidad de la inteligencia entre humanos y monos es minúscula. En el artículo anterior, colocamos las habilidades cognitivas biológicas en una escalera:

Image
Image

Para comprender qué tan seria será una máquina superinteligente, colóquela dos niveles más alta que la persona en esa escalera. Esta máquina puede ser un poco superinteligente, pero su superioridad sobre nuestras capacidades cognitivas será la misma que la nuestra, sobre los monos. Y así como un chimpancé nunca comprenderá que se puede construir un rascacielos, es posible que nunca entendamos qué entenderá una máquina un par de pasos más arriba, incluso si la máquina intenta explicárnoslo. Pero esto es solo un par de pasos. Una máquina más inteligente verá hormigas en nosotros; nos enseñará las cosas más simples desde su posición durante años, y estos intentos serán completamente inútiles.

El tipo de superinteligencia del que hablaremos hoy está mucho más allá de esta escalera. Esta es una explosión de inteligencia: cuando cuanto más inteligente se vuelve un automóvil, más rápido puede aumentar su propia inteligencia, aumentando gradualmente el impulso. Una máquina como esta puede tardar años en superar a los chimpancés en inteligencia, pero quizás un par de horas en superarnos en un par de pasos. A partir de este momento, el coche ya puede saltar cuatro pasos por segundo. Es por eso que debemos entender que muy pronto después de que aparezca la primera noticia de que la máquina ha alcanzado el nivel de inteligencia humana, es posible que nos enfrentemos a la realidad de la convivencia en la Tierra con algo que será mucho más alto que nosotros en esta escalera (o tal vez y millones de veces más):

Image
Image

Y como hemos establecido que es completamente inútil tratar de entender el poder de una máquina que está solo dos pasos por encima de nosotros, definamos de una vez por todas que no hay forma de entender qué hará ISI y cuáles serán las consecuencias de esto para nosotros. Cualquiera que diga lo contrario simplemente no entiende lo que significa superinteligencia.

La evolución ha hecho evolucionar lenta y gradualmente el cerebro biológico durante cientos de millones de años, y si los humanos crean una máquina superinteligente, en cierto sentido trascenderemos la evolución. O será parte de la evolución; tal vez la evolución funcione de tal manera que la inteligencia se desarrolle gradualmente hasta llegar a un punto de inflexión que presagia un nuevo futuro para todos los seres vivos:

Image
Image

Por razones que discutiremos más adelante, una gran parte de la comunidad científica cree que la pregunta no es si llegaremos a este punto de inflexión, sino cuándo.

¿Dónde terminamos después de esto?

Creo que nadie en este mundo, ni tú ni yo, podremos decir qué pasará cuando lleguemos al punto de inflexión. El filósofo de Oxford y destacado teórico de la inteligencia artificial Nick Bostrom cree que podemos resumir todos los resultados posibles en dos categorías amplias.

Primero, mirando la historia, sabemos lo siguiente sobre la vida: las especies aparecen, existen durante un cierto tiempo y luego, inevitablemente, caen fuera del equilibrio de la vida y mueren.

Image
Image

"Todas las especies mueren" ha sido una regla tan confiable en la historia como "todas las personas mueren algún día". El 99,9% de las especies han caído de un tronco de vida, y está bastante claro que si una especie permanece en este tronco durante demasiado tiempo, una ráfaga de viento natural o un asteroide repentino volcará el tronco. Bostrom llama extinción al estado de un atractor: un lugar donde todas las especies se equilibran para no caer donde ninguna especie ha regresado.

Y aunque la mayoría de los científicos admiten que ISI tendrá la capacidad de condenar a las personas a la extinción, muchos también creen que el uso de las capacidades de ISI permitirá a los individuos (y a la especie en su conjunto) alcanzar el segundo estado del atractor: la inmortalidad de la especie. Bostrom cree que la inmortalidad de una especie es tanto atractor como la extinción de una especie, es decir, si llegamos a esto, estaremos condenados a la existencia eterna. Por lo tanto, incluso si todas las especies hasta el día de hoy cayeron de este palo a la vorágine de la extinción, Bostrom cree que el tronco tiene dos lados, y simplemente no apareció en la Tierra tal inteligencia que entendiera cómo caer al otro lado.

Image
Image

Si Bostrom y otros tienen razón y, a juzgar por toda la información que tenemos a nuestra disposición, es muy posible que tengan razón, debemos aceptar dos hechos muy impactantes:

1. La aparición de ISI por primera vez en la historia abrirá la posibilidad de que una especie logre la inmortalidad y abandone el ciclo fatal de extinción.

2. La aparición de ISI tendrá un impacto tan enorme e inimaginable que, muy probablemente, empujará a la humanidad fuera de este rayo en una dirección u otra.

Es posible que cuando la evolución llegue a un punto de inflexión, siempre ponga fin a la relación de las personas con la corriente de la vida y cree un mundo nuevo, con o sin personas.

Esto plantea una pregunta interesante que solo un fastidio no se haría: ¿cuándo llegaremos a este punto de inflexión y dónde nos colocará? Nadie en el mundo conoce la respuesta a esta doble pregunta, pero muchas personas inteligentes han intentado resolverla durante décadas. En el resto del artículo, averiguaremos de dónde vienen.

* * *

Comencemos con la primera parte de esta pregunta: ¿cuándo deberíamos llegar al punto de inflexión? En otras palabras: ¿cuánto tiempo queda hasta que la primera máquina alcance la superinteligencia?

Las opiniones varían de un caso a otro. Muchos, incluido el profesor Vernor Vinge, el científico Ben Herzel, el cofundador de Sun Microsystems Bill Joy, el futurista Ray Kurzweil, coincidieron con el experto en aprendizaje automático Jeremy Howard cuando presentó el siguiente gráfico en TED Talk:

Image
Image

Estas personas comparten la opinión de que ISI llegará pronto: este crecimiento exponencial, que hoy nos parece lento, explotará literalmente en las próximas décadas.

Otros, como el cofundador de Microsoft Paul Allen, el psicólogo investigador Gary Marcus, el experto en informática Ernest Davis y el empresario tecnológico Mitch Kapor, creen que pensadores como Kurzweil están subestimando seriamente la magnitud del problema y creen que no estamos tan cerca de un punto de inflexión.

El bando de Kurzweil argumenta que la única subestimación que ocurre es ignorar el crecimiento exponencial, y los escépticos pueden compararse con aquellos que vieron el lento auge de Internet en 1985 y argumentaron que no tendría un impacto en el mundo en un futuro cercano.

Los que dudan pueden rechazar que es más difícil para el progreso dar cada paso posterior cuando se trata del desarrollo exponencial de la inteligencia, que neutraliza la naturaleza exponencial típica del progreso tecnológico. Etc.

El tercer campo, en el que se encuentra Nick Bostrom, no está de acuerdo ni con el primero ni con el segundo, argumentando que a) todo esto puede suceder absolutamente en un futuro próximo; yb) no hay garantía de que esto suceda en absoluto o de que lleve más tiempo.

Otros, como el filósofo Hubert Dreyfus, creen que los tres grupos creen ingenuamente que habrá un punto de inflexión y que lo más probable es que nunca lleguemos a ISI.

¿Qué sucede cuando juntamos todas estas opiniones?

En 2013, Bostrom realizó una encuesta en la que entrevistó a cientos de expertos en el campo de la inteligencia artificial durante una serie de conferencias sobre el siguiente tema: "¿Cuáles serán sus predicciones para lograr AGI a nivel humano?" y nos pidió que nombremos un año optimista (en el que tendremos AGI con un 10% de probabilidad), un supuesto realista (un año en el que tendremos AGI con un 50% de probabilidad) y un supuesto seguro (el primer año en el que AGI aparecerá desde 90 -porcentaje de probabilidad). Aquí están los resultados:

- Promedio año optimista (10%): 2022

- Año realista medio (50%): 2040

- Año pesimista medio (90%): 2075

Los encuestados promedio creen que en 25 años tendremos AGI en lugar de no. Una probabilidad del 90 por ciento de que ocurra AGI para el año 2075 significa que si todavía es bastante joven ahora, lo más probable es que suceda en su vida.

Un estudio separado realizado recientemente por James Barratt (el autor del aclamado y excelente libro Our Latest Invention, extractos del cual llamé la atención de los lectores de Hi-News.ru) y Ben Herzel en la Conferencia AGI, la Conferencia anual AGI, simplemente mostró las opiniones de la gente relativo al año que llegamos a AGI: 2030, 2050, 2100, más tarde o nunca. Aquí están los resultados:

- Para 2030: 42% de los encuestados

- Para 2050: 25%

- Para 2100: 20%

- Después de 2100: 10%

- Nunca: 2%

Similar a los resultados de Bostrom. En la encuesta de Barratt, más de dos tercios de los encuestados creen que AGI estará aquí para 2050, y menos de la mitad cree que AGI aparecerá en los próximos 15 años. También llama la atención que solo el 2% de los encuestados, en principio, no ve AGI en nuestro futuro.

Pero AGI no es un punto de inflexión como ISI. ¿Cuándo, según los expertos, tendremos ISI?

Bostrom preguntó a los expertos cuándo llegaremos a ASI: a) dos años después de llegar a AGI (es decir, casi instantáneamente debido a una explosión de inteligencia); b) después de 30 años. Resultados?

La opinión promedio es que la transición rápida de AGI a ISI ocurrirá con una probabilidad del 10%, pero en 30 años o menos ocurrirá con una probabilidad del 75%.

A partir de estos datos, no sabemos en qué fecha los encuestados llamarían una probabilidad del 50 por ciento de un ASI, pero según las dos respuestas anteriores, supongamos que son 20 años. Es decir, los principales expertos en inteligencia artificial del mundo creen que el punto de inflexión llegará en 2060 (AGI aparecerá en 2040 +, tomará 20 años para la transición de AGI a ISI).

Image
Image

Por supuesto, todas las estadísticas anteriores son especulativas y solo representan la opinión de expertos en el campo de la inteligencia artificial, pero también indican que la mayoría de las personas involucradas están de acuerdo en que para 2060 es probable que llegue la IA. En solo 45 años.

Pasemos a la segunda pregunta. Cuando lleguemos al punto de inflexión, ¿qué lado de la elección fatal nos determinará?

La superinteligencia tendrá el poder más poderoso, y la pregunta crítica para nosotros será la siguiente:

¿Quién o qué controlará este poder y cuál será su motivación?

La respuesta a esta pregunta dependerá de si el ISI obtiene un desarrollo increíblemente poderoso, un desarrollo inmensamente aterrador o algo intermedio.

Por supuesto, la comunidad de expertos también está tratando de responder a estas preguntas. La encuesta de Bostrom analizó la probabilidad de posibles consecuencias del impacto de AGI en la humanidad, y resultó que con un 52 por ciento de posibilidades de que todo salga muy bien y con un 31 por ciento de posibilidades de que todo salga mal o muy mal. La encuesta adjunta al final de la parte anterior de este tema, realizada entre ustedes, queridos lectores de Hi-News, mostró aproximadamente los mismos resultados. Para un resultado relativamente neutral, la probabilidad fue solo del 17%. En otras palabras, todos creemos que AGI será un gran problema. También vale la pena señalar que esta encuesta se refiere a la aparición de AGI; en el caso de ISI, el porcentaje de neutralidad será menor.

Antes de profundizar en el pensamiento sobre los lados buenos y malos de la pregunta, combinemos ambos lados de la pregunta: "¿cuándo sucederá esto?" y "¿esto es bueno o malo?" en una tabla que cubre las opiniones de la mayoría de los expertos.

Image
Image

Hablaremos del campamento principal en un minuto, pero primero, decida su posición. Lo más probable es que estés en el mismo lugar en el que yo estaba antes de empezar a trabajar en este tema. Hay varias razones por las que la gente no piensa en este tema en absoluto:

- Como se mencionó en la primera parte, las películas han confundido seriamente a personas y hechos, presentando escenarios poco realistas con inteligencia artificial, lo que llevó al hecho de que no deberíamos tomarnos la IA en serio en absoluto. James Barratt comparó esta situación con ser emitida por los Centros para el Control de Enfermedades (CDC) con una advertencia seria sobre los vampiros en nuestro futuro.

- Debido a los llamados sesgos cognitivos, nos resulta muy difícil creer que algo es real hasta que no tenemos pruebas. Uno puede imaginarse con confianza a los informáticos de 1988 discutiendo regularmente las consecuencias de largo alcance de Internet y en qué podría llegar a ser, pero la gente apenas creía que cambiaría sus vidas hasta que realmente sucedió. Es solo que las computadoras no sabían cómo hacer esto en 1988, y la gente simplemente miraba sus computadoras y pensaba: “¿En serio? ¿Es esto lo que cambiará el mundo? Su imaginación estaba limitada por lo que les enseñó su experiencia personal, sabían lo que era una computadora y era difícil imaginar lo que una computadora sería capaz de hacer en el futuro. Lo mismo está sucediendo ahora con la IA. Escuchamos que se convertirá en algo serioPero como todavía no lo hemos encontrado cara a cara y, en general, observamos manifestaciones bastante débiles de la IA en nuestro mundo moderno, nos resulta bastante difícil creer que cambiará radicalmente nuestra vida. Es contra estos prejuicios que numerosos expertos de todos los campos, así como personas interesadas, se oponen a tratar de captar nuestra atención a través del ruido del egocentrismo colectivo cotidiano.

- Aunque creyéramos en todo esto, ¿cuántas veces hoy has pensado en el hecho de que pasarás el resto de la eternidad en la nada? Un poco de acuerdo. Incluso si este hecho es mucho más importante que cualquier cosa que hagas día tras día. Esto se debe a que nuestro cerebro generalmente se concentra en cosas pequeñas y cotidianas, sin importar cuán delirante sea la situación a largo plazo en la que nos encontremos. Es solo que estamos hechos.

Uno de los objetivos de este artículo es sacarte del campo llamado "Me gusta pensar en otras cosas" y ponerte en el campo de los expertos, incluso si estás parado en la encrucijada entre las dos líneas de puntos en el cuadro de arriba, completamente indeciso.

En el curso de la investigación, se hace evidente que las opiniones de la mayoría de las personas derivan rápidamente hacia el "campo principal", y tres cuartas partes de los expertos se dividen en dos subcampos en el campo principal.

Image
Image

Visitaremos ambos campamentos en su totalidad. Empecemos por la diversión.

¿Por qué el futuro podría ser nuestro mayor sueño?

A medida que exploramos el mundo de la IA, encontramos sorprendentemente a muchas personas en nuestra zona de confort. La gente en el cuadrado superior derecho está llena de emoción. Creen que caeremos en el lado bueno del tronco, y también creen que inevitablemente llegaremos a esto. Para ellos, el futuro es lo mejor con lo que uno solo puede soñar.

El punto que distingue a estas personas de otros pensadores no es que quieran estar en el lado feliz, sino que están seguros de que ella nos está esperando.

Esta confianza surge de la controversia. Los críticos creen que proviene de una emoción deslumbrante que eclipsa los posibles lados negativos. Pero los defensores dicen que las predicciones sombrías son siempre ingenuas; la tecnología continúa y siempre nos ayudará más que dañarnos.

Usted es libre de elegir cualquiera de estas opiniones, pero deje de lado el escepticismo y observe bien el lado feliz de la barra de equilibrio, tratando de aceptar el hecho de que todo lo que lee puede que ya haya sucedido. Si les mostraras a los cazadores-recolectores nuestro mundo de comodidad, tecnología y abundancia sin fin, les parecería una ficción mágica, y nos comportamos con bastante modestia, incapaces de admitir que la misma transformación incomprensible nos espera en el futuro.

Nick Bostrom describe tres caminos que puede tomar un sistema de IA superinteligente:

Un oráculo que puede responder a cualquier pregunta exacta, incluidas preguntas complejas que los humanos no pueden responder, por ejemplo, "¿cómo hacer que el motor de un automóvil sea más eficiente?" Google es un tipo primitivo de "oráculo".

norte

Un genio que ejecutará cualquier comando de alto nivel, utilizando el ensamblador molecular para crear una versión nueva y más eficiente de un motor de automóvil, y esperará el siguiente comando.

Un soberano que tendrá amplio acceso y capacidad para desenvolverse libremente en el mundo, tomando sus propias decisiones y mejorando el proceso. Él inventará una forma de transporte privado más barata, rápida y segura que un automóvil.

Estas preguntas y tareas, que nos parecen difíciles, le parecerán al sistema superinteligente como si alguien pidiera mejorar la situación “se me cayó el lápiz de la mesa”, en el que simplemente lo tomarías y lo volverías a poner.

Eliezer Yudkowski, un experto estadounidense en inteligencia artificial, lo expresó bien:

“No hay problemas difíciles, solo problemas que son difíciles para un cierto nivel de inteligencia. Si va un paso más alto (en términos de inteligencia), algunos problemas pasarán repentinamente de la categoría de "imposibles" al campo de los "obvios". Un paso más arriba, y todos serán obvios ".

Hay muchos científicos, inventores y emprendedores impacientes que han elegido una zona de confianza y comodidad en nuestra mesa, pero solo necesitamos una guía para caminar hacia lo mejor en este mejor de los mundos.

Ray Kurzweil es ambiguo. Algunos idolatran sus ideas, otros las desprecian. Algunos se quedan en el medio: Douglas Hofstadter, al discutir las ideas de los libros de Kurzweil, señaló elocuentemente que "es como si tomaras mucha comida buena y un poco de caca de perro, y luego mezclaras todo de tal manera que es imposible entender qué es bueno y qué es malo".

Te gusten o no sus ideas, es imposible dejarlas pasar sin una sombra de interés. Comenzó a inventar cosas cuando era adolescente y, en los años siguientes, inventó varias cosas importantes, incluido el primer escáner de superficie plana, el primer escáner para convertir texto en voz, el conocido sintetizador musical Kurzweil (el primer piano eléctrico real) y el primer reconocedor de voz comercialmente exitoso. También es autor de cinco libros sensacionales. Kurzweil es apreciado por sus atrevidas predicciones, y su historial es bastante bueno: a finales de los 80, cuando Internet aún estaba en su infancia, predijo que en la década de 2000 la Web se convertiría en un fenómeno global. El Wall Street Journal llamó a Kurzweil un "genio inquieto", Forbes una "máquina de pensamiento global", Inc. Revista - "El legítimo heredero de Edison", Bill Gates - "el mejor de losque predice el futuro de la inteligencia artificial ". En 2012, el cofundador de Google, Larry Page, invitó a Kurzweil al puesto de director de tecnología. En 2011, cofundó Singularity University, que está alojada por la NASA y en parte patrocinada por Google.

Su biografía importa. Cuando Kurzweil habla de su visión del futuro, suena como una locura, pero lo realmente loco es que está lejos de estar loco: es una persona increíblemente inteligente, educada y cuerda. Puede pensar que está equivocado en sus predicciones, pero no es tonto. Las predicciones de Kurzweil son compartidas por muchos expertos en la zona de confort, Peter Diamandis y Ben Herzel. Esto es lo que cree que sucederá.

Cronología

Kurzweil cree que las computadoras alcanzarán el nivel de inteligencia artificial general (AGI) para 2029, y para 2045 no solo tendremos superinteligencia artificial, sino también un mundo completamente nuevo: el tiempo de la llamada singularidad. Su cronología de la IA todavía se considera escandalosamente exagerada, pero durante los últimos 15 años, el rápido desarrollo de sistemas de inteligencia artificial (IA) altamente enfocados ha obligado a muchos expertos a ponerse del lado de Kurzweil. Sus predicciones siguen siendo más ambiciosas que la encuesta de Bostrom (AGI para 2040, ISI para 2060), pero no mucho.

Según Kurzweil, tres revoluciones simultáneas en biotecnología, nanotecnología y, lo que es más importante, IA están impulsando la singularidad de 2045. Pero antes de seguir adelante, y la nanotecnología sigue de cerca a la inteligencia artificial, dediquemos un minuto a la nanotecnología.

Image
Image

Algunas palabras sobre nanotecnología

Por lo general, llamamos tecnologías de nanotecnología que se ocupan de la manipulación de materia en el rango de 1-100 nanómetros. Un nanómetro es una mil millonésima parte de un metro, o una millonésima de milímetro; dentro del rango de 1-100 nanómetros, se pueden alojar virus (100 nm de diámetro), ADN (10 nm de ancho), moléculas de hemoglobina (5 nm), glucosa (1 nm) y más. Si la nanotecnología alguna vez se convierte en nuestro tema, el siguiente paso será manipular átomos individuales que tengan menos de un orden de magnitud (~, 1 nm).

Para comprender dónde se encuentran los humanos con problemas al tratar de manipular la materia en tal escala, saltemos a una escala mayor. La Estación Espacial Internacional está a 481 kilómetros sobre la Tierra. Si los humanos fueran gigantes y golpearan la EEI con la cabeza, serían 250.000 veces más grandes de lo que son ahora. Si amplías algo de 1 a 100 nanómetros 250.000 veces, obtienes 2,5 centímetros. La nanotecnología es el equivalente a un ser humano que orbita la ISS y trata de manipular cosas del tamaño de un grano de arena o un globo ocular. Para pasar al siguiente nivel, controlando átomos individuales, el gigante tendrá que colocar cuidadosamente objetos con un diámetro de 1/40 de milímetro. La gente común necesitará un microscopio para verlos.

Por primera vez, Richard Feynman habló sobre nanotecnología en 1959. Luego dijo: “Los principios de la física, hasta donde yo sé, no hablan en contra de la posibilidad de controlar las cosas átomo por átomo. En principio, un físico podría sintetizar cualquier sustancia química que un químico haya escrito. ¿Cómo? Colocando los átomos donde dice el químico para obtener la sustancia . Esta es toda la sencillez. Si sabe cómo mover moléculas o átomos individuales, puede hacer casi cualquier cosa.

La nanotecnología se convirtió en un campo científico serio en 1986 cuando el ingeniero Eric Drexler presentó sus fundamentos en su libro seminal, Machines of Creation, pero el propio Drexler cree que aquellos que quieran aprender más sobre las ideas modernas en nanotecnología deberían leer su libro de 2013. Abundancia total (Abundancia radical).

Una vez que llegamos al fondo de la nanotecnología, podemos usarla para crear dispositivos técnicos, ropa, alimentos, bioproductos: células sanguíneas, combatientes contra virus y cáncer, tejido muscular, etc. Y en un mundo que utiliza nanotecnología, el costo de un material ya no estará ligado a su escasez o la complejidad de su proceso de fabricación, sino a la complejidad de su estructura atómica. En el mundo de la nanotecnología, un diamante podría ser más barato que un borrador.

Ni siquiera estamos cerca todavía. Y no está del todo claro si subestimamos o sobreestimamos la complejidad de este camino. Sin embargo, todo va hasta el punto de que la nanotecnología no está lejos. Kurzweil asume que para la década de 2020 los tendremos. Los estados del mundo saben que la nanotecnología puede prometer un gran futuro y, por lo tanto, están invirtiendo muchos miles de millones en ellas.

Imagínense las posibilidades que tendría una computadora superinteligente si llegara a un ensamblador a nanoescala confiable. Pero la nanotecnología es nuestra idea y estamos tratando de aprovecharla, es difícil para nosotros. ¿Qué pasa si son solo una broma para el sistema ISI, y el ISI mismo presentará tecnologías que serán muchas veces más poderosas que cualquier cosa que podamos asumir en principio? Estuvimos de acuerdo: nadie puede imaginar de qué será capaz la superinteligencia artificial. Se cree que nuestro cerebro es incapaz de predecir ni siquiera el mínimo de lo que sucederá.

¿Qué podría hacer la IA por nosotros?

Armado con superinteligencia y toda la tecnología que la superinteligencia podría crear, ISI probablemente podrá resolver todos los problemas de la humanidad. ¿Calentamiento global? ISI primero detendrá las emisiones de carbono al inventar una serie de combustibles no fósiles eficientes para generar energía. Luego se le ocurrirá una forma efectiva e innovadora de eliminar el exceso de CO2 de la atmósfera. ¿Cáncer y otras enfermedades? No hay problema: la atención médica y la medicina cambiarán de formas imposibles de imaginar. ¿Hambre mundial? ISI utilizará la nanotecnología para crear carne que sea idéntica a la carne natural, desde cero, real.

Image
Image

La nanotecnología podrá convertir una pila de basura en una tina de carne fresca u otros alimentos (no necesariamente incluso en la forma habitual, imagine un cubo de manzana gigante) y distribuir toda esta comida en todo el mundo utilizando sistemas de transporte avanzados. Por supuesto, esto será genial para los animales que ya no tienen que morir por comida. ISI también puede hacer muchas otras cosas, como preservar especies en peligro de extinción o incluso recuperar especies extintas del ADN preservado. ISI puede resolver nuestros problemas macroeconómicos más difíciles - nuestros debates económicos más difíciles, cuestiones éticas y filosóficas, comercio global - todo lo cual será dolorosamente obvio para ISI.

Pero hay algo muy especial que ISI podría hacer por nosotros. Seductor y tentador que cambiaría todo: ISI puede ayudarnos a lidiar con la mortalidad. Al comprender gradualmente las capacidades de la IA, quizás reconsidere todas sus ideas sobre la muerte.

No había ninguna razón para que la evolución extendiera nuestra vida útil más de lo que lo hace ahora. Si vivimos lo suficiente para dar a luz y criar hijos hasta el punto en que puedan valerse por sí mismos, la evolución es suficiente. Desde un punto de vista evolutivo, más de 30 años son suficientes para el desarrollo, y no hay razón para que las mutaciones prolonguen la vida y reduzcan el valor de la selección natural. William Butler Yates llamó a nuestra especie "un alma unida a un animal moribundo". No es muy divertido.

Y como todos morimos algún día, vivimos con la idea de que la muerte es inevitable. Pensamos en envejecer con el tiempo, seguir avanzando y no poder detener este proceso. Pero el pensamiento de la muerte es traicionero: capturados por ella, nos olvidamos de vivir. Richard Feynman escribió:

“Hay algo maravilloso en biología: no hay nada en esta ciencia que hable de la necesidad de la muerte. Si queremos crear una máquina de movimiento perpetuo, nos damos cuenta de que hemos encontrado suficientes leyes en física que indican la imposibilidad de esto o que las leyes son incorrectas. Pero no hay nada en biología que indique la inevitabilidad de la muerte. Esto me lleva a creer que no es tan inevitable, y es solo cuestión de tiempo antes de que los biólogos descubran la causa de este problema, esta terrible enfermedad universal, se curará.

El hecho es que el envejecimiento no tiene nada que ver con el tiempo. El envejecimiento es cuando los materiales físicos del cuerpo se desgastan. Las piezas de los coches también se degradan, pero ¿es inevitable el envejecimiento? Si continúa reparando su automóvil a medida que se desgastan las piezas, durará para siempre. El cuerpo humano no es diferente, solo más complejo.

Kurzweil habla de nanobots inteligentes conectados a Wi-Fi en el torrente sanguíneo que podrían realizar innumerables tareas para la salud humana, incluida la reparación o reemplazo regular de células desgastadas en cualquier parte del cuerpo. Mejorar este proceso (o encontrar una alternativa sugerida por un ASI más inteligente) no solo mantiene el cuerpo saludable, también puede revertir el envejecimiento. La diferencia entre el cuerpo de una persona de 60 y una de 30 radica en un puñado de problemas físicos que podrían corregirse con la tecnología adecuada. ISI podría construir un automóvil en el que una persona ingrese cuando tenga 60 años y salga cuando tenga 30 años.

Incluso un cerebro degradado podría renovarse. El ISI seguramente sabría cómo hacer esto sin afectar los datos cerebrales (personalidad, recuerdos, etc.). Un hombre de 90 años que sufre una degradación cerebral completa podría someterse a un reentrenamiento, renovarse y volver al comienzo de su vida. Puede parecer absurdo, pero el cuerpo es un puñado de átomos, y el ISI ciertamente podría manipularlos fácilmente, cualquier estructura atómica. No es tan absurdo.

Kurzweil también cree que los materiales artificiales se integrarán cada vez más en el cuerpo a medida que pase el tiempo. Para empezar, los órganos podrían reemplazarse con versiones de máquina súper avanzadas que durarían para siempre y nunca fallarían. Luego, podríamos hacer un rediseño completo del cuerpo, reemplazando los glóbulos rojos con nanobots perfectos que se mueven por sí mismos, eliminando la necesidad de un corazón por completo. También podríamos mejorar nuestras capacidades cognitivas, empezar a pensar miles de millones de veces más rápido y acceder a toda la información disponible para la humanidad a través de la nube.

Las posibilidades para comprender nuevos horizontes serían realmente infinitas. Las personas han logrado dotar al sexo de un nuevo propósito, lo hacen por placer, no solo por reproducción. Kurzweil cree que podemos hacer lo mismo con la comida. Los nanobots podrían brindar una nutrición ideal directamente a las células del cuerpo, permitiendo que sustancias no saludables pasen a través del cuerpo. El teórico de la nanotecnología Robert Freitas ya ha desarrollado un reemplazo para las células sanguíneas que, cuando se implementa en el cuerpo humano, puede permitirle no respirar durante 15 minutos, y esto fue inventado por una persona. Imagínese cuando el ISI ganará poder.

Después de todo, Kurzweil cree que los humanos llegarán al punto en que se volverán completamente artificiales; el momento en que miramos los materiales biológicos y pensamos en lo primitivos que eran; Momento en el que leeremos sobre las primeras etapas de la historia humana, asombrados de cómo gérmenes, accidentes, enfermedades o simplemente la vejez pueden matar a una persona contra su voluntad. En última instancia, los humanos vencerán su propia biología y se volverán eternos: este es el camino hacia el lado feliz de la barra de equilibrio del que hemos estado hablando desde el principio. Y las personas que creen en esto también están seguras de que ese futuro nos espera muy, muy pronto.

Probablemente no le sorprenderá que las ideas de Kurzweil hayan recibido duras críticas. Su singularidad en 2045 y la posterior vida eterna de las personas se denominó "la ascensión de los nerds" o "creación inteligente de personas con un coeficiente intelectual de 140". Otros cuestionaron el marco de tiempo optimista, la comprensión del cuerpo humano y el cerebro, recordó la ley de Moore, que aún no ha desaparecido. Por cada experto que cree en las ideas de Kurzweil, hay tres que piensan que está equivocado.

Pero lo más interesante de esto es que la mayoría de los expertos que no están de acuerdo con él generalmente no dicen que esto sea imposible. En lugar de decir "mierda, esto nunca sucederá", dicen algo como "todo esto sucederá si llegamos al ISI, pero este es el problema". Bostrom, uno de los aclamados expertos en inteligencia artificial que advierte sobre el peligro de la inteligencia artificial, también admite:

“Apenas queda ningún problema que la superinteligencia no pueda resolver o incluso ayudarnos a resolver. Enfermedad, pobreza, destrucción del medio ambiente, sufrimiento de todo tipo: todo esta superinteligencia con la ayuda de la nanotecnología se puede resolver en un momento. La superinteligencia también puede darnos una vida útil ilimitada al detener y revertir el proceso de envejecimiento mediante la nanomedicina o la capacidad de subirnos a la nube. La superinteligencia también puede crear oportunidades para un aumento sin fin de las capacidades intelectuales y emocionales; él puede ayudarnos a crear un mundo en el que viviremos con alegría y comprensión, acercándonos a nuestros ideales y haciendo realidad nuestros sueños.

Sin embargo, esta es una cita de uno de los críticos de Kurzweil, quien admite que todo esto es posible si podemos crear una ASI segura. Kurzweil simplemente definió en qué debería convertirse la superinteligencia artificial, si es posible. Y si es un buen dios.

La crítica más obvia a los defensores de la zona de confort es que pueden estar muy equivocados al evaluar el futuro de ISI. En su libro The Singularity, Kurzweil dedicó 20 páginas de 700 posibles amenazas de ISI. La pregunta no es cuándo llegamos a ISI, la pregunta es cuál será su motivación. Kurzweil responde a esta pregunta con cautela: “ISI surge de muchos esfuerzos dispares y estará profundamente integrado en la infraestructura de nuestra civilización. De hecho, estará muy integrado en nuestro cuerpo y cerebro. Él reflejará nuestros valores porque será uno con nosotros.

Pero si la respuesta es, ¿por qué tanta gente inteligente en este mundo está preocupada por el futuro de la inteligencia artificial? ¿Por qué Stephen Hawking dice que el desarrollo de ISI "podría significar el fin de la raza humana"? Bill Gates dice que "no comprende a las personas que no se preocupan" por eso. Elon Musk teme que estemos "convocando a un demonio". ¿Por qué muchos expertos consideran que ISI es la mayor amenaza para la humanidad?

Basado en materiales de waitbutwhy.com, compilación de Tim Urban. El artículo utiliza materiales de las obras de Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog y Kai Sotal, Susan Schneider, Stuart Russell y Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Autor: Ilya Khel

Parte tres: ¿por qué podría ser nuestro último invento?

Recomendado: