Libera La Inteligencia Artificial: Openai, El Plan Loco De Elon Musk - Vista Alternativa

Tabla de contenido:

Libera La Inteligencia Artificial: Openai, El Plan Loco De Elon Musk - Vista Alternativa
Libera La Inteligencia Artificial: Openai, El Plan Loco De Elon Musk - Vista Alternativa

Vídeo: Libera La Inteligencia Artificial: Openai, El Plan Loco De Elon Musk - Vista Alternativa

Vídeo: Libera La Inteligencia Artificial: Openai, El Plan Loco De Elon Musk - Vista Alternativa
Vídeo: Elon Musk... ¿CONQUISTARÁ EL UNIVERSO? (con SpaceX, Neuralink, Tesla, Inteligencia Artificial) 2024, Octubre
Anonim

Los políticos y capitalistas tienen la tradición de los viernes por la tarde de arrojar muchas noticias para ocultar las malas noticias entre ellos. Así que fue un poco extraño que Elon Musk, fundador de Tesla, un fabricante de vehículos eléctricos, y Sam Altman, presidente de la reconocida incubadora de tecnología Y Combinator, presentaran su nueva empresa con temática de IA al final de una conferencia de IA de una semana de duración en Montreal en diciembre pasado.

Había una razón para la introducción de OpenAI a una hora tan tardía. No porque nadie estuviera mirando. Porque todo el mundo estaba mirando. Cuando algunas de las empresas más poderosas de Silicon Valley sintieron que soplaba el viento, comenzaron a ofrecer enormes sumas de dinero al talento de IA de OpenAI recién formado para mantener a estos genios en casa. En el último minuto, las propuestas, algunas hechas en la propia conferencia, crecieron tanto que Musk y Altman tuvieron que retrasar el anuncio de la nueva puesta en marcha. “Las sumas han llegado al borde de la locura”, dice Wojciech Zaremba, un científico que se unió a OpenAI después de pasantías en Google y Facebook y estuvo entre los que recibieron importantes ofertas a las 11:00 pm.

Image
Image

¿Cuántos dólares tiene la frontera de la locura? Hace dos años, cuando el mercado de la última tecnología de aprendizaje automático comenzaba a calentarse, el vicepresidente de investigación de Microsoft, Peter Lee, dijo que el costo de los mejores investigadores de inteligencia artificial ha superado el costo de un mariscal de campo superior en la Liga Nacional de Fútbol, y eso es en circunstancias normales, no cuando los mejores empresarios Silicon Valley está tratando de atrapar a los mejores talentos. Zaremba dice que cuando OpenAI se juntó, se ofreció dos o tres veces su valor de mercado.

norte

OpenAI no cumplió con estas sugerencias. Pero ofreció algo diferente: la capacidad de realizar investigaciones centradas exclusivamente en el futuro, en lugar de productos y ganancias trimestrales, y en última instancia, dividir la mayor parte, si no toda, de la investigación entre quienes lo deseen. Así es: Musk, Altman y la compañía se propusieron regalar lo que podría ser la tecnología más transformadora del siglo XXI y regalarla.

Zaremba dice que las propuestas al borde de la locura en realidad lo desaniman, a pesar del gran respeto por compañías como Google y Facebook. Sintió que el dinero se estaba canalizando para evitar la creación de OpenAI, lo que reforzó aún más su compromiso con una startup generosa. "Me di cuenta", dice Zaremba, "que OpenAI es el mejor lugar para mí".

¿Sientes la ironía en el corazón de esta historia? Si bien las empresas de tecnología más grandes del mundo están tratando de retener a sus investigadores con tanta fuerza como los equipos de la NFL están tratando de retener a sus mariscales de campo estrella, los propios investigadores solo quieren compartir sus ideas. En el sofisticado mundo de la investigación de la IA, las mentes más brillantes no solo están impulsadas por el próximo ciclo de producto o las ganancias, o no están obsesionadas con ellas. Quieren mejorar la IA, y es imposible mejorar la IA cuando te guardas tus últimos desarrollos para ti.

OpenAI lanzó recientemente el primer lote de software de IA, un conjunto de herramientas para crear sistemas de inteligencia artificial basados en tecnología llamada aprendizaje por refuerzo, una de las tecnologías clave que llevaron a la creación de AlphaGo, la IA de Google que sorprendió al mundo con sus capacidades. ir juegos. Con este conjunto de herramientas, puede construir sistemas que abrirán una nueva generación de robots, jugar juegos de Atari y sí, vencer a los campeones mundiales en Go.

Video promocional:

Pero los juguetes son solo el comienzo. OpenAI es una misión de mil millones de dólares para impulsar la IA lo más lejos posible. En la forma en que la empresa se unió y cuáles son sus planes, puede ver la próxima nueva ola de innovación. Aún no sabemos si OpenAI será el principal impulsor de estos cambios. Pero las fuerzas detrás de la creación de esta startup bastante inusual muestran que la próxima generación de IA no solo cambiará la tecnología, sino también la forma en que se desarrolla.

La inteligencia artificial está en todas partes

Silicon Valley siente pasión por la exageración. Las declaraciones que suenen audaces siempre deben aceptarse con un grano de sal. Pero en el campo de la inteligencia artificial, se están produciendo cambios. Dentro de empresas como Google y Facebook, las tecnologías de aprendizaje profundo ya están ayudando a los servicios de Internet a identificar rostros en fotos, reconocer comandos de voz en teléfonos inteligentes y responder a búsquedas en Internet. Y esta misma tecnología podría resolver muchos otros problemas en el futuro. Puede ayudar a las máquinas a aprender a comprender el lenguaje natural, al que los humanos estamos acostumbrados a hablar y escribir. Puede ayudar a desarrollar una nueva generación de robots, permitir que los autómatas no solo realicen sus tareas, sino que también aprendan sobre la marcha. Y algunos creen que esto finalmente dará a las máquinas algo parecido al sentido común: la capacidad de pensar verdaderamente como una persona.

Y junto con tales promesas, nace una profunda ansiedad. A Musk y Altman les preocupa que si los humanos pueden crear IA que hacen grandes cosas, pueden construir IA que hacen cosas terribles. No están solos en sus miedos. Si bien esto puede parecer contradictorio, Musk y Altman también creen que la mejor manera de combatir la IA maliciosa no es limitar el acceso a la inteligencia artificial, sino expandirlo. Es esta aspiración la que conduce a un equipo de idealistas jóvenes e inteligentes.

OpenAI apareció una noche el verano pasado en una habitación privada en el Rosewood Hotel en Silicon Valley, un hotel urbano de lujo que literalmente se encuentra en el centro del mundo del capital de riesgo. Elon Musk almorzó con Ilya Sutskever, que estaba entonces en Google Brain, una empresa que desarrolla redes neuronales profundas, sistemas de inteligencia artificial que pueden aprender a realizar tareas analizando cantidades masivas de datos digitales, incluido el reconocimiento de fotos y la redacción de correos electrónicos, aprendiendo de la correspondencia. Suckever fue uno de los desarrolladores principales del proyecto.

Ilya Sutskever

Image
Image

Sam Altman, cuyo Y Combinator ayudó a dar forma a empresas como Airbnb, Dropbox y Coinbase, negoció la reunión, reuniendo a varios investigadores de inteligencia artificial y al joven pero veterano creador de empresas Greg Brockman, ex director de tecnología de la start-up Stripe, otra empresa Y Combinador. Era un grupo ecléctico. Pero todos tenían un objetivo: crear un nuevo tipo de laboratorio de inteligencia artificial que pudiera funcionar fuera del control no solo de Google, sino de todos los demás. "Lo mejor que puedo imaginar como desafío", dice Brockman, "es impulsar a la humanidad hacia la creación de una verdadera IA por un camino seguro".

Musk estuvo allí por su larga amistad con Altman, y porque la IA es fundamental para el futuro de sus diversas empresas y para el futuro en general. Tesla necesita inteligencia artificial si quiere construir coches autónomos. SpaceX, otra de las empresas de Musk, necesita inteligencia artificial para llevar a las personas al espacio y mantenerlas sanas y salvas allí. Pero Musk también es uno de los primeros (y más ruidosos) en advertir que algún día la humanidad podría perder el control de los sistemas que son lo suficientemente poderosos para aprender por sí mismos.

Había un problema: muchas personas con la habilidad suficiente para resolver todos estos problemas ya trabajaban en Google (así como en Microsoft, Facebook, Baidu y Twitter). Y nadie en esa cena estaba completamente seguro de que estos investigadores pudieran ser atraídos a una nueva startup, incluso si Musk y Altman estuvieran detrás de ella. Y al menos un jugador clave estaba listo para dejar el barco. "Comprendí los riesgos", dice Suckever, "pero también sabía que sería interesante intentarlo".

Romper el circulo

Animado por las conversaciones con Musk, Altman y otros en Rosewood, Brockman pronto decidió construir el laboratorio que todos tenían en mente. Con un fuerte compromiso con el proyecto, trajo a Yoshua Bengio, un científico de la Universidad de Montreal y uno de los padres fundadores del movimiento de aprendizaje profundo. Otros dos pioneros de la industria, Jeff Hinton y Jan Lecun, trabajan en Google y Facebook, respectivamente, pero Bengio aspiraba a una vida en el mundo académico, en algún lugar fuera del alcance de los tentáculos industriales. Esbozó una lista de los mejores investigadores en el campo y durante las siguientes semanas Brockman se puso en contacto con todos los que pudo, incluidos varios más.

Muchos de estos investigadores acogieron con satisfacción la idea, pero desconfiaron de la posibilidad de tal salto. En un intento por romper el círculo, Brockman eligió a los diez exploradores que más quería ver y los invitó a pasar el sábado con vino, bocadillos y conversación en una bodega de Napa Valley. Para Brockman, incluso un viaje a Napa fue el catalizador del proyecto. “Esta es una forma subestimada de unir a las personas, especialmente en momentos en los que no tienes a dónde apresurarte para alcanzar tu objetivo”, dice. "Tienes que ir allí, pero también necesitas hablar". Y cuando llegaron al vino, esa atmósfera permaneció. Como dice Suckever, "el vino era secundario a la conversación".

norte

Greg Brockman

Image
Image

Al final del día, Brockman invitó a los diez investigadores a unirse al laboratorio y les dio tres semanas para pensar. Al final del período, nueve estaban al mando. Y se quedaron en él, a pesar de las grandes ofertas de los gigantes de Silicon Valley. "Recibí una oferta muy atractiva para quedarme, así que la decisión no fue fácil", dice Suckever de Google, su antiguo empleador. "Finalmente, decidí ir a OpenAI, en parte por el grupo muy fuerte de personas y, por supuesto, principalmente por su misión".

El movimiento de aprendizaje profundo comenzó en la academia. Solo recientemente empresas como Google, Microsoft y Facebook han decidido abordar esta área, ya que los avances en el poder computacional bruto han hecho de estas redes neuronales profundas una realidad, no solo una posibilidad teórica. Personas como Hinton y LeCune han abandonado la academia en Google y Facebook debido a los enormes recursos de estas empresas. Pero se mantuvo estrechamente vinculado en colaboración con otros teóricos del campo. Sin embargo, como explica LeCun, la investigación de aprendizaje profundo requiere el libre flujo de ideas. "Cuando investigas en secreto", dice, "retrocedes".

Como resultado, las grandes empresas ahora tienen a su disposición gran parte de su investigación sobre IA. Esta es una gran carta de triunfo, especialmente para Google, que durante mucho tiempo ha mantenido en secreto la tecnología de su imperio en línea. No hace mucho, Google abrió el código fuente del motor de software que ejecuta sus redes neuronales. Pero mucho queda bajo llave en esta carrera por el futuro. Brockman, Altman y Musk buscan impulsar la noción de apertura aún más lejos diciendo que no quieren que una o dos grandes corporaciones controlen el futuro de la inteligencia artificial.

Límites de apertura

Todo suena genial. Pero a pesar de todo el idealismo de OpenAI, los investigadores pueden encontrarse en las mismas condiciones que los obligaron a trabajar en trabajos antiguos. La apertura tiene sus límites. Y la visión a largo plazo de la IA no es el único interés en este juego. OpenAI no realiza obras de caridad. Las empresas de Musk se beneficiarán enormemente del trabajo de la startup, al igual que el Y Combinator de Altman. "Ciertamente, hay algunos puntos en competencia", dice Lecun. - Es una organización sin fines de lucro, pero tiene una estrecha relación con Y Combinator. Y a la gente se le pagará por trabajar en esta industria ".

El laboratorio no paga los mismos salarios astronómicos que Google y Facebook proporcionaron a los investigadores de inteligencia artificial, dijo Brockman. Pero también dice que el laboratorio "quiere pagarles bien" y ofrece una compensación en forma de opciones sobre acciones, primero en Y Combinator y luego posiblemente en SpaceX (que, a diferencia de Tesla, es una empresa privada).

No obstante, Brockman insiste en que OpenAI no proporciona un trato especial a las empresas relacionadas. OpenAI es una iniciativa de investigación, no una empresa de consultoría. Sin embargo, el idealismo de OpenAI tiene sus limitaciones. Es posible que la empresa no abra el código para todo lo que produce, aunque el objetivo final sigue siendo distribuir la mayor parte, ya sean artículos científicos o servicios de Internet. “La apertura no es necesariamente la mejor opción. Necesita nutrir la idea, ver a dónde conduce y luego publicar, dice Brockman. - Produciremos mucho código fuente abierto. Pero también tendremos muchas cosas que aún no están listas para su lanzamiento.

Suzkever también agrega que OpenAI podría llegar a patentar parte de su trabajo. "No patentaremos nada pronto", dice Brockman. "Pero estamos dispuestos a cambiar de táctica a largo plazo, si creemos que será mejor para el mundo". Por ejemplo, OpenAI puede realizar patentes proactivas para disuadir a otros de obtener patentes.

Algunos pueden ver las patentes como un motivo de lucro. Pero ese es el objetivo de las patentes.

El problema de la superinteligencia

Cuando Musk y Altman presentaron OpenAI, también describieron el proyecto como una forma de neutralizar la amenaza de la superinteligencia maliciosa. Por supuesto, tal superinteligencia podría resultar del trabajo de OpenAI, pero insisten en que cualquier amenaza se mitigará haciendo que la tecnología esté disponible para todos. “Creemos que es mucho más probable que una multitud de IA pueda detener a los malos actores al azar”, dice Altman.

Pero no todos en esta área creen en tal resultado. Nick Bostrom, un filósofo de Oxford que, como Musk, advirtió sobre los peligros de la IA, señala que si comparte su investigación sin restricciones, los "malos actores" pueden atraparlos antes de que todos estén seguros de que están a salvo. "Si tienes un botón que hace que el mundo sea una mierda", dice Bostrom, "probablemente no quieras que todos accedan a él". Si, por otro lado, OpenAI decide retener la investigación para que los malos no tengan acceso a ella, Bostrom pregunta: ¿en qué se diferenciará de Google o Facebook?

Image
Image

Él dice que sí, que el estado sin fines de lucro de OpenAI puede cambiar o no las cosas. La verdadera fortaleza del proyecto, dice, es que puede ser verificado por Google y Facebook. “Podrá reducir la probabilidad de que la superinteligencia sea monopolizada. Podrá eliminar una de las posibles razones por las que algunos individuos o grupos tendrán acceso a una mejor IA que todos los demás.

En un trabajo reciente, el filósofo explica que el principal efecto de una iniciativa como OpenAI -una iniciativa para compartir libremente lo que se hace- es acelerar el progreso de la inteligencia artificial, al menos a corto plazo. Y puede acelerar el progreso a largo plazo, siempre que se mantenga un nivel de transparencia superior al que sería comercialmente óptimo.

“Puede ser que un inversor en I + D con motivación filantrópica pueda acelerar seriamente el progreso aplicando políticas de ciencia abierta”, dice.

Cómo Xerox PARC

A principios de enero, nueve de los investigadores de Brockman se reunieron en su apartamento en San Francisco. El proyecto era tan nuevo que ni siquiera tenían pizarrones. (Imagínese.) Compraron unos pocos el mismo día y se pusieron a trabajar.

Brockman dice que OpenAI comenzará explorando el aprendizaje por refuerzo, una forma de aprendizaje de problemas basada en máquinas repitiéndolos una y otra vez, rastreando qué métodos producen los mejores resultados. Otro desafío importante es el llamado "aprendizaje no supervisado": la creación de máquinas que realmente puedan autoaprender sin ayuda humana. Hoy, el aprendizaje profundo depende de datos cuidadosamente etiquetados. Si desea enseñar a la red neuronal a reconocer fotos de gatos, debe alimentarla con una cierta cantidad de ejemplos, y estos ejemplos deben etiquetarse como fotos con gatos. Esta formación se lleva a cabo con la ayuda de personas. Pero, como muchos otros científicos, OpenAI planea construir redes neuronales que puedan aprender sin una cuidadosa selección de datos.

“Si tiene una metodología de enseñanza realmente buena sin un maestro, las máquinas pueden aprender de todo el conocimiento en Internet, como un ser humano, simplemente mirando a su alrededor, o leyendo libros”, dice Brockman.

Él ve a OpenAI como la encarnación moderna de Xerox PARC, un laboratorio de investigación tecnológica que existía en la década de 1970. Así como la investigación abierta y gratuita de PARC ha dado lugar a todo, desde interfaces gráficas de usuario e impresión láser hasta programación orientada a objetos, Brockman y su equipo quieren sumergirse en lo que solía ser ciencia ficción. PARC era propiedad de Xerox, pero se alimentaba de la mano de muchas otras empresas, incluida Apple, porque personas como Steve Jobs agradecieron su investigación. Brockman quiere que todos den la bienvenida a la investigación de OpenAI.

Con la esperanza de impulsar esta dinámica, Brockman y la compañía reclutaron a varios otros investigadores notables, incluido Ian Goodfellow, otro miembro senior del equipo de Google Brain. Brockman dice que PARC básicamente reunió a un grupo de personas inteligentes y decidió ver qué sucedía. "Se necesita una visión compartida sin control central".

La falta de control es esencial para el ideal. Si atraes a suficientes personas al objetivo colectivo, el resultado final ganará todo lo que cocinaste en secreto. Pero si la IA se vuelve tan poderosa como se prometió, la ecuación cambiará. Necesitamos garantías de que la IA recién descubierta se adherirá a los mismos ideales igualitarios que llevaron a su creación en primer lugar. Musk, Altman y Brockman creen en la gente, en la multitud. Y si resulta que tienen razón, algún día esta multitud no será completamente humana.

ILYA KHEL

Recomendado: