Google: "la Inteligencia Artificial Debe Complementar, No Reemplazar A La Humana" - Vista Alternativa

Tabla de contenido:

Google: "la Inteligencia Artificial Debe Complementar, No Reemplazar A La Humana" - Vista Alternativa
Google: "la Inteligencia Artificial Debe Complementar, No Reemplazar A La Humana" - Vista Alternativa

Vídeo: Google: "la Inteligencia Artificial Debe Complementar, No Reemplazar A La Humana" - Vista Alternativa

Vídeo: Google:
Vídeo: ¿La inteligencia artificial reemplazará a los programadores? 2024, Septiembre
Anonim

Greg Corrado, el programador líder del proyecto Google Brain (que crea sistemas de aprendizaje automático e inteligencia artificial y su integración en los servicios de Google), le dijo a RIA Novosti qué es la inteligencia artificial, por qué el levantamiento de las máquinas auto-mejorantes no nos amenaza y compartió sus pensamientos sobre cómo la humanidad se adaptará a la vida en la era de las "máquinas inteligentes".

En los últimos años, Corrado y sus colegas han desarrollado nuevos sistemas de traducción automática, han enseñado al motor de búsqueda de imágenes de Google Imágenes a reconocer gatos, perros y otros objetos, y han creado una red neuronal que mejora la resolución de las fotos. Actualmente están trabajando en un asistente de voz para teléfonos Android.

Greg, a juzgar por tus publicaciones, tu carrera científica comenzó en neurofisiología, no en el desarrollo de la inteligencia artificial. ¿Cómo sucedió que los sistemas de inteligencia artificial se volvieron importantes para usted personalmente y para Google en general?

- Inicialmente, estaba interesado en cosas completamente diferentes: al principio estudiaba física y luego me cambié al campo de las ciencias del cerebro. Entonces me pareció que el cerebro es el sistema físico más interesante y quería comprender cómo el desarrollo de nuestro cerebro condujo a la aparición de seres inteligentes y autoconscientes.

norte

Después de trabajar durante algún tiempo de esta manera, me di cuenta de que no era menos interesante para mí estudiar todas las formas de inteligencia, no solo en sus manifestaciones biológicas, sino también en las artificiales. Además, en ese momento me parecía que en el campo de la inteligencia artificial íbamos a poder avanzar mucho más rápido que en el estudio del cerebro humano.

Con Google, la situación es diferente: la empresa se ha dedicado a la inteligencia artificial desde sus inicios. La propia implementación del motor de búsqueda, tal como la concibieron los fundadores de la empresa, Sergey Brin y Larry Page, requiere al menos alguna forma de inteligencia artificial.

Para nosotros, la tarea principal no es crear la IA como algún tipo de producto que podamos empaquetar en una caja y vender, sino utilizar dichos sistemas para organizar y procesar la información. La cantidad de información crece constantemente, y cuantos más datos recibimos, peor los vemos y perdemos la idea de qué es importante y qué no.

La propia idea matemática que describe las redes neuronales profundas y los métodos de aprendizaje no lineal apareció hace más de diez años, pero se han vuelto populares solo en los últimos dos o tres años. ¿Cuál es la razón para esto?

Video promocional:

- Puedo decir más - los principios mismos de la organización de estas redes aparecieron incluso antes, en los años 60 del siglo pasado, y finalmente se formalizaron en forma matemática en los años 80 y 90. Desde entonces, en realidad no han cambiado. La única razón por la que su renacimiento está ocurriendo en este momento es porque las computadoras se han vuelto notablemente más rápidas en los últimos años y tenemos la oportunidad de aumentar su potencia a bajo costo.

En los noventa y principios de los 2000 no entendíamos esto, y por eso las redes neuronales eran consideradas en ese momento como un juguete interesante pero inútil. Pero en realidad, simplemente no tenían suficientes recursos informáticos para hacer algo útil. Cuando los volúmenes de datos y los recursos computacionales eran pequeños, los enfoques matemáticos simples los usaban de manera más eficiente que las redes neuronales.

¿Nos dimos cuenta por primera vez de que las redes profundas y el aprendizaje automático pueden ser útiles? alrededor de 2010 o 2011, y nos llevó unos cinco años probar esta idea y demostrar que lo era. Ahora, todas las personas de la industria comprenden que esto es así y se esfuerzan en esta dirección.

Cada año, nuestra civilización produce más y más datos, cuyo procesamiento pronto será imposible sin el uso de inteligencia artificial. ¿Podrá la humanidad seguir desarrollándose, como creen los oponentes de la IA, sin utilizar tales sistemas?

“No creo que la inteligencia artificial o el aprendizaje automático puedan ser algo bueno o malo, es solo un conjunto de nuevas tecnologías, cuya forma de uso dependerá únicamente de nosotros. Como sociedad, debemos decidir para qué y cómo se aplicarán; por ejemplo, podemos abandonarlos por completo por alguna razón ética o política.

Personalmente, creo que una solución de este tipo sería extremadamente ineficaz y similar a la que tendríamos si prohibiéramos las máquinas de coser automáticas y obligáramos a todas las fábricas a coser ropa a mano. En cambio, debemos comprender dónde su uso traerá beneficios reales y se alineará con nuestros valores.

Y me parece que hay innumerables áreas en las que el uso tanto de la inteligencia artificial como del aprendizaje automático traerá enormes beneficios a la sociedad, muchos de los cuales aún no podemos imaginar.

Google utiliza hoy redes neuronales en el trabajo de Google Translate, Google Image Search y muchos otros productos. ¿Dónde se producirá el principal avance en su aplicación en un futuro próximo?

- Cuando la gente habla sobre el desarrollo de la inteligencia artificial, a menudo imagina algo muy impresionante, que en realidad no lo es. Debe comprender que simplemente estamos tratando de hacer que las máquinas sean menos estúpidas de lo que son hoy y hacer que interactúen con los humanos de la manera más natural.

Además, la inteligencia artificial nos permite corregir los errores de las máquinas y hacer que aprendan de esos errores. Hay una especie de diálogo entre el hombre y la máquina.

Espero que en los próximos diez años tengamos un sistema, posiblemente funcionando en teléfonos y otros dispositivos móviles, que interactúe dinámicamente con el propietario y tenga en cuenta sus características de personalidad y cualquier deseo específico.

Por ejemplo, le pide a un asistente que le ayude a llegar a un punto del mapa. Cuando te ofrece una ruta, puedes pedirle que la coloque más cerca del parque o que cumpla otros deseos, y el sistema te entenderá y cumplirá tus deseos. Queremos que la comunicación con dichos sistemas sea lo más natural posible para una persona.

En los últimos años, los científicos han hablado cada vez más sobre la creación de sistemas de inteligencia artificial que se mejoran a sí mismos, que muchos científicos serios, por ejemplo Stephen Hawking, consideran muy peligrosos para los humanos. ¿Es realmente?

- De hecho, aún no se ha creado la inteligencia artificial auto-mejorable. Desde un punto de vista técnico, es posible que algún día aparezcan tales sistemas, pero hasta ahora no existen y es poco probable que aparezcan en un futuro previsible.

norte

Por ejemplo, hoy en día hay robots que trabajan en líneas de montaje y ensamblan máquinas y otros dispositivos técnicos complejos. Estos robots fueron ensamblados en la misma línea con la participación de los mismos robots, pero esto no significa que los robots se hayan mejorado. Lo mismo ocurre con las tecnologías de aprendizaje automático: las usamos para analizar datos, incluidos otros sistemas de inteligencia artificial, pero aún así no pueden mejorarse sin la creatividad humana.

El sistema AlphaGo, por ejemplo, es capaz de una forma muy limitada de autoaprendizaje, pero no puede cambiar radicalmente su arquitectura y hacerse radicalmente diferente, por ejemplo, adaptado para resolver otros problemas. Lo que existe hoy es solo una pequeña parte de lo que se necesita hacer para crear sistemas de autoaprendizaje, y el resto del camino aún no está cubierto.

Por lo tanto, personalmente creo que la creación de inteligencia artificial hoy en día se parece cada vez más al arte que a la ingeniería o la ciencia, y los líderes de nuestra industria a menudo se sorprenden a sí mismos y a sus colegas con sus descubrimientos y hallazgos inesperados. En general, podemos decir que hoy la creación de la IA es prerrogativa exclusiva del hombre.

¿Se pueden utilizar estos sistemas para resolver las tareas más inusuales, por ejemplo, como un "cerebro" para rovers o sondas que estudiarían de forma independiente planetas y mundos distantes?

- En principio, esto es bastante posible, y me parece que en el futuro se utilizará la inteligencia artificial para realizar investigaciones en el espacio o en el fondo del océano, donde el control directo de la tecnología es imposible por una razón u otra. Los sistemas de inteligencia artificial ayudarán a estos rovers o robots a resolver algunas tareas de rutina y evitar peligros, pero los humanos seguirán realizando investigaciones científicas reales.

Solo una persona puede establecer tareas científicas específicas y determinar cómo resolverlas. Podemos decirle al robot: “acércate a este cráter y trata de encontrar rocas blancas en él”, pero el robot mismo, en principio, no puede entender por qué estas rocas son de nuestro interés. El hombre establece muy bien las tareas y busca la forma de resolverlas, y las máquinas aún no tienen esta oportunidad. En este caso, los robots solo pueden ser asistentes, pero no investigadores.

Esta pregunta está directamente relacionada con el hecho de que muchas personas no entienden qué es la inteligencia artificial y creen que los científicos crean un análogo completo de una persona con su mente, sentimientos y otras características. ¿Por qué está pasando esto?

- Me parece que esto es una consecuencia del hecho de que la gente no entiende por qué existe la inteligencia artificial. Creen que creamos máquinas como los humanos. Rechazo completamente esto y digo que lo creamos no para reemplazar a una persona, sino para complementar sus capacidades.

Por ejemplo, uso una computadora todos los días y hay cosas que yo y ella podemos hacer por sí mismos: sumar o multiplicar números. La computadora lo hace más rápido y lo agradezco también por esta razón. En consecuencia, puedo llevar a cabo la "división del trabajo" entregando los cálculos a la computadora y hacer más de lo que podría haber hecho sin su ayuda. Y esto, me parece, es la esencia de la inteligencia artificial.

La idea de crear un análogo completo de una persona, me parece, tiene sus raíces en la ciencia ficción o en la filosofía. Los filósofos han pensado durante mucho tiempo si podemos crear máquinas que se parezcan a los humanos, pero esta cuestión no tiene nada que ver con si esas "personas artificiales" nos serán útiles, y si es posible en absoluto.

Por tanto, desde el punto de vista de la práctica, es mejor crear inteligencia que complemente nuestra propia mente y amplíe sus capacidades, y no que la copie.

Ya en la actualidad existen sistemas similares a las máquinas con piloto automático, en los que la vida humana depende de las acciones de la inteligencia artificial. ¿Necesitamos crear normas legales fundamentalmente nuevas para definir la responsabilidad y quién será responsable de las acciones de AI?

- Esta es una pregunta muy importante. Permítanme enfatizar de inmediato que no soy abogado, pero me parece que ya ha habido ejemplos de problemas similares en el pasado. Por ejemplo, durante muchos siglos ha habido leyes que determinan quién es responsable por el hecho de que el caballo de alguien pateó a un extraño, un perro atacó a un extraño, una máquina se rompió y lesionó a un trabajador, o ocurrió algún otro incidente.

Me parece que nosotros necesitamos utilizar esta experiencia al determinar la responsabilidad del comportamiento de los sistemas de inteligencia artificial. En consecuencia, solo queda discutir cómo podemos adaptar estos principios para determinar cómo interactuaremos con máquinas autónomas y otros dispositivos de este tipo.

Estoy más que seguro de que esta discusión será muy acalorada y prolongada, pero me parece que no requerirá la introducción de normas y principios legales completamente nuevos. Por supuesto, algunas personas sugieren considerar los sistemas de IA como "personalidades", etc., pero para mí, personalmente, esto es algo muy extraño e incomprensible.

Los futurólogos y algunos de sus colegas predicen que el mayor desarrollo de la inteligencia artificial dejará sin trabajo a muchas personas que realizan trabajos calificados pero rutinarios (contables, conductores, funcionarios). ¿Existe este problema y cómo se puede solucionar?

- Por supuesto, este problema existe. Mis padres y abuelos eran contadores, y mi abuela empezó con lápiz y papel y terminó con calculadoras, y mi madre pasó de las calculadoras a las hojas de cálculo en una computadora. Todos estos cambios han cambiado radicalmente la forma en que trabajan los contables, pero la esencia misma de la profesión no ha cambiado desde esto: los contadores no han desaparecido, pero al mismo tiempo comenzaron a trabajar mejor, más rápido y mejor.

Me parece que sucederá algo similar con la inteligencia artificial. El contenido de muchas profesiones cambiará, pero su esencia seguirá siendo la misma, algunas de ellas incluso pueden desaparecer, pero ese destino solo caerá en una pequeña parte de ellas.

Además, podría suceder algo similar, lo que sucedió con el campo del diseño web a fines de la década de 1990: antes del advenimiento y la expansión de Internet, nadie podría haber imaginado que alguien pudiera hacer tales cosas. Por otro lado, es una tontería y un error abordar este tema a la ligera y pensar que nada cambiará. Debe comprender que estas tecnologías cambiarán el mundo, que tendrá que adaptarse a ellas y ayudar a otros a adaptarse a ellas.

Recomendado: