La Inteligencia Artificial Está Lejos De Ser Tan Inteligente Como Tú Y Elon Musk Creen Que Es - Vista Alternativa

Tabla de contenido:

La Inteligencia Artificial Está Lejos De Ser Tan Inteligente Como Tú Y Elon Musk Creen Que Es - Vista Alternativa
La Inteligencia Artificial Está Lejos De Ser Tan Inteligente Como Tú Y Elon Musk Creen Que Es - Vista Alternativa

Vídeo: La Inteligencia Artificial Está Lejos De Ser Tan Inteligente Como Tú Y Elon Musk Creen Que Es - Vista Alternativa

Vídeo: La Inteligencia Artificial Está Lejos De Ser Tan Inteligente Como Tú Y Elon Musk Creen Que Es - Vista Alternativa
Vídeo: Elon Musk - I Don't Ever Give Up | Gangsta's Paradise 2024, Mayo
Anonim

En marzo de 2016, el algoritmo informático AlphaGo de DeepMind pudo derrotar a Lee Sedol, entonces el mejor jugador de rompecabezas del mundo. Este evento se convirtió en uno de esos momentos decisivos en la historia de la industria de la tecnología, que en un momento se convirtió en la victoria de la computadora Deep Blue de IBM sobre el campeón mundial de ajedrez Garry Kasparov, y la victoria de la supercomputadora Watson de la misma IBM en el cuestionario Jeopardy en 2011.

Sin embargo, a pesar de estas victorias, por impresionantes que sean, se trata más de algoritmos de entrenamiento y el uso de la potencia informática bruta que de la inteligencia artificial real. El ex profesor de robótica del MIT Rodney Brooks, quien cofundó iRobot y luego Rethink Robotics, dice que aprender un algoritmo para jugar un rompecabezas estratégico complejo no es inteligencia. Al menos no de la forma en que lo imaginamos para una persona.

El experto explica que no importa cuán fuerte pueda ser AlphaGo para completar la tarea que se le asignó, de hecho no es capaz de nada más. Además, está configurado para jugar a Go solo en un campo estándar de 19 x 19. En una entrevista con TechCrunch, Brooks habló sobre cómo recientemente tuvo la oportunidad de conversar con el equipo de DeepMind y descubrir un detalle interesante. Cuando se le preguntó qué hubiera pasado si los organizadores hubieran cambiado el tamaño del tablero de go y lo hubieran aumentado a 29 x 29 cuadrados, el equipo de AlphaGo admitió que incluso un ligero cambio en el campo de juego habría dado como resultado "hemos terminado".

“Creo que la gente ve lo bien que un algoritmo hace una cosa, y parece que piensa inmediatamente que puede hacer otras con la misma eficacia. Pero el caso es que no puede”, comentó Brooks.

norte

Inteligencia bruta

En mayo de este año, en una entrevista con Davin Coldway en TechCrunch Disrupt, Kasparov señaló que desarrollar una computadora capaz de jugar al ajedrez a nivel mundial es una cosa, pero otra muy distinta es llamar a esa computadora inteligencia artificial pura, ya que no lo es. Es solo una máquina que pone todo su poder de cómputo en resolver un problema que está acostumbrado a hacer mejor.

“En el ajedrez, las máquinas ganan gracias al poder de la computación profunda. Pueden volverse completamente invencibles con una base de datos enorme, hardware muy rápido y algoritmos más lógicos. Sin embargo, les falta comprensión. No reconocen patrones estratégicos. Las máquinas no tienen ningún propósito”, dijo Kasparov.

Video promocional:

Gil Pratt, director ejecutivo del Instituto Toyota, la división de inteligencia artificial e inteligencia artificial de Toyota en robots domésticos y automóviles autónomos, también habló con TechCrunch en la sesión de robótica. En su opinión, el miedo que escuchamos de una amplia gama de personas, incluido Elon Musk, quien recientemente calificó a la inteligencia artificial como "una amenaza existencial para la humanidad", puede deberse nada más que a esas descripciones distópicas del mundo que nos ofrece la ciencia ficción.

“Nuestros sistemas de aprendizaje profundo actuales son tan buenos en el desempeño de las tareas asignadas como las hemos diseñado. Pero en realidad, son bastante altamente especializados y de pequeña escala. Por lo tanto, considero importante cada vez que en el contexto de este tema mencionar tanto lo buenos que son como lo ineficaces que son en realidad. Y también lo lejos que estamos del momento en que estos sistemas pueden comenzar a representar la amenaza de la que hablan Elon Musk y otros”, comentó Pratt.

Brooks, a su vez, en la TechCrunch Robotics Session señaló que existe una tendencia entre la gente en general a creer que si un algoritmo es capaz de hacer frente a la tarea "X", entonces aparentemente es tan inteligente como una persona.

“Creo que la razón por la que la gente, incluido Elon Musk, comete este error es esta. Cuando vemos a una persona haciendo un muy buen trabajo con la tarea que se le asigna, entendemos que tiene una gran competencia en esta materia. Me parece que la gente está intentando aplicar el mismo modelo al aprendizaje automático. Y ahí es donde radica el mayor error , dice Brooks.

El director ejecutivo de Facebook, Mark Zuckerberg, realizó una transmisión en vivo el domingo pasado, durante la cual también criticó los comentarios de Elon Musk, calificándolos de "bastante irresponsables". Según Zuckerberg, la IA podrá mejorar significativamente nuestras vidas. Musk, a su vez, decidió no permanecer en silencio y respondió a Zuckerberg que tenía un "conocimiento limitado" sobre la IA. El tema aún no se ha cerrado, y Musk prometió un poco más tarde responder con más detalle a los ataques de colegas de la industria de TI.

Por cierto, Musk no es el único que cree que la IA puede representar una amenaza potencial. El físico Stephen Hawking y el filósofo Nick Bostrom también están expresando sus preocupaciones sobre el potencial de la inteligencia artificial para penetrar en el modo de vida de la humanidad. Pero lo más probable es que estén hablando de inteligencia artificial más generalizada. Sobre lo que se está estudiando en laboratorios como Facebook AI Research, DeepMind y Maluuba, en lugar de la IA más altamente especializada, cuyos primeros comienzos podemos ver hoy.

norte

Brooks también señala que muchos de los críticos de la IA ni siquiera trabajan en esta área, y sugirió que estas personas simplemente no comprenden lo difícil que puede ser encontrar una solución a cada problema individual en esta área.

“De hecho, no hay mucha gente que considere que la IA sea una amenaza existencial. Stephen Hawking, astrofísico y astrónomo británico Martin Rees … y algunos otros. La ironía es que la mayoría de ellos tienen una cosa en común: ni siquiera trabajan en el campo de la inteligencia artificial”, dijo Brooks.

"Para aquellos de nosotros que trabajamos con IA, es bastante obvio lo difícil que puede ser hacer que algo funcione al nivel del producto terminado".

Tergiversación de IA

Parte del problema también proviene del hecho de que llamamos a todo esto "inteligencia artificial". Lo cierto es que esta "inteligencia" no se parece en nada a la inteligencia humana, que se suele describir en los libros de referencia y el vocabulario como "la capacidad de aprender, comprender y adaptarse a nuevas situaciones".

Pascal Kaufman, director ejecutivo de Starmind, una startup que ayuda a otras empresas a utilizar la inteligencia humana colectiva para encontrar soluciones a problemas empresariales, ha estudiado neurociencia durante los últimos 15 años. El cerebro humano y la computadora, señala Kaufman, funcionan de manera muy diferente y sería un error obvio compararlos.

"La analogía - el cerebro funciona como una computadora - es muy peligrosa y se interpone en el camino del progreso de la IA", dice Kaufman.

El experto también cree que no avanzaremos en la comprensión de la inteligencia humana si la consideramos en términos tecnológicos.

“Es un error pensar que los algoritmos funcionan como el cerebro humano. A la gente le encantan los algoritmos, por lo que creen que el cerebro se puede describir con su ayuda. Creo que esto es fundamentalmente incorrecto”, agrega Kaufman.

Si algo va mal

Hay muchos ejemplos en los que los algoritmos de IA no son tan inteligentes como solíamos pensar en ellos. Y quizás uno de los más infames es el algoritmo de IA Tay, creado por el equipo de desarrollo de sistemas de IA de Microsoft y fuera de control el año pasado. Tomó menos de un día convertir al bot en un verdadero racista. Los expertos dicen que esto puede sucederle a cualquier sistema de IA cuando se le presentan malos modelos a seguir. En el caso de Tay, cayó bajo la influencia de vocabulario racista y otras formas ofensivas. Y dado que estaba programado para "aprender" y "reflejar el comportamiento", pronto se salió del control de los investigadores.

Una amplia investigación de Cornell y Wyoming ha descubierto que es muy fácil engañar a los algoritmos entrenados para identificar imágenes digitales. Descubrieron que una imagen que a las personas les parecía "una tontería mezclada" era identificada por el algoritmo como una imagen de algún objeto cotidiano como un "autobús escolar".

Según un artículo publicado en MIT Tech Review que describe este proyecto, no está del todo claro por qué se puede engañar al algoritmo de la forma en que lo hicieron los investigadores. Lo que se descubrió es que las personas han aprendido a reconocer lo que tienen frente a ellos, ya sea una imagen autosuficiente o algún tipo de imagen incomprensible. Los algoritmos, a su vez, analizan píxeles, son más fáciles de manipular y engañar.

En cuanto a los coches autónomos, todo resulta mucho más complicado. Hay algunas cosas que una persona entiende cuando se prepara para afrontar determinadas situaciones. Será muy difícil enseñarle a una máquina a hacer esto. Un gran artículo publicado en uno de los blogs automotrices por Rodney Brooks en enero de este año cita varios ejemplos de tales situaciones, incluido uno que describe un automóvil autónomo que se acerca a una señal de alto ubicada junto a un paso de peatones en la ciudad. al principio del cual un adulto y un niño se ponen de pie y se comunican.

Lo más probable es que el algoritmo esté ajustado para esperar a que los peatones crucen la calle. Pero, ¿y si estos peatones ni siquiera pensaran en cruzar la calle, ya que están parados y esperando, digamos, un autobús escolar? En este caso, un conductor humano podría tocar la bocina a los peatones, quienes en respuesta podrían saludarlo e informarle que puede pasar. Un vehículo no tripulado en tal situación puede simplemente quedarse atascado firmemente, esperando interminablemente a que la gente cruce la calle, porque el algoritmo no comprende señales humanas tan únicas, escribe Brooks.

Cada uno de estos ejemplos nos muestra hasta dónde nos queda todavía avanzar en el desarrollo de algoritmos de inteligencia artificial. Qué tan bien pueden tener éxito los desarrolladores de IA generalizada sigue siendo una pregunta. Hay cosas que una persona puede afrontar fácilmente, pero aprender el algoritmo será una verdadera tortura. ¿Por qué? Porque los humanos no estamos limitados en nuestro aprendizaje a un conjunto de tareas específicas.

Nikolay Khizhnyak

Recomendado: