Cinco temporadas de inteligencia artificial. Golpea a una persona en pedazos en Go, toma el control de su automóvil y lo reemplaza en el trabajo, y al mismo tiempo puede mejorar la efectividad de la medicina. Su larga historia se remonta a 1958 con una enorme máquina que podía distinguir entre derecha e izquierda.
1: 0. Luego 2: 0. Y 3: 0. En marzo de 2016, se celebró la última reunión en el Hotel Four Seasons de Seúl, tras la cual no hubo sombra de duda: el campeón coreano de go Lee Sedol perdió 4: 1 ante un ordenador que ejecutaba el programa AlphaGo desarrollado por una filial de Google. "Mente profunda". Por primera vez en la historia, el mecanismo del "aprendizaje automático" y las "redes neuronales artificiales" superó por completo al cerebro humano en este juego, que se considera más difícil de simular que el ajedrez. Muchos expertos enfatizan que esperaban tal resultado solo en unos pocos años.
Para un público más amplio, esto fue una prueba del poder de la nueva tecnología de "aprendizaje profundo", que ahora está en el corazón de los asistentes de voz, los automóviles autónomos, el reconocimiento facial, la traducción automática y también las ayudas en el diagnóstico médico …
El interés por las tecnologías de aprendizaje automático, que muestran las corporaciones estadounidenses y chinas en el campo de las altas tecnologías (Google, Amazon, Facebook, Microsoft, Baidu, Tensent), abarca todo el planeta y cada vez más salta de títulos científicos de periódicos en materiales económicos, analíticos y sociales. El caso es que la inteligencia artificial no solo promete grandes cambios en la economía, sino que también suscita pensamientos sobre nuevas armas destructivas, vigilancia generalizada de la ciudadanía, sustitución de empleados por robots, problemas éticos …
norte
Pero, ¿de dónde vino la revolución tecnológica de la IA? Su historia tiene bastantes altibajos. Se basó en los logros de la neurociencia y la informática (como se puede adivinar por el nombre), así como, sorprendentemente, de la física. Su camino pasó por Francia, Estados Unidos, Japón, Suiza y la URSS. En esta área, varias escuelas científicas chocaron entre sí. Ganaron un día y perdieron al siguiente. Fue necesario que todos mostraran paciencia, perseverancia y voluntad para correr riesgos. Hay dos inviernos y tres primaveras en esta historia.
Máquina consciente de sí misma
Todo empezó bien. "El ejército estadounidense habló sobre la idea de una máquina que puede caminar, hablar, ver, escribir, reproducirse y tomar conciencia de sí misma", escribió The New York Times el 8 de julio de 1958. Este artículo de una columna describe el Perceptron, que fue creado por el psicólogo estadounidense Frank Rosenblatt en los laboratorios de la Universidad de Cornell. Esta máquina de $ 2 millones en ese momento tenía aproximadamente el tamaño de dos o tres refrigeradores y estaba trenzada con muchos cables. Durante una demostración frente a la prensa estadounidense, el Perceptron determinó si un cuadrado dibujado en una hoja estaba a la derecha oa la izquierda. El científico prometió que con una inversión de otros 100 mil dólares, su máquina podrá leer y escribir en un año. De hecho, esto tomó más de 30 años …
Video promocional:
Sea como fuere, lo principal de este proyecto fue la fuente de inspiración, que se mantuvo inalterada hasta AlphaGo y sus "familiares". El psicólogo Frank Rosenblatt ha estado involucrado en los conceptos de cibernética e inteligencia artificial durante más de una década. Por cierto, desarrolló su Perceptron con la ayuda de otros dos psicólogos norteamericanos: Warren McCulloch y Donald Hebb. El primero publicó en 1943 un artículo conjunto con Walter Pitts (Walter Pitts) con una propuesta para crear neuronas "artificiales", que deberían partir de lo natural y tener propiedades matemáticas. El segundo introdujo reglas en 1949 para permitir que las neuronas artificiales aprendan por ensayo y error, como lo hace el cerebro.
El puente entre la biología y las matemáticas fue una iniciativa audaz. Una unidad de conteo (neurona) puede estar activa (1) o inactiva (0) dependiendo de los estímulos de otras formaciones artificiales con las que esté conectada, formando una red compleja y dinámica. Más precisamente, cada neurona recibe un cierto conjunto de símbolos y lo compara con un cierto umbral. Si se supera el umbral, el valor es 1, en caso contrario es 0. Los autores han demostrado que su sistema asociado puede realizar operaciones lógicas como "y" y "o" … y así realizar cualquier cálculo. En teoria.
Este enfoque innovador de los cálculos dio lugar a la primera disputa de nuestra historia. Los dos conceptos confluyeron en un enfrentamiento irreconciliable que continúa hasta el día de hoy. Por un lado, hay partidarios de las redes neuronales y, por otro, hay defensores de las computadoras "clásicas". Estos últimos se basan en tres principios: los cálculos son predominantemente secuenciales, la memoria y los cálculos se proporcionan con componentes claramente definidos, cualquier valor intermedio debe ser igual a 0 o 1. Para el primero, todo es diferente: la red proporciona memoria y cálculos, no hay control centralizado, y se permiten valores intermedios.
El "perceptrón" también tiene la capacidad de aprender, por ejemplo, a reconocer un patrón o clasificar señales. Así es como el tirador corrige la vista. Si la bala va hacia la derecha, mueve el cañón hacia la izquierda. En el nivel de las neuronas artificiales, esto significa debilitar a las que tiran hacia la derecha, en favor de las que tiran hacia la izquierda, y permitirte dar en el blanco. Todo lo que queda es crear esta maraña de neuronas y encontrar la manera de conectarlas.
norte
Sea como fuere, el entusiasmo se desvaneció significativamente en 1968 con el lanzamiento del libro Perceptrons de Seymour Papert y Marvin Minsky. En él, demostraron que la estructura de los perceptrones te permite resolver solo los problemas más simples. Fue el primer invierno de la inteligencia artificial, cuya primera primavera, debemos admitir, no rindió muchos frutos. Y el viento soplaba de la nada: Marvin Minsky se encontraba en los orígenes del surgimiento del concepto mismo de "inteligencia artificial" en 1955.
AI y AI chocan
El 31 de agosto de ese año, ella y su colega John McCarthy enviaron a una docena de personas invitándolas a participar el próximo verano en un trabajo de dos meses sobre el entonces primer concepto de inteligencia artificial en Dartmouth College. Warren McCulloch y Claude Shannon, el padre de la teoría de la informática y las telecomunicaciones, estuvieron presentes. Fue él quien llevó a Minsky y McCarthy al laboratorio Bell, del que posteriormente salieron transistores y láseres. Además, fueron ellos quienes se convirtieron en uno de los centros del resurgimiento de las redes neuronales en la década de 1980.
Paralelamente, se formaron dos nuevos movimientos y la Universidad de Stanford se convirtió en su campo de batalla. Por un lado ostentaba el acrónimo de AI, "inteligencia artificial", en un entendimiento diferente al de las redes neuronales, que fue defendido por John McCarthy (dejó el Instituto de Tecnología de Massachusetts y creó su laboratorio en Stanford). Por otro lado, está la IU, "inteligencia mejorada", que refleja el nuevo enfoque de Douglas Engelbart. Fue contratado en 1957 por el Stanford Research Institute (creado en 1946 por una institución independiente que interactuaba con el sector privado).
Douglas Engelbart tenía un camino difícil a sus espaldas. Fue técnico y se dedicó al radar durante la Segunda Guerra Mundial, pero luego reanudó sus estudios y defendió su tesis. Antes de unirse a Stanford, incluso creó su propia empresa, pero solo duró dos años. En un nuevo lugar, comenzó a implementar su visión de mejorar las habilidades humanas. Dijo que tenía una idea clara de cómo “los colegas se sientan en diferentes salas en estaciones de trabajo similares que están vinculadas al mismo sistema de información y pueden interactuar e intercambiar datos de cerca”, dice el sociólogo Thierry Bardini.
Esta visión se puso en práctica en diciembre de 1968, diez años después de la introducción de Perceptron, durante una demostración del sistema oNLine con un editor de texto en la pantalla, hipervínculos a documentos, gráficos y un mouse. Douglas Engelbart fue un visionario, pero probablemente miró demasiado hacia el futuro para darse a conocer realmente.
Enero de 1984, el primer Macintosh
John McCarthy, a su vez, llamó a este sistema innecesariamente "dictatorial" porque imponía un enfoque especial a la estructuración del texto. Este valiente científico, que, como Engelbart, fue financiado por el ejército estadounidense, presentó su propio concepto simbólico de inteligencia artificial. En esto se basó en LISP, uno de los primeros lenguajes de programación que desarrolló. La idea era imitar el proceso de pensamiento con una cadena lógica de reglas y símbolos y así formar un pensamiento o al menos una función cognitiva. Esto no tiene nada que ver con redes de neuronas independientes que pueden aprender pero no pueden explicar su elección. Aparte de la mano robótica que lanzó el puñetazo, que divirtió a todos al derribar vasos, el nuevo enfoque fue bastante exitoso en términos de lo que durante mucho tiempo se ha llamado "sistemas expertos". Las cadenas de reglas permitían a las máquinas analizar datos en una amplia variedad de campos, ya fueran finanzas, medicina, fabricación, traducción.
En 1970, un colega de Minsky hizo la siguiente declaración a la revista Life: “En ocho años tendremos una máquina con la inteligencia de una persona promedio. Es decir, una máquina que puede leer a Shakespeare, cambiar el aceite de un coche, bromear, pelear.
La victoria del enfoque simbólico
Aparentemente, a la inteligencia artificial no le gustan las profecías. En 1973, se publicó un informe en Inglaterra que enfrió las cabezas calientes: “La mayoría de los científicos que trabajan en inteligencia artificial y campos relacionados admiten que están decepcionados con lo que se ha logrado en los últimos 25 años. (…) En ninguno de los campos, los descubrimientos realizados hasta ahora han dado los resultados prometidos.
Los años siguientes han confirmado este diagnóstico. En la década de 1980, las empresas de IA quebraron o cambiaron de campo. El edificio del laboratorio McCarthy fue demolido en 1986.
Douglas Engelbart ganó. En enero de 1984, Apple lanzó su primer Macintosh, poniendo en práctica la mayoría de las ideas del ingeniero.
Así, la victoria no fue para la inteligencia artificial, con la que soñaron Minsky y McCarthy, sino para el intelecto mejorado de Engelbart. Todo esto ha llevado al desarrollo de computadoras personales eficientes. Y la inteligencia artificial ha llegado a un callejón sin salida. El simbolismo resultó ser más fuerte que las redes neuronales. Sin embargo, nuestra historia no termina ahí y aún así se declararán.
David Larousserie