Inteligencia Artificial: Un Enemigo Peligroso O Un Amable Ayudante - Vista Alternativa

Inteligencia Artificial: Un Enemigo Peligroso O Un Amable Ayudante - Vista Alternativa
Inteligencia Artificial: Un Enemigo Peligroso O Un Amable Ayudante - Vista Alternativa

Vídeo: Inteligencia Artificial: Un Enemigo Peligroso O Un Amable Ayudante - Vista Alternativa

Vídeo: Inteligencia Artificial: Un Enemigo Peligroso O Un Amable Ayudante - Vista Alternativa
Vídeo: LA CONSCIENCIA Y LA PERSONALIDAD. DE INEVITABLEMENTE MUERTO A ETERNAMENTE VIVO 2024, Mayo
Anonim

El uso de la inteligencia artificial (IA) en la vida cotidiana está ganando impulso rápidamente, pero esta tendencia preocupa cada vez más a los especialistas. El personal de la Universidad de Nueva York preparó una nota de advertencia sobre los riesgos de usar I. I. En su mayor parte, los autores se centraron en cuestiones éticas y sociales, así como en la falta de regulación. El informe del grupo AI Now dice pocas novedades, pero en la práctica mundial se plantea cada vez más la cuestión de la necesidad de limitar el trabajo del pensamiento artificial.

Casi todos los visionarios del progreso tecnológico hablaron sobre las amenazas potenciales para la IA. Stephen Hawking en noviembre del año pasado expresó los principales temores que acompañan a las reflexiones sobre el desarrollo de la tecnología. En su opinión, los ordenadores tarde o temprano aprenderán a reproducirse. Es probable que las criaturas biológicas pierdan frente a la inteligencia del silicio tanto en habilidades mentales como en términos de adaptabilidad al medio ambiente, especialmente en otro planeta. Tarde o temprano, los robots inteligentes considerarán a los humanos como una forma obsoleta y querrán deshacerse de ellos.

Las palabras de Hawking todavía suenan como una historia de terror, reproducidas decenas de veces en películas y libros, pero incluso aquellos que están trabajando en la implementación de sistemas inteligentes se han vuelto cada vez más temerosos del futuro con la IA, aunque hay quienes consideran que esos temores son prematuros. "Temer el desarrollo de la IA hoy en día es como preocuparse por la superpoblación de Marte", dijo Andrew Ng, director de Google Brain. Sin embargo, no tranquilizó a todos.

Image
Image

norte

Entre las fobias más importantes asociadas con la introducción de una computadora en todas las esferas de la vida, cabe destacar tres. Primero, la mente de la computadora será usada como arma de guerra, que superará significativamente incluso a las armas nucleares en poder destructivo. La segunda es que la IA esclavizará a los humanos. En tercer lugar, como cualquier creación humana, la computadora es propensa a errores. Los tres puntos se pueden discutir con más detalle.

El 21 de agosto de 2017, los principales expertos en el campo de la investigación y la implementación de la inteligencia artificial, incluidos los jefes de empresas como SpaceX y Deep Mind, enviaron una carta abierta a la ONU. En el texto, advirtieron a la comunidad mundial contra el desarrollo de armas autónomas letales, ya sean robots u otros mecanismos diseñados para matar al enemigo. Los autores del documento llamaron la atención sobre las fatales consecuencias del uso de tales armas. Con su eficacia fenomenal, es justo preguntarse en qué manos caerá. Puede ser utilizado tanto por un círculo reducido de élites como por terroristas.

Los autores de la carta pidieron a la organización de control, y con ella a la comunidad científica, que describieran el alcance del uso nocivo de la IA. La responsabilidad que tiene una persona por su propia creación le obliga a realizar un trabajo serio para prevenir riesgos. Además de las leyes, sus creadores también deben limitar el poder de los robots, quienes tendrán que preguntarse cómo apagar las máquinas en casos extremos.

Image
Image

Video promocional:

El abuso político de los sistemas electrónicos ya ha sido demostrado a través del trabajo de redes sociales y algoritmos de análisis de datos. En la primavera de este año, un escándalo con Cambridge Analytica tronó en el mundo. Sus especialistas realizaron un análisis en profundidad de los datos de los usuarios y colocaron anuncios en Facebook, adaptados individualmente para cada persona.

Los empleados de la empresa no solo atravesaron el marco ético, sino que también aplicaron tecnologías modernas, cuyo trabajo era imposible de analizar. La efectividad del aprendizaje automático es un tema recurrente entre los principales matemáticos. Admiten al unísono que están asombrados por el extraordinario éxito de los programas de computadora, pero son completamente incapaces de comprender el trabajo de un sistema complejo. En Myanmar en abril de este año, las publicaciones de Facebook también provocaron malestar entre las masas, pero a diferencia de Estados Unidos, donde se hicieron protestas, en el estado asiático hubo una masacre, que mató a varios cientos de personas. La manipulación de un gran número de personas es una realidad y los robots aquí pueden jugarnos una broma cruel.

norte

Image
Image

Vale la pena recordar el mismo Facebook, donde se lanzaron los chatbots basados en IA. Se capacitó a asistentes virtuales para dialogar con el interlocutor. Con el tiempo, los bots se volvieron indistinguibles de las personas reales, y luego los autores decidieron unir los robots. Con el tiempo, los bots comenzaron a acortar las estructuras léxicas e intercambiar galimatías. Los medios inflaron sensación con la noticia, dicen que "las máquinas se rebelaron". Pero dejando de lado la exageración de los periodistas, es justo admitir que en el caso de que las máquinas comiencen a comunicarse entre sí, es posible que una persona no se dé cuenta de esto. Y cómo vivirán sus propias vidas allí, nadie lo sabe.

La estructura cada vez más compleja de la mente de la computadora nos aleja cada día de comprender los principios de su trabajo. Pero aunque la mayoría de los algoritmos hacen su trabajo, incluso hoy en día las máquinas complejas están lejos de ser ideales y cometen errores. Para un mayor desarrollo de la IA, es importante comprender no tanto sus fortalezas como sus vulnerabilidades. Es en esto que se concentran una gran cantidad de grupos científicos, en uno de los cuales hay un especialista del MIT Anish atali. Hace apenas un par de días, les dijo a los periodistas sobre los errores más comunes en los sistemas de reconocimiento de imágenes.

Sus colegas demostraron objetos a la máquina y descubrieron que a menudo los objetos individuales se percibían incorrectamente mediante la visión electrónica. La computadora podría llamar a una pelota de béisbol una taza de café y una tortuga impresa en 3D una máquina del ejército. El grupo ya ha recopilado alrededor de 200 elementos que son algoritmos engañosos.

Image
Image

La inteligencia artificial, en lugar de percibir un objeto como un todo, se concentra en sus parámetros individuales. La IA tiende a aprender de una muestra "perfecta". Cuando se enfrenta a fenómenos que no cumplen con las normas, no siempre puede abandonar el proceso de procesamiento habitual. En lugar de admitir su incapacidad para procesar la imagen, continúa tratando de leer la imagen y esto lleva a resultados a veces divertidos. En lugar de la forma de una tortuga, el cerebro electrónico intentó leer su textura, similar al camuflaje. Aproximadamente por la misma razón, los pilotos automáticos de automóviles electrónicos aún no son 100% confiables. Es difícil para un automóvil ver la silueta y asumir que consta de elementos separados.

Y si en los próximos años se pueden corregir algunas deficiencias, no hay garantía de que los piratas informáticos no aprovechen la vulnerabilidad. Los piratas informáticos de dispositivos electrónicos representan hoy casi la principal causa de miedo. Un pequeño equipo de programadores no solo puede obtener acceso a información personal, sino también reconfigurar sistemas autónomos, tomando el control de herramientas de enorme poder. Y entonces todos estaremos en problemas. Pero la conclusión principal que se puede extraer es quizás la tradicional: no debe temer a los automóviles, sino a las personas.

Alexander Lavrenov

Recomendado: