Inteligencia Artificial: ¿un Arma De Doble Filo? - Vista Alternativa

Inteligencia Artificial: ¿un Arma De Doble Filo? - Vista Alternativa
Inteligencia Artificial: ¿un Arma De Doble Filo? - Vista Alternativa
Anonim

Decimos que los robots se levantarán. Eso se apoderará del mundo, tomará el control de todo. Hemos escuchado estas advertencias durante décadas y hoy, a principios del siglo XXI, el número de estas advertencias solo está creciendo. Existe un miedo creciente a la inteligencia artificial que acabará con nuestra especie.

Tales guiones no solo se adquieren en Hollywood, sino que también encuentran cada vez más partidarios en el campo científico y filosófico. Por ejemplo, Ray Kurzweil escribió que el crecimiento exponencial de la inteligencia artificial conducirá a una singularidad tecnológica, el punto donde la inteligencia de la máquina superará a la inteligencia humana. Algunos ven esto como el fin del mundo, otros ven solo oportunidades. Nick Bostrom cree que la superinteligencia nos ayudaría a lidiar con las enfermedades, la pobreza y la destrucción del medio ambiente, así como a mejorarnos a nosotros mismos.

El martes, el famoso científico Stephen Hawking se unió a las filas de los profetas de la singularidad, más precisamente, a su grupo pesimista, ya que le dijo a la BBC que "el desarrollo de la inteligencia artificial en toda regla puede significar el fin de la raza humana". Él cree que los humanos no podrán competir con la IA, que podrá reprogramarse y alcanzar un nivel muy superior al humano. Sin embargo, Hawking también cree que no deberíamos intentar contactar con los extraterrestres en absoluto, ya que solo tendrán un objetivo: someternos o destruirnos por completo.

El problema con estos escenarios no es que estén inevitablemente equivocados: ¿quién puede predecir el futuro? - o no creer en los guiones de ciencia ficción. Esto último es inevitable si desea comprender y evaluar las tecnologías modernas y su impacto en nosotros en el futuro. Es importante poner nuestras preguntas filosóficas sobre la mesa en tales escenarios y examinar nuestros miedos para descubrir qué es lo que más nos importa.

norte

El problema de centrarse exclusivamente en la inteligencia artificial en el contexto del "día del juicio final" y otros escenarios fatales es que nos distrae de otros problemas éticos y sociales más urgentes e importantes que surgen en relación con los avances tecnológicos en estas áreas. Por ejemplo, ¿existe un lugar para la privacidad en el mundo de las tecnologías de la información y la comunicación? ¿Google, Facebook y Apple están amenazando la libertad en el mundo tecnológico? ¿Una mayor automatización conducirá a la pérdida de puestos de trabajo? ¿Pueden las nuevas tecnologías financieras amenazar la economía global? ¿Cómo afectan los dispositivos móviles al medio ambiente? (Para crédito de Hawking, mencionó la privacidad en las entrevistas, pero aún así habló del fin de la era humana).

Estas preguntas son mucho menos atractivas que la superinteligencia o el fin de la humanidad. Tampoco plantean preguntas sobre inteligencia o robots; se refieren al tipo de sociedad que necesitamos y cómo queremos ver nuestra vida.

Estas preguntas son antiguas, surgieron desde la propia aparición de la ciencia y la filosofía, y las crecientes tecnologías de la información de hoy, que están cambiando nuestro mundo, nos hacen pensar en ellas nuevamente. Esperemos que las mejores mentes humanas de nuestro tiempo concentren la mayor parte de sus energías en encontrar respuestas a las preguntas correctas, en lugar de en la demagogia en torno a amenazas exageradas.

Ilya Khel

Video promocional:

Recomendado: