Las Cinco Amenazas Más Graves A La Existencia De La Humanidad - Vista Alternativa

Tabla de contenido:

Las Cinco Amenazas Más Graves A La Existencia De La Humanidad - Vista Alternativa
Las Cinco Amenazas Más Graves A La Existencia De La Humanidad - Vista Alternativa

Vídeo: Las Cinco Amenazas Más Graves A La Existencia De La Humanidad - Vista Alternativa

Vídeo: Las Cinco Amenazas Más Graves A La Existencia De La Humanidad - Vista Alternativa
Vídeo: 5 Hallazgos IMPACTANTES que la Ciencia NO es Capaz de Explicar 2024, Mayo
Anonim

Llevados por el entusiasmo por las "crisis" actuales que enfrenta la humanidad, nos olvidamos de la gran cantidad de generaciones que esperamos que vengan a reemplazarnos. No estamos hablando de aquellas personas que vivirán 200 años después de nosotros, sino de aquellas que vivirán mil o 10 mil años después de nosotros.

Utilizo la palabra “esperanza” porque nos enfrentamos a riesgos que se llaman existenciales y que pueden destruir a la humanidad. Estos riesgos están asociados no solo con desastres importantes, sino también con desastres que pueden acabar con la historia.

Sin embargo, no todos ignoran el futuro lejano. Los místicos como Nostradamus tratan regularmente de determinar una fecha para el fin del mundo. H. G. Wells intentó desarrollar una ciencia de predicción y se sabe que describió el futuro de la humanidad en The Time Machine. Otros escritores han ideado otras versiones del futuro lejano para advertir, entretener o soñar.

Pero incluso si todos estos pioneros y futuristas no pensaran en el futuro de la humanidad, el resultado seguiría siendo el mismo. No había mucho que el hombre pudiera haber hecho antes para salvarnos de una crisis existencial, o incluso para provocarla.

norte

Hoy estamos en una posición más privilegiada. La actividad humana está configurando gradualmente el futuro de nuestro planeta. Aunque todavía estamos lejos de controlar los desastres, ya estamos desarrollando tecnologías que pueden mitigar sus consecuencias, o al menos hacer algo al respecto.

El futuro es imperfecto

Sin embargo, estos riesgos aún no se comprenden bien. Hay impotencia y fatalismo con respecto a los problemas enumerados. La gente ha estado hablando de apocalipsis durante milenios, pero pocos han tratado de prevenirlos. Los seres humanos, además, no son tan fuertes en términos de problemas que aún no han aparecido (especialmente debido al impacto de la heurística de disponibilidad): la tendencia a sobreestimar la probabilidad de esos eventos, ejemplos de los cuales estamos familiarizados, y a subestimar los eventos que conocemos. no podemos recordar de inmediato).

Video promocional:

Si la humanidad deja de existir, entonces este tipo de pérdida será al menos equivalente a la pérdida de todos los individuos vivos, así como al colapso de todos sus objetivos. Sin embargo, en realidad, es probable que la pérdida sea mucho mayor. La desaparición de una persona significa la pérdida del sentido creado por las generaciones anteriores, la pérdida de la vida de todas las generaciones futuras (y el número de vidas futuras puede ser astronómico), así como todos aquellos valores que probablemente podrían crear.

Si la conciencia y la razón ya no existen, entonces esto puede significar que el valor mismo deja de existir en el universo. Esta es una razón moral muy fuerte para trabajar incansablemente para prevenir amenazas existenciales. Y en este camino, no debemos cometer un solo error.

Image
Image

Dicho esto, he seleccionado las cinco amenazas más graves para la existencia humana. Sin embargo, deben tenerse en cuenta algunas circunstancias adicionales, ya que esta lista aún no es definitiva.

Durante los últimos siglos, hemos descubierto o creado nuevos riesgos existenciales para nosotros mismos: a principios de la década de 1970, se descubrieron supervolcanes y, antes del proyecto de Manhattan, la guerra nuclear era imposible. Por tanto, deberíamos esperar que aparezcan otras amenazas. Además, algunos de los riesgos que hoy parecen graves pueden desaparecer a medida que se acumula el conocimiento. La probabilidad de ciertos eventos también cambia con el tiempo. A veces, esto sucede porque nos preocupan los riesgos existentes y estamos abordando sus causas.

Finalmente, el hecho de que algo sea posible y potencialmente riesgoso no significa que valga la pena preocuparse por ello. Existen riesgos con los que no podemos hacer nada en absoluto, por ejemplo, los flujos de rayos gamma que surgen de la explosión de galaxias. Pero si descubrimos que somos capaces de hacer algo, las prioridades cambian. Así, por ejemplo, con la mejora de las condiciones sanitarias, el advenimiento de las vacunas y los antibióticos, la plaga comenzó a percibirse no como una manifestación de castigo divino, sino como consecuencia del mal estado de la asistencia sanitaria.

1. Guerra nuclear

Si bien hasta ahora solo se han utilizado dos bombas atómicas, en Hiroshima y Nagasaki durante la Segunda Guerra Mundial, y las existencias han disminuido desde sus picos de la Guerra Fría, sería un error pensar que la guerra nuclear es imposible. De hecho, no parece increíble.

Image
Image

La crisis de los misiles cubanos estuvo muy cerca de convertirse en nuclear. Si partimos del supuesto de que tal crisis ocurre cada 69 años y hay una posibilidad entre tres de que pueda conducir al estallido de una guerra nuclear, entonces la posibilidad de tal catástrofe aumenta y el coeficiente correspondiente será de 1 en 200 por año.

Peor aún, la Crisis de los Misiles en Cuba es solo el caso más famoso. La historia de la disuasión nuclear soviético-estadounidense está plagada de situaciones de crisis y errores peligrosos. La probabilidad real ya no depende de la tensión internacional, sin embargo, es poco probable que la probabilidad de un conflicto nuclear sea menor que un coeficiente de 1 en 1000 por año.

Una guerra nuclear a gran escala entre las principales potencias provocaría la muerte de cientos de millones de personas directamente en el momento del intercambio de huelgas o como resultado de sus consecuencias: sería una catástrofe impensable. Sin embargo, para el riesgo existencial, esto todavía no es suficiente.

Lo mismo debería decirse sobre los riesgos asociados con las consecuencias de las explosiones nucleares, que a menudo son exagerados. Localmente son letales, pero globalmente son un problema relativamente limitado. Las bombas de cobalto se han propuesto como un arma hipotética apocalíptica capaz de destruirlo todo como consecuencia de las consecuencias asociadas a su uso, pero en la práctica son muy difíciles de fabricar y caras. Y su creación, de hecho, es imposible.

La verdadera amenaza es el invierno nuclear, es decir, partículas de hollín que pueden subir a la estratosfera y, por lo tanto, provocar una caída a largo plazo de la temperatura y la deshidratación del planeta. Las simulaciones climáticas actuales muestran que esto haría imposible cultivar gran parte del planeta durante muchos años.

Si este escenario se hace realidad, miles de millones de personas morirán de hambre y un pequeño número de supervivientes estarán expuestos a otras amenazas, incluidas las enfermedades. La principal incertidumbre es cómo se comportarán las partículas de hollín que se elevan al cielo: dependiendo de su composición, el resultado puede ser diferente, y hasta ahora no tenemos una forma fiable de medir este tipo de consecuencias.

2. Pandemias provocadas por la bioingeniería

Las pandemias naturales han causado más muertes que guerras. Sin embargo, es poco probable que las pandemias naturales representen una amenaza existencial. Por lo general, hay personas que son inmunes a los patógenos y los descendientes de los sobrevivientes están aún más protegidos.

Image
Image

La evolución tampoco apoya particularmente a los parásitos que destruyen los organismos huéspedes, razón por la cual la sífilis, a medida que se propaga en Europa, ha pasado de ser un asesino atroz y una enfermedad crónica.

Desafortunadamente, ahora nosotros mismos podemos hacer que las enfermedades sean más destructivas. Uno de los ejemplos más conocidos es cómo la inclusión de un gen adicional en la viruela del ratón, la variante de la viruela del ratón, la hizo mucho más peligrosa para la vida y capaz de infectar a personas ya vacunadas. El trabajo reciente con la influenza aviar ha demostrado que la infecciosidad de la enfermedad se puede aumentar intencionalmente.

Actualmente, el riesgo de que alguien propague deliberadamente algún tipo de infección maliciosa es insignificante. Sin embargo, a medida que la biotecnología mejore y se vuelva más barata, cada vez más grupos podrán hacer que la enfermedad sea aún más peligrosa.

La mayor parte del trabajo en el campo de las armas biológicas lo llevan a cabo los Estados que quieren controlar algo, ya que la destrucción de la humanidad no es útil militarmente. Sin embargo, siempre habrá personas que vengan a hacer algunas cosas simplemente porque son capaces de hacerlo. Otros pueden tener metas más elevadas.

Por ejemplo, miembros del grupo religioso Aum Shinrikyo intentaron acelerar el inicio del apocalipsis mediante el uso de armas biológicas, no solo mediante su ataque más exitoso con gas nervioso. Algunas personas creen que la situación en la Tierra mejorará si no hay más seres humanos en ella, y así sucesivamente.

El número de muertes por el uso de armas biológicas y enfermedades epidémicas hace pensar que se desarrollan según una ley de poder: en un gran número de casos hay pocas víctimas, pero en un pequeño número de casos hay muchas víctimas. Dados los datos actualmente disponibles, el riesgo de una pandemia mundial de bioterrorismo parece ser pequeño.

norte

Pero esto se aplica solo al bioterrorismo: los gobiernos con la ayuda de armas biológicas mataron significativamente más personas que los bioterroristas (alrededor de 400 mil personas fueron víctimas del programa de guerra biológica japonés durante la Segunda Guerra Mundial). La tecnología se está volviendo más poderosa, lo que facilita la creación de aún más patógenos en el futuro.

3. Superinteligencia

La inteligencia es poderosa. El aumento marginal en la resolución de problemas y la coordinación del grupo es la razón por la que el resto de las especies de monos están sin trabajo. En la actualidad, su existencia depende de las decisiones que tome la persona y no de lo que haga.

Image
Image

Ser inteligente es una verdadera excelencia para las personas y las organizaciones, y por ello se dedica mucho esfuerzo a mejorar nuestra inteligencia individual y colectiva, desde las drogas para mejorar las capacidades cognitivas hasta el desarrollo de programas relacionados con la inteligencia artificial.

El problema es que los sistemas inteligentes funcionan bien para lograr sus objetivos, pero si estos objetivos están mal definidos, entonces tienen la capacidad de usar su poder para lograr sus objetivos catastróficos de una manera inteligente. No hay razón para pensar que el intelecto mismo sea capaz de hacer que algo o alguien actúe correcta y moralmente. De hecho, existe la posibilidad de que algunos tipos de sistemas superinteligentes desafíen las reglas morales incluso si fueran posibles.

Aún más preocupante es el hecho de que, al intentar explicarle las cosas a la inteligencia artificial, nos enfrentamos a profundos problemas prácticos y filosóficos. Los valores humanos son cuestiones vagas y complejas que aún no podemos definir bien, e incluso si pudiéramos, es posible que no comprendamos todas las implicaciones de lo que estamos tratando de crear.

La inteligencia basada en software puede cerrar la brecha con los humanos muy rápidamente y las capacidades de la máquina pueden volverse peligrosas. El problema es que la inteligencia artificial puede relacionarse con la inteligencia biológica de diferentes maneras: puede funcionar más rápido en computadoras más rápidas, partes de ella pueden ubicarse en más computadoras, algunas versiones pueden probarse y actualizarse sobre la marcha, y Existe la posibilidad de introducir nuevos algoritmos que pueden aumentar drásticamente el rendimiento.

Hoy en día, muchos asumen que es probable que se produzca un "gran avance en inteligencia" si los propios programas tienen la capacidad suficiente para producir mejores programas. Si se produce este tipo de salto, habrá una gran diferencia entre el sistema inteligente (o la gente que le dice qué hacer) y el resto del mundo. Una situación así podría muy bien conducir al desastre si los objetivos no se establecen correctamente.

Lo inusual de la superinteligencia es que no sabemos si es posible un avance rápido y poderoso en el desarrollo de la inteligencia: tal vez nuestra civilización actual en su conjunto se esté mejorando al ritmo más alto. Sin embargo, hay razones suficientes para creer que algunas tecnologías pueden hacer avanzar ciertas cosas mucho más rápido que las posibilidades de mejorar su control por parte de la sociedad moderna.

Además, todavía no podemos comprender cuán peligrosas pueden ser algunas formas de superinteligencia y cómo funcionarán las estrategias de mitigación. Es muy difícil especular sobre tecnologías futuras que aún no tenemos, o inteligencia que supera lo que tenemos. Entre los riesgos enumerados, es precisamente este el que tiene más posibilidades de convertirse en realmente a gran escala o seguir siendo solo un espejismo.

En general, esta área aún no ha sido suficientemente estudiada, lo que es sorprendente. Incluso en las décadas de 1950 y 1960, la gente estaba plenamente convencida de que la superinteligencia podía crearse "en el transcurso de una generación", pero en ese momento no se prestó la debida atención a los problemas de seguridad. Quizás la gente simplemente no tomó en serio sus predicciones y, muy probablemente, lo consideró un problema en un futuro lejano.

4. Nanotecnología

La nanotecnología se trata de controlar la materia con precisión atómica o molecular. Por sí solo, no es peligroso y, por el contrario, puede ser una muy buena noticia para muchos usos. El problema es que, al igual que en la biotecnología, las oportunidades crecientes también aumentan el potencial de abuso del que es muy difícil defenderse.

Image
Image

El gran problema no es la notoria "sustancia grisácea" de las nanomáquinas autorreplicantes que lo devoran todo. Esto requerirá la creación de dispositivos muy sofisticados. Es difícil crear una máquina que pueda reproducirse a sí misma: la biología, por definición, es mejor en este tipo de tarea. Quizás algunos maníacos puedan hacer esto, pero hay frutos más accesibles en el árbol de las tecnologías destructivas.

El riesgo más obvio es que la fabricación automática de precisión parece ser ideal para la fabricación barata de cosas como armas. En un mundo en el que muchos gobiernos tendrán la capacidad de "imprimir" un gran número de sistemas de armas autónomos o semiautónomos (incluida la posibilidad de aumentar su producción), la carrera armamentista puede volverse muy intensa, y el resultado es una mayor inestabilidad, por lo que puede ser muy tentador lanzar un primer ataque. hasta el momento en que el enemigo obtiene una gran ventaja.

Las armas también pueden ser de tamaño muy pequeño y muy precisas: pueden ser "venenos inteligentes" que pueden actuar no solo como un gas nervioso, sino también seleccionar a sus víctimas, o micro-robots omnipresentes (gnatbots), sistemas de vigilancia en miniatura para mantener a la población obediente. - todo esto es bastante posible. Además, las armas e instalaciones nucleares que afectan al clima pueden caer en manos de intrusos.

No podemos estimar la probabilidad de riesgo existencial que plantea la nanotecnología futura, pero, aparentemente, pueden ser bastante destructivas simplemente porque son capaces de dar lo que queramos.

5. Desconocido misterioso

La posibilidad más alarmante es que haya algo mortal en el mundo, pero no sabemos qué es.

Image
Image

El silencio en el cielo puede ser un testimonio de esto. ¿La ausencia de extraterrestres se debe al hecho de que la vida y la inteligencia son muy raras, o porque la vida inteligente tiende a destruirse? Si hay un Gran Filtro en el futuro, entonces otras civilizaciones deberían haberlo notado, pero ni siquiera eso ayudó.

Cualquiera que sea la amenaza, sería casi inevitable incluso si fuera consciente de su existencia, independientemente de quién sea o lo que realmente sea. No sabemos nada sobre este tipo de amenaza (ninguna de las amenazas anteriores funciona de esta manera), pero pueden existir.

Tenga en cuenta que la presencia de algo desconocido no significa que no podamos razonar sobre ello. Un artículo de Max Tegmark y Nick Bostrom muestra que un conjunto determinado de riesgos debería tener una proporción de menos de uno en mil millones por año, según la edad relativa de la Tierra.

Puede que le sorprenda que el cambio climático y los impactos de meteoritos no estén en esta lista. Es poco probable que el cambio climático, por terrible que sea, haga que todo el planeta sea inhabitable (pero podría plantear amenazas adicionales si nuestras defensas resultan ineficaces). Los meteoritos, por supuesto, pueden borrarnos de la faz de la Tierra, pero en este caso, debemos ser grandes perdedores.

Por lo general, un determinado tipo de mamífero ha existido durante aproximadamente un millón de años. Por lo tanto, la principal tasa de extinción natural es de aproximadamente una en un millón por año. Esto es significativamente menor que el riesgo de una guerra nuclear, que, 70 años después, sigue siendo la mayor amenaza para nuestra existencia continua.

Las heurísticas de disponibilidad nos obligan a sobrestimar los riesgos que a menudo se discuten en los medios de comunicación y minimizar los riesgos que la humanidad aún no ha enfrentado. Si queremos seguir existiendo incluso después de un millón de años, debemos corregir esta situación.

Anders Sandberg

Ciencia popular

Recomendado: