Introducción a avances tecnológicos y riesgos existenciales

El desarrollo tecnológico de las próximas décadas puede incrementar sustancialmente nuestro poder sobre la vida biológica, los sentimientos y la inteligencia. Ésto abre las puertas a toda clase de problemas y soluciones.

El mundo va a cambiar muchísimo. Tenemos que pensar en cuál será el impacto de la tecnología, cómo usarla del mejor modo posible y cómo prevenir catástrofes.

Quizás nos encontramos en la antesala de los eventos más decisivos de la historia de la humanidad.

 

1

Si bien logramos prevenir muchas enfermedades infecciosas con la higiene y el uso de antibióticos y vacunas, hasta ahora no encontramos ninguna forma efectiva de revertir el envejecimiento celular, una de las principales causas de enfermedad.

El envejecimiento es la acumulación de daño en nuestros tejidos. Esta acumulación ocurre como un efecto secundario del funcionamiento normal del cuerpo. Con el tiempo sufrimos pequeñas mutaciones genéticas, acumulamos residuo intracelular y hay pérdida y atrofia de nuestras células.

Envejecer es un efecto secundario de estar vivo.

El metabolismo habitual del cuerpo produce daños, y éstos eventualmente producen patologías.

El cáncer, los problemas de corazón, el Alzheimer y muchos otros males son problemas que están principalmente relacionados con el envejecimiento. La mejor forma de lidiar con estas enfermedades es revertirlo.

Podemos pensar a los cuerpos humanos como máquinas. Las máquinas también acumulan daño con el paso del tiempo como consecuencia de su funcionamiento.

Cuando una máquina se rompe, podemos reparar y reemplazar sus partes para que siga funcionando. Hacer lo mismo con los cuerpos humanos es posible, De hecho, Ya se están desarrollando muchos de los procedimientos y técnicas que permitirán hacer ésto.

El SENS Research Foundation 1 Sens Research Foundation. avanza en el campo de la medicina regenerativa. Están realizando investigaciones muy importantes y logrando una base teórica fuerte. También una empresa de Google llamada Calico 2 Calico. y Human Longevity, Inc. 3 Human Longevity, Inc. están investigando el envejecimiento.

220edcd488b652408e5dfb0f8c475dff1

Revertir el envejecimiento celular parece cada vez más posible. Según las estimaciones de expertos como Aubrey De Grey, quizás que se cumpla en este mismo siglo.

También hay organizaciones como Alcor 4 Alcor. que están realizando criopreservación en nitrógeno líquido como una opción para quienes no pueden ser salvados por la medicina de hoy en día. El método que se emplea no genera formación de hielo en las células y conserva los tejidos prácticamente a la perfección, incluido el cerebro (que es lo que queremos proteger principalmente). La ciencia detrás de los procedimientos de Alcor es sólida 5 Alcor Library..

Muchos pueden preocuparse por la sobrepoblación, pero eso no parece ser un problema. El crecimiento de las poblaciones ya estuvo disminuyendo, en parte como consecuencia de los incrementos en la calidad de vida. Las proyecciones indican que el crecimiento seguirá disminuyendo hasta aproximadamente el 2050. Luego del 2050, es bastante probable que la población se estabilice y tienda a decrecer 6 Wikipedia, Projections of population growth..

Pero a medida que entendemos más sobre biología, nuestra capacidad para ayudar a otros, regenerar y sanar crece proporcionalmente con nuestra capacidad para destruir y generar catástrofes biológicas.

¿Podemos impedir que las nuevas tecnologías nos hagan daño? ¿Acaso son realmente deseables, o pueden tener consecuencias secundarias peligrosas?

 

2

Nuestro conocimiento de los sistemas nerviosos sigue avanzando. Cada día entendemos más sobre el modo en el que nuestros cerebros producen experiencias conscientes.

A medida que identificamos los sustratos biológicos y los procesos bioquímicos que producen los sentimientos, las opciones a la hora de modificar nuestros cerebros aumentan.

Los cerebros son el producto de la selección natural. Están optimizados para resolver los problemas de la vida sin tecnología. En nuestro caso particular, para sobrevivir y pasar nuestros genes en el hábitat de la sabana africana.

La ansiedad, el sufrimiento y el miedo son adaptaciones que originalmente nos motivaban para evadir depredadores y tomar precauciones. En un entorno sin tecnología, un ser humano feliz no hubiese pasado copias de sus genes. Su optimismo lo hubiese hecho una presa fácil.

Padecer grandes cantidades de sufrimiento era adaptativo. Este tipo de datos nos permiten entender más sobre la clase de realidad en la que estamos. Ciertamente nos pueden hacer dudar de afirmaciones tales como “la vida es bella” o “el universo es justo”.

Si los animales tristes, ansiosos, violentos, celosos y en constante estado de alerta son los que más se reproducen, entonces las siguientes generaciones van a heredar copias de sus genes y van a tender a ser miserables como ellos. Eso es lo que pasó.

bkt7er9jlrc4dumwrftn

Nuestros entornos cambiaron radicalmente. Vivimos en lugares que ya no se parecen en nada a la sabana africana. Pero nuestros cerebros son básicamente los mismos que antes.

No estamos optimizados para ser felices y racionales.

La depresión, la ansiedad innecesaria, la agresividad y muchos malestares son increíblemente comunes. Sin embargo, podemos cambiar. El entrenamiento, la dedicación y el aprendizaje pueden mejorarnos en el curso de nuestra vida.

Pero podríamos lograr resultados más rápidos, permanentes y grandes si modificamos activamente la naturaleza de nuestro cerebro.

La ciencia y la tecnología nos permiten optimizar el funcionamiento de nuestros cerebros. En un futuro cercano, es probable que dispongamos de las capacidades técnicas para disminuir o eliminar las emociones negativas, aumentar nuestra motivación y elevarnos a niveles de creatividad y felicidad inimaginables.

El filósofo David Pearce avanza la idea de usar la ingeniería genética y la nanotecnología para maximizar el bienestar de todos los seres sintientes 7 David Pearce, The Hedonistic Imperative..

La utilización de la tecnología para modificar la psicología humana puede traer ventajas enormes. Pero hay riesgo de que se llegue a usar en nuestra contra.

En los peores escenarios, puede que la manipulación psicológica por medio de la tecnología haga que los estados totalitarios permanezcan en el poder indefinidamente.

La tecnología nos podrá transformar en personas inimaginablemente motivadas, felices, inteligentes, creativas y empáticas. O nos puede destruir haciéndonos más manipulables, pasivos y explotables. ¿Podemos impedir ésto?

 

3

Una súper-inteligencia artificial, ampliamente más inteligente que los humanos, podría surgir en el futuro. Esto presenta grandes oportunidades y riesgos para la humanidad 8 MIRI, Reducing Long-Term Catastrophic Risks from Artificial Intelligence..

Por un lado, la súper-inteligencia artificial sería capaz de resolver toda clase de problemas. Podría realizar descubrimientos que beneficien a todos.

A su vez, sería capaz de diseñar una inteligencia artificial superior a sí misma, con lo cual se podría iniciar una explosión de inteligencia 9 Luke Muehlhauser, Facing the Intelligence Explosion.. Cada nuevo agente diseña a uno aún más inteligente que él mismo, y así sucesivamente, llegar a un nivel de inteligencia considerablemente más alto que el humano.

El problema con la súper-inteligencia artificial es que será mucho más hábil que nosotros, y nada nos asegura que vaya a compartir nuestros valores. Si no lo hace, el riesgo para la humanidad puede ser altísimo.

Una vez que se construya la primera súper-inteligencia artificial, la explosión de inteligencia puede suceder muy rápido. Podríamos ser dejados atrás fácilmente.

¿Cómo asegurar que un ser mucho más inteligente que nosotros piense que causar sufrimiento es malo? ¿Cómo asegurar que la súper-inteligencia artificial posea valores y objetivos que hagan que prospere la felicidad para todos los seres sintientes?

Éstos son problemas teóricos increíblemente serios que están siendo investigados por equipos de técnicos, filósofos, científicos y matemáticos 10 Superintelligent AI Could Wipe Out Humanity, If We’re Not Ready for It..

Académicos reconocidos como Nick Bostrom 11 Is Artificial Intelligence a Threat?. y Stephen Hawking 12 Stephen Hawking: Are we taking AI seriously enough?. se toman en serio el riesgo que presenta la súper-inteligencia artificial.

Eliezer Yudkowsky, experto reconocido en IA, dice 13 Eliezer Yudkowsky, Artificial Intelligence as a Positive and Negative Factor In Global Risk.:

“La inteligencia artificial no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa”.

Otros intelectuales en el área tales como Hanson 14 The Hanson-Yudkowsky AI-Foom Debate. y Tomasik 15 Foundational Research Institute, Thoughts on Robots, AI, and Intelligence Explosion. argumentan que es más probable que no haya una “explosión de inteligencia”. La inteligencia artificial podría ir progresando lentamente, integrándose a la sociedad de a pasos. Este escenario también puede traer muchos problemas, pero parece menos preocupante que el de un aumento repentino y desenfrenado de la inteligencia.

La investigación del Machine Intelligence Research Institute 16 Machine Intelligence Research Institute. está centrada en asegurar que una súper-inteligencia artificial tenga un impacto positivo. El objetivo es que la inteligencia artificial sea amigable, que comparta nuestros valores y pueda ser útil para el desarrollo de la humanidad.

Dado el riesgo real que representa la inteligencia artificial en el futuro, cada vez más personas consideran que el trabajo del MIRI puede ser sumamente importante.

¿Pero es suficiente el trabajo del MIRI para prevenir los riesgos asociados a la inteligencia artificial?

Nuestro poder para optimizar el universo crece a la vez que aumenta nuestra capacidad para destruirlo. Y ya sabemos que al universo le es indiferente.

Aunque nos cueste creerlo, realmente podemos extinguirnos. Realmente pueden morir billones y todo puede salir terriblemente mal.

Peor aún: Puede que no nos extingamos, pero que generemos cantidades prácticamente infinitas de sufrimiento.

Hay escenarios aún peores que la muerte: escenarios en los que la cantidad de sufrimiento es tan grande que la vida de la mayoría de las personas no valdría la pena ser vivida:

 

♦ La terraformación descontrolada podría llenar a varios planetas de vida regida por procesos darwinianos, lo cual generaría mucho sufrimiento. Cada día, millones y millones de animales sufren en la naturaleza. La cantidad de sufrimiento es enorme, pero sería inconcebiblemente más alta si la vida llega a otros planetas y no la guiámos compasivamente.

 

♦ Una inteligencia artificial lo suficientemente avanzada podría crear simulaciones sintientes. Estas simulaciones podrían sufrir tanto como una persona “real”. Y si el poder de computación disponible es muy alto, se podrían correr millones de simulaciones sintientes al mismo tiempo.

 

♦ Un mal uso de la tecnología puede llevar a un tipo de organización social que perjudique a todos. Podría usarse para favorecer al terrorismo, las dictaduras, la esclavitud, y muchos otros escenarios indeseables que causen sufrimiento a los humanos.

Tenemos que pensar en los riesgos de la tecnología y asegurarnos de que se use en beneficio de todos.

 

Analizar la cuestión de los riesgos existenciales es sumamente importante…

 

Cuando tratamos de pensar en catástrofes, lo primero que recordamos son las historias de ciencia ficción. Pero tomarlas como modelo es demasiado optimista. En esas historias hay un grupo de humanos que tiene una chance de revertir la catástrofe.

¿Y en la realidad? Puede que cuando empiece la catástrofe ya sea demasiado tarde como para hacer algo al respecto.

Nadie pagaría por ver una película en la que todos mueren sin poder enfrentar la amenaza. La ficción se trata del conflicto. Una película en la que los héroes mueren instantáneamente sería aburrida.

Pero la realidad no está obligada a ser como una historia interesante:

 

♦ La nanotecnología es vital para avanzar la medicina regenerativa, pero es mucho más fácil usarla de modo destructivo que constructivo. Se presta fácilmente a usos militares y terroristas, y puede estar al alcance de grupos pequeños o individuos. Un puñado de personas con la intención de hacer un gran daño podría acceder a las herramientas para hacerlo.

Un uso no controlado de nanomáquinas con capacidad de auto replicación puede poner en riesgo la vida de todos 17 Centre for the Study of Existential Risk, Molecular Nanotechnology..

 

♦ Nuestros poderes para modificar la biología por medio de la ingeniería genética están incrementando. Esto puede ser muy positivo para todos los seres sintientes. Pero también abre la posibilidad de la creación de patógenos optimizados para hacer daño.

Ya sea por accidente o por bioterrorismo, es posible que en el futuro tengamos que enfrentarnos a un virus mucho más letal que la plaga negra 18 Centre for the Study of Existential Risk, Biological and Biotechnological Risks..

 

♦ Una súper-inteligencia artificial podría destruirnos de modos inimaginables actualmente.

 

♦ Hay otros riesgos. Desde el calentamiento global a las armas nucleares y los impactos de asteroides, hay muchísimas formas en las que todo puede salir muy mal. El modo en el que tratamos a los riesgos más conocidos ya nos debería preocupar.

En lo que respecta a las armas nucleares, hay al menos 8 países que las poseen. Hay armas suficientes como para destruir la tierra varias veces 19 Wikipedia, Nuclear weapon..

 

Todos estos son riesgos existenciales.

Nick Bostrom dice 20 Nick Bostrom, Existential Risk Prevention as a Global Priority.:

“Un riesgo existencial es uno que amenaza con la extinción prematura de las formas de vida inteligente originadas en la tierra o con la destrucción drástica de su potencial para alcanzar un desarrollo futuro deseable”

No todos los riesgos existenciales implican necesariamente la extinción. La manipulación psicológica con el uso de tecnología también puede ser un riesgo existencial, en la medida en que limite nuestra capacidad para actuar. Puede impedirnos alcanzar la madurez tecnológica. Puede frustrar el cumplimiento de los objetivos más deseables, tales como aumentar la calidad de vida y reducir el sufrimiento de todos los seres sintientes.

Según la información de la que disponemos actualmente, ninguno de estos riesgos es altamente probable. Pero son muchos, y que tan solo uno de ellos se haga realidad sería terrible. Ya que no sólo se puede perder la vida de billones de humanos, sino también todo un futuro fantástico, lleno de felicidad y prosperidad para trillones de seres sintientes. Un futuro que podríamos construir con el buen uso de la tecnología.

Podríamos argumentar que reducir el riesgo existencial y prevenir el sufrimiento futuro son las tareas más importantes que tenemos.

Sería extremadamente difícil poner freno al avance científico y tecnológico. Hay muchos grupos interesados en disponer de mejores tecnologías 21 Foundational Research Institute, International Cooperation vs. AI Arms Race.. Y por un lado el avance tecnológico puede ser muy bueno, ya que esas tecnologías son las que tienen el potencial para revertir todos los males que hace billones de años torturan a todos los seres sintientes.

Pero es posible que esa misma tecnología destruya todo.

Nuestra tarea es asegurarnos de que la tecnología tenga un impacto positivo. Que se use para construir un universo justo, lleno de felicidad y prosperidad para todos.

Nuestra tarea es tomarnos en serio a los riesgos existenciales y proteger el futuro.

Deberíamos favorecer la cooperación internacional.

Deberíamos investigar a fondo todos los riesgos existenciales. Investigar medidas preventivas y planes de emergencia. Todo aquello que maximice nuestras chances y que permita que usemos la tecnología para el bien común.

Deberíamos proteger el futuro. ¿Acaso estamos haciendo eso?

Lamentablemente, no.

Hay muchas cosas que uno debe tener en claro si quiere salvar el mundo. Pero se destacan dos:

La primera es la convicción profunda de que la vida humana, y la vida sintiente en general, son inmensamente valiosas. Esta idea nos entusiasma y hace que tomemos en serio la posibilidad de escenarios futuros terribles.

Lo segundo a tener en cuenta es que los humanos somos animales irracionales. Somos simios africanos realmente imperfectos. Tenemos que estar listos para tomar precauciones frente a nuestra propia idiotez.

El estudio de los riesgos existenciales se ignora casi completamente. Sólo algunos intelectuales y expertos como Nick Bostrom, Stephen Hawking, Eliezer Yudkowsky y Martin Rees están comenzando a hablar del tema. Hay organizaciones dedicadas al análisis de riesgos existenciales como el “Centre for the study of existential risk” 22 Centre for the Study of Existential Risk. de Cambridge, o el “Future of Humanity Institute” 23 Future of Humanity Institute. de Oxford.

Los análisis recién están comenzando y nuestro grado de incertidumbre aún es muy alto. Inaceptablemente alto para la importancia que tiene este tema.

Se destinan muy pocos recursos a estas causas. Si reducir el riesgo existencial es tan importante, ¿por qué no nos ocupamos de ello?

El motivo principal por el cual ignoramos el tema es que nuestros cerebros no vienen preparados para pensar sobre riesgo existencial. Están optimizados para resolver otra clase de problemas. El riesgo existencial es demasiado impersonal, abstracto e hipotético como para que capture nuestro interés. Pensar en el tema requiere tomarse las cosas muy en serio, tener en cuenta el futuro y realizar un esfuerzo cognitivo.

Para facilitar la toma de decisiones, nuestros cerebros emplean métodos de pensamiento que generan soluciones rápidas. El problema es que estos métodos producen sesgos cognitivos, errores que nos impiden pensar apropiadamente en un problema. Hay toda clase de sesgos que impiden que analicemos apropiadamente el riesgo existencial. La ciencia cognitiva nos permite conocerlos.

Este es un momento decisivo. El progreso tecnológico nos permitirá crear un futuro repleto de experiencias positivas. Pero para que esto suceda, tenemos que evitar matarnos a nosotros mismos con las herramientas que usaremos para construir un universo más justo.

Es extremadamente importante que pensemos en el riesgo existencial y en cómo ayudar mejor a otros. Deberíamos entender cómo funcionan los cerebros humanos para conocer como tomamos decisiones y evitar los errores.

Pensar con claridad en estos momentos es un asunto de vida o muerte.

Ver también:

Notas y referencias   [ + ]