¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.

 

¿Nos estamos acercando al final de la especie humana?

 

human-evolution

La relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo. El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, ej., que un virus se escape de un laboratorio.

Aquí vamos a considerar, preferentemente, los escenarios que tienen que ver con la acción humana, por eso no se tienen se destacan otros como los supervolcanes, tsumani, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la mala manipulación humana de los virus y de experimentos no seguros.

Exterminio o degradación de la especie humana (perdida de la naturaleza humana)

Los peligros de la extinción humana pueden provenir por varias vías:

1.- Extinción por fuerzas externas. Ej, choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser  humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

  • La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Un estado que lo controla y lo sabe todo
  • Escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

¿Cuáles son los mayores peligros?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

La nanotecnología, trabajar a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

La inteligencia artificial

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”.

Se puede producir una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos?

Programa actuales para el desarrollo de la IA: Satanford, 100 anos para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc. Todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas.

¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tale como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una posthumanidad.

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano (transhumanismo de carácter liberal). Estaremos ante una endosimbiosis mutual

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución.

En nuestros tiempos debido al desarrollo tecnológico, las amenazas aun son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

Con respecto a la política que pasara si en un futuro próximo, el presidente de EEUU, es una transhumanista, ya se está postulando un transhumanista a la presidencia. ¿Estará las tecnologías de mejoramiento al alcance de todos? Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologias emergentes (nano, bio, info y cogno) se puede alcanzar la posthumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida posthumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho ya estamos ante un crecimiento incontrolado de la población.

Los riesgos desde el transhumanismo

Una de las mayores preocupaciones de Bostrom creador del transhumanismo, es que no se llegue a alcanzar la posthumanidad, de ahí su preocupación a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para él, la única solución viable para la humanidad. También le preocupa que existan problemas tecnológicos, que no permitan llevarla a la práctica y aquí surge una de las hipótesis más importantes: la acelerada degradación del planeta, calentamiento global, contaminación, consumo de recursos no llevará a corto plazo a la muerte del planeta y convirtiéndolo en un lugar inhóspito sin dar tiempo a que la tecnología se desarrolle lo suficiente y no se pueda alcanzar la meta de una posthumanidad. De ahí la tesis de los tecnofuturistas de apostar por la aceleración de la tecnología a toda costa, con el fin de tener alternativas artificiales que sustituyan la vida actual.

  • Criogenización y superpoblación.
  • Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
  • Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica
  • Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

4.-La extinción en un futuro por las propias tecnologías. Las máquinas como herederas del planeta. Una superinteligencia artificial que controla el planeta (Moravec)

Ante el surgimiento de una IA superior a los humanos podría suceder

La humanidad como mascota (humano dócil)

  • Las máquinas le darán un trato benigno a los humanos. Los mantienen, los alimentan.

La humanidad se integra a las tecnologías

  • Vivir en un entorno artificial. Ej., recargar la mente (posthumano) – Estaremos ante una endosimbiosis parasitaria (tecnocentrismo)

5.-Involucion de la especie humana. Prohibición de las tecnologías o un control muy estricto de las mismas que limita el progreso tecnológico. Es una forma de autoextinción, ya que se produce un estancamiento voluntario ante el temor a las tecnologías  (bioludismo) Esto lleva a un retorno a la era biológica (biocentrismo). Estaremos ante una ectosimbiosis parasitaria

Este escenario es más lógico que se produzca después de una guerra mundial

Soluciones para preservar el progreso humano y conservar de alguna forma la condición humana.

1.- Control de las tecnologías para que estas sean un medio para el progreso humano. Estamos hablando de un control inteligente donde se busca que las tecnologías sean lo más beneficiosa posible (bioconservadores). Esto lleva a conservar la era actual socioeconómica. Estaremos ante una ectosimbiosis comensal. Se corre el peligro de frenar el progreso y caer en una forma de bioludismo

2.-Modificaciones controladas de la especie humana. Mejoramiento por medio de la biotecnología, prótesis (tecnoprogresismo). Estaremos ante una endosimbiosis comensal Se corre el peligro de caer en un transhumanismo de corte libera y terminar siendo un ciborg.

3.-Colaboración humanos-tecnologías. Lograr la convivencia entre humanos, transhumanos y tecnologías autónomas (bioeticismo). Esto lleva al progreso humano en la era tecnológica. Estaremos ante una ectsosimbiosis mutual. Se corre el peligro de ser controlados por las máquinas y caer en una forma de posthumanismo.

Existen amenazas externas como las explosiones solares, en lugar de prepararnos para los cataclismos naturales estamos luchando por el poder, en lugar de preservar el planeta, lo estamos destruyendo, en lugar de unirnos para enfrentar los desafíos del futuro estamos queriendo ser el ombligo de un mundo cada vez más frágil y más necesitado de la sabiduría humana y de una verdadera colaboración que garantice la supervivencia del planeta y de la especie humana.

Con respecto a la inteligencia artificial la preocupación no es por la IA en si misma sino la necesidad de cambiar nuestra mentalidad ante los problemas que enfrenta el mundo actual y que puede desencadenar la destrucción humana. El mensaje consiste en tomar conciencia de los peligros que enfrenta la humanidad

Y es que estamos ante la decadencia del modelo mundial actual, producto de nuestra actitud  egoísta y hegemónica (mente intelectual) que nos llevará al fin de la especie humana ya sea por la destrucción del planeta o por la confrontación, debemos pasar  un nuevo modelo basado en la sabiduría y la colaboración (mentalidad espiritual) como forma de lograr un verdadero progreso humano.

Imagen: Transhumanismo: más allá de la evolución

 

El fin de la historia del hombre

Luego de la caída del campo socialista, parecía que ya no habrían mas confrontaciones y que la ideología socialista como alternativa al capitalismo había fracasado, lo cual llevo a uno de los ideólogos más importantes del neoliberalismo a anunciar el fin de la historia, todos saben que me refiero al japonés Francis Fukuyama.

Fukuyama, cae en el optimismo de asumir que la ideología occidental se impuesto al mundo (por lo que se acepta su superioridad sobre las otras, incluyendo a la sabiduría oriental, incomprendida por la mayoría de los occidentales). Y opina que el resto de las alternativas ideológicas se han agotado y considera que el triunfo del liberalismo es inevitable tanto en el plano de la consciencia como en el material. Lo que quiere decir que no existirán mas ideologías, al menos no tendrán fuerza para oponerse a la ideología del mercado por lo que al quedarse la humanidad sin ideologías alternativas, estaremos, entonces, ante el fin de la historia, donde una sola ideología, la neoliberal, predominará por los siglos de los siglos.

Siguiendo a Hegel, Fukuyama, cree que el fin de la historia se produce en un momento absoluto, cuando triunfaba la forma definitiva, racional de la sociedad y del Estado. Estamos hablando de una ideología única o de un mundo único (Los defensores de la poshumanidad también hablan de alcanzar un único mundo).

Para Hegel la consciencia en la causa que mueve a los acontecimientos entendidos como ideologías, las cuales no se limitan solo a la política sino también a la religión, la cultura y el conjunto de valores molares subyacentes a cualquier sociedad. En cambio Marx, relego toda la esfera de la consciencia (religión, arte, cultura, filosofía) a una superestructura que estaba determinada por el modo de producción prevaleciente (ver concepto de superestructura).

Por otra parte, Marx afirmaba que en la sociedad liberal existía una contradicción fundamental que no podía resolverse dentro de su contexto, la que había entre el capital y el trabajo. Cuando en realidad las contradicciones nacen, no del contexto social, que es donde se reflejan, sino dentro de la consciencia o mentalidad que se ha ido conformando y de la que nace la ideología y el accionar en el mundo.

Siguiendo las ideas de Fukuyama las ideologías han pasado por las siguientes fases.
• Tribales
• Esclavistas
• Teocráticas
• Democráticas (capitalistas).

Y las alternativas que han surgido a la ideología del neoliberalismo son:
• Fascismo
• Comunismo
• Nacionalismo (Nacional socialista)
• Estado teocrático (Islam)
Fukuyama considera que las dos primeras ya han fracasado. Y que las religiones solo funcionan a nivel individual con excepción de la musulmana.

Para Fukuyama una vez desaparecidos los grandes desafíos del fascismo y el comunismo como ideologías alternativas, el camino estaba libre para la ideología neoliberal. Y se preguntaba ¿si podían existir otras contradicciones en las sociedades liberales que no pudieran resolverse? O sea. ¿Existen otras contradicciones más allá de las de clases que no puedan resolverse? Fukuyama plantea dos: la religión y el nacionalismo.

Aunque acepta que existe un renacimiento de las religiones cristiana, judía y musulmana, debido al vacío espiritual que produce en nodo de vida consumista, afirma que no se necesita de la perspectiva de la religión. Después de la revolución científico-técnica y con ella, la aceptación de la razón instrumental; todos los pensadores, que se consideran “serios”, tienden a ignorar la dimensión espiritual en el ser humano, un error que también cometió el marxismo; lo cual no sucede con las nuevas tendencias socialistas en América Latina cuya matiz religioso es evidente.

Fukuyama, no puede escapar a su contexto social y como representante de la ideología dominante afirma que la mayoría de los países del tercer mundo (los del sur) seguirán atrapados en la historia y será motivo de conflictos por muchos años. De ahí que os que los ignore y se concentre en los países desarrollados del norte. En su pensamiento está arraigada la idea que las civilizaciones superiores deben dominar a las civilizaciones inferiores, para acabar con la barbarie.

Fukuyama, ve el fin de la historia como algo repetitivo y monótono donde una de las preocupaciones seria el medio ambiente (no ve las consecuencias reales del deterioro del planeta). Lo que quiere decir que llegaremos a un futuro sin contradicciones ni luchas de clase, ni problemas ecológicos y que las tecnologías estarán en función del libre mercado y del crecimiento económico el cual parecería ser infinito y las desigualdades sociales dejarán de ser un problema (al menos en el sentido político) ya que la pobreza se irá reduciendo mientras la riqueza seguiría aumentando. Ni que decir de los países del sur (tercer mundo) los cuales prácticamente no son parte de esta historia. Por suerte hoy son los países del tercer mundo los que están haciendo la historia.

La historia reciente ha demostrado todo lo contrario y muchos de esos países del sur hoy forman parte de las nuevas naciones emergentes, sino piensen en las BRICS.

Sin embargo, diez años después Fukuyama reconoció su error al querer predecir el fin de la historia basándose solamente en la evolución progresiva de las instituciones políticas y en la economía sin tener en cuenta el progreso tecnológico. Y dijo, entonces: la historia no puede terminar, puesto que las ciencias naturales (se refiere a la biotecnología) actuales no tienen fin, y estamos a punto de alcanzar nuevos logros científicos que, en esencia, abolirán a la humanidad como tal (existe una transición del fin de la historia al fin de la humanidad).

Por lo que acepta que el principal defecto del fin de la historia es no reconocer que la ciencia puede no tener fin (el progreso tecnológico es cada vez mas autónomo y acelerado) y su preocupación se centra fundamentalmente en el desarrollo de la biotecnología y su posibilidad de cambiar los límites de la naturaleza humana.

A Fukuyama le preocupa el poder de la biotecnología (ignora el resto de las llamadas tecnologías convergentes, NBIC) y su intervención en la naturaleza humana, a lo que dice: la biotecnología podrá lograr lo que las radicales del pasado, con sus técnicas increíblemente crudas, eran incapaces de conseguir: generar un nuevo tipo de ser humano. Y cree que no será fácil separa las tecnologías de uso terapéuticos de las de mejora

En uno de sus artículos considera al transhumanismo como la idea más peligrosa del mundo y arremete contra él cuando dice: la falta de respeto que enfrentamos, la insatisfacción con nuestra situación actual, que ha sido el sustento de la Historia como tal, de repente desaparecen, no como resultado de la democracia liberal, sino porque súbitamente hemos descubierto como alterar esa pequeña parte de la química cerebral que era desde un primer momento la fuente del problema.

Yo pienso que fueron varios los errores presentes en el fin de la historia:
• Negar la condición espiritual humana y la necesidad de un cambio de mentalidad.
• No tener en cuenta el progreso tecnológico (el único que el acepta actualmente pero refiriéndose a la biotecnología)
• Negar el poder renovador del socialismo y su adaptación a los nuevos tiempos.
• Prácticamente excluir a los países del sur de la historia
• Ignorar no solo lo injusto del modelo capitalista sino también la pérdida de valores espirituales y el afán de llenar ese vacío por medio un consumismo creciente y desmedido
• Subestimar las consecuencias del deterior del planeta y la crisis ambiental en la que estamos abocados.

Una vez aceptado, como su único error, el no haber considerado el progreso tecnológico (muy común en el pensamiento convencional vigente) Fukuyama acepta como inevitable el paso a un futuro poshumano y dice: el carácter abierta de las actuales ciencias naturales indica que la biotecnología nos aportara en las dos generaciones próximas las herramientas que nos van a permitir alcanzar lo que no consiguieron los ingenieros sociales del pasado. En ese punto habremos concluido definitivamente la historia humana porque habremos abolido los seres humanos como tales. Y entonces comenzara una nueva historia poshumana.

Al final, Fukuyama pasó del optimismo capitalista a compartir el pesimismo ecologista de que nos encontramos ante el final de la especie humana, solo que la mayoría de los ecologista siguen sin tener en cuenta la dimensión tecnológica y las consecuencias que esta tendrá, mientras que Fukuyama, como ideólogo del neoliberalismo, ha visto las contradicciones propias que están surgiendo y que la única opción viable en el contexto actual (y dada la mentalidad y la cosmovisión impuesta por el capitalismo) es un futuro poshumano, y con ello el fin de la historia de la humanidad, tal como la conocemos hoy.

Pueden ver un enfoque sobre el transhumanismo en mi libro: “Inteligencia artificial, el futuro el hombre”.