¿Nos acercamos al fin de la humanidad o al fin de la era capitalista?

La ideología tecnologista (incluyo aquí a los transhumanistas y los posthumanistas) creen que la evolución humana ya se agotó y que se necesita ampliar o transformar la condición humana cuando en realidad, lo que se agotó no es el ser humano (su limitación biológica); lo que, en verdad, se ha ido agotando, es el modelo capitalista, que se está convirtiendo en un límite para el progreso humano y como única solución propone abandonar el progreso humano por un progreso tecnológico.

Para la era los tecno-liberales el progreso humano no va a crecer (evolucionar) más y es que la era capitalista no tiene forma de preservarse sino es por medio de la tecnología. Las tecnologías emergentes se insertarán en el modelo neoliberal y nos llevarán inevitablemente a un futuro posthumano. Y es que el modelo neoliberal solo puede subsistir gracias a las tecnologías, la que garantiza su crecimiento y expansión. Sin embargo sería un error querer limitar a las tecnologías esto provocaría una crisis dentro del capitalismo de consecuencias impredecibles, lo que se necesita es una cambio de mentalidad que nos lleve a una transición a una nueva era.

Ya que en un futuro tendrán que coexistir la especie humana con las entidades inteligentes, dado el modelo neoliberal basado en la competencia, ambos organismo entraran en contradicción y como ha sucedido históricamente una desplazara a la otra y la desplazada perderá todo sustento y con el tiempo dejara de existir.

Hoy estamos viviendo una crisis socioeconómica, donde todo se resuelve a base de sanciones, amenazas y ataque militares, y es que nos acercamos al fin de la era del capitalismo y tenemos que escoger entre preservar al capitalismo y su modelo hegemónico o preservar a la especie humana y transformar a la sociedad.

Nos encontramos ante el siguiente dilema.
• Fin de la especie humana y el surgimiento de una época de las tecnologías – Era tecnologista (progreso tecnológico)
• Transformación de la mentalidad y el surgimiento de una época de la sabiduría – Era espiritual (progreso humano trascendente)
Donde la era de la sabiduría (espiritual) no puede representar un retroceso con respecto a las tecnologías, el sistema tecnológico debe seguir creciendo dentro de una sostenibilidad tecnológica. La era de la sabiduría nos debe llevar a un futuro trascendente donde el progreso humano sigue evolucionando junto a las tecnologías de forma armónica.

Podemos decir que el modelo capitalista ha pasado por dos formas de organización: orientada a la producción y orientada al conocimiento (informatización), hoy necesitamos, urgentemente, pasar a una tercera forma de organización, la orientada a la sabiduría.

Aumentar la producción
1. Aumentar la fuerza de trabajo (aumentar la mano de obra)
2. Cambios en la estructura (organización) buscando productividad – Producción.
3. Aplicación de las tecnologías (mecanización)
Aumentar el conocimiento
1. Capacitación del personal (educación) – Aumentar la inteligencia
2. Cambios en la estructura (organización) buscando ser más competitivo – Mercados
3. Aplicación de las tecnologías (digitalización) – Dependencia de la tecnología
Aumentar la sabiduría
1. Formación espiritual (fuerza interior)
2. Cambio en la estructura (relaciones profundas), buscando la colaboración – Cooperación
3. Aplicación de las tecnologías (tecnologización) – Simbiosis con la tecnología.
Ya, en el presente, se está produciendo una simbiosis con la tecnología, tenemos la opción de escoger el tipo de simbiosis que deseamos desde una que dejamos de ser humanos para ser parte de la tecnología, hasta las que niegan toda forma de progreso tecnológico (bioludismo).

Hoy la economía de mercado, mañana el tecno-liberalismo nos arrastrará a un futuro poshumano, debido a que hemos estado arrastrando los problemas sin darle solución: la justicia social, la pobreza, el deterioro del planeta, el superconsumismo, las guerras, el individualismo, las pasiones humanas (ira, odio, envidia, ambición, egoísmo…). Y los grandes sistemas tradicionales (religión, capitalismo, ecologismo, socialismo, social democracia, etc.) serán desplazados por un único sistema tecnológico, como la fuerza externa (ajena a un verdadero progreso humano) que vendrá a librar al mundo de sus desgracias a expensas de perder su condición  humana.

¿Provocarán las tecnologías el fin de la humanidad? (1)

El progreso tecnológico ha ido pasando de las herramientas, las máquinas manejadas por el hombre, a las máquinas autónomas cada vez más inteligentes (según avancen las técnicas de inteligencia artificial) que irán inevitablemente formando parte de la vida social de los humanos, ya no como herramientas o máquinas (automóviles, computadoras, grúas, etc.) sino como máquinas superinteligentes capaces de tomar decisiones junto a los humanos. Ahora, la pregunta es: ¿estamos preparado para ese futuro?

En el sitio The Millennium Project, se plantea la necesidad de una ética global ante la aceleración tecnológica que se está produciendo que va más allá de los medios convencionales de evaluación ética y se plantea la necesidad de sistemas éticos que se anticipen a los posibles eventos futuros. Y señala, como preocupación, el hecho de que una sola persona, pueda alcanzar un poder masivamente destructivo, ya que las tecnologías destructivas están al alcance de cualquiera que las pueda comprar y el acceso a la información ya no es un problema, hoy casi todo se puede encontrar en Internet. Sin, dudas el terrorismo es una de las mayores amenazas de este siglo.

Otros hablan del peligro de una tecnología ciega. Que no es otra cosa que una tecnología que avanza en la historia sin un conocimiento profundo del territorio natural, biológico, humano y social en que se mueve. Es el uso negligente de las tecnologías (con fines de lucro, militares, etc.) que ignora las consecuencias de sus actuaciones y actúa al margen de ellas.

Y como consecuencia de esta tecnología ciega, se citan las siguientes consecuencias: el problema de la contaminación, la destrucción de los recursos naturales, el cambio climático, de extinción de especies animales, la alteración de la biosfera, etc.

Por su parte, Miguel Ángel Gutiérrez, realiza el siguiente cuestionamiento: “¿Cuál es el límite de las tecnologías? Ninguna de ellas queda confinada a la función que su creador original imaginó; las tecnologías se entrecruzan, se potencian, se modifican y generan nuevas aplicaciones, por lo que se hace necesario conocer cuáles pueden ser sus consecuencias, más allá del producto o servicio que la incorporen inicialmente.

Hasta el super optimista y experto en inteligencia artificial, Ray Kurzweil, muestra cierta preocupación cuando dice: “No podemos depender de enfoques de ‘prueba y error’ para tratar los riesgos existenciales… Tenemos que incrementar enormemente nuestra inversión para desarrollar tecnologías defensivas específicas… Estamos hoy en la fase crítica de la biotecnología, y alcanzaremos la fase en la que tendremos que implementar directamente tecnologías defensivas para la nanotecnología en los últimos años de la próxima década… Un patógeno autoreplicante, ya sea biológico o basado en la nanotecnología, podría destruir nuestra civilización en cuestión de días o semanas.”

Esto es solo una introducción en el próximo artículo iremos entrando en detalles. El tema está abierto…

¿Nos acercamos al fin de la humanidad?

¿Cómo podemos saberlo? ¿Qué está sucediendo o que podría suceder?

Si el mayor peligro  para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Hoy son dos los escenarios que pone en peligro a la raza humana: la degradación del planeta y el desarrollo acelerado de las tecnologías, que cada vez responde menos al desarrollo humano, y parece escapar  a todo control. Siendo la aceleración tecnológica representa un mayor peligro que el deterior del planeta.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford,   quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, y no por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe natural; el mayor riesgo proviene de nosotros mismo.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”.

¿En qué consiste esa amenaza? Veamos las opiniones de los expertos y del propio Bostrom

Experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial se están precipitando hacia el territorio de lo accidental e imprevisto.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana.

La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

 Vivimos en un mundo más interconectado: más noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son más desmedidas que en el pasado”.

Nos preocupamos por riesgos individuales más inmediatos, como los vuelos aéreos o seguridad alimentaria, tenemos más dificultad en reconocer peligros más serios.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

“Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

·La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra”, apunta Bostrom. “Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso”.

La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores del grupo de expertos reunidos en Oxford. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom.

Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Bostrom no parece estar muy seguro de la tecno-utopia de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”.

Hasta ahora hemos apostado por el progreso tecnológico y se ha ignorado el progreso humano, de ahí las consecuencias que se vislumbran hacia una tecnología fuera de control. Podemos afirma que vamos a ciegas hacia el futuro y significativo, que un pionero de la ideología transhumanista, como Nick Bostrom, comience a preocuparse de las consecuencias imprevista de la aplicación sin control de las tecnologías.

Coincido con Bostrom en que el cambio está próximo y que no se dado la importancia que merece. No podemos ignorar que Bostrom es un defensor del tranhumanismo, del cual hemos estado hablando en artículos anteriores. De ahí sus conclusiones.

 “Hay un cuello de botella en la historia de la humanidad. La condición humana va a cambiar. Puede ser que termine en una catástrofe o que nos transformemos tomando más control de nuestra biología”.

Recomendación:
Inteligencia Artificial, el futuro del hombre