¿Hacia dónde vamos? (resumen)

¿Hacia dónde vamos? (1)

Seguimos esperando que las soluciones nos lleguen de fuerzas externas, de Dios, del mercado, del estado y ahora de las tecnologías. Las antiguas preguntas de ¿Quiénes somos? Y ¿A dónde vamos? Han perdido su significado y son sustituidas por ¿En qué queremos convertirnos? ¿En cuánto podremos aumentar nuestras potencialidades? Y es que la pregunta a donde voy ya parece resuelta: ¡Vamos a la poshumanidad! Y es que gracias a las tecnologías nos convertiremos en superhumanos, y ¿Por qué no? En dioses. Atrás queda el dolor, los desasosiegos, la tristeza humana pero, también, el amor a la humanidad, a nuestra propia humanidad y la esperanza de ser cada día mejores seres humanos.

Sigue leyendo

Reflexión sobre el Estado del Futuro 2015-16

Conscious-technology will force us to confront fundamental questions about life. All ages and cultures have had mystics who have been interested in consciousness and the meaning of life, as well as technocrats who have been interested in developing technology to improve the future. All cultures have a mix of the two, but the representatives of each viewpoint tend to be isolated from and prejudiced towards each other. To improve the quality of the Conscious-Technology Age, the attitudes of mystics and approaches of technocrats should merge.

Jerome Glenn, The Millennium Project

2015-16SOF

 

Como todos los años ya está listo el resumen que realiza The Millenium Projecto sobre el Estado del Futuro 2015   Al igual que años anteriores se hace una valoración sobre en qué temas estamos ganando y cuales perdiendo. Pero, antes de entrar en la comparación veamos algunas de las reflexiones que se plantean en el sumario.

“Cuando toda la humanidad esté conectada al Internet de las Cosas, y cuando se descubran grandes avances, integrados e implementados en los proyectos del cerebro humano de los Estados Unidos de América, la Unión Europea y China, y los proyectos de inteligencia artificial de Google e IBM, cada individuo podría llegar a tener la posibilidad de ser un genio aumentado. ¿Cómo podría un mundo lleno de genios aumentados cambiar la cultura, la política, las religiones, las formas de pensar, y la economía? Se necesita un sistema global de la inteligencia colectiva para realizar un seguimiento a todo esto y ampliar la conversación entre los líderes mundiales, los expertos y la sociedad para iniciar los cambios masivos en las construcciones sociales necesarias para hacer frente a éstos y a otros Retos globales previsibles para construir un futuro mejor “

Este es un punto crucial y la pregunta sobre si los genios aumentados podrán cambiar la sociedad. Para dar respuesta a esta pregunta hay que remitirse a los que yo nombre el enunciado de Van R Potter para el dilema tecno-científico y dice lo siguiente: “El aumento exponencial del conocimiento sin aumento de la sabiduría necesaria para manejarlo. Se necesita de un enfoque cibernético de la búsqueda constante de la sabiduría (el conocimiento de cómo usar el conocimiento) para la supervivencia humana y para mejorar la condición humana”. Por lo que se desprende que cualquier superinteligencia que surja estará sujeta al contexto actual basado en la competencia y la lucha por el poder e inevitablemente terminara en una confrontación, ya sea, por los mercados, por los recursos naturales, etc. La acción es precisamente la propuesta de una inteligencia colectiva que busque aumentar no solo la inteligencia sino la sabiduría humana para manejarse con los conocimientos y las nuevas tecnologías emergentes.

“¿Cómo puede la convergencia global de las tecnologías de la información y la comunicación funcionar para todos? La carrera está en completar el sistema nervioso de la civilización mundial y hacer que el poder de la supercomputación y la inteligencia artificial estén al alcance de todos”. La pregunta es ¿Permitirá o favorecerá el sistema neoliberal basado en la competencia por los mercados y las ganancias poner los conocimientos y las tecnologías al alcance de todos?

“¿Cómo pueden la educación y el aprendizaje hacer que la humanidad se vuelva más inteligente, eficiente y sabia para hacer frente a los Retos

Globales? Hoy en día, gran parte del conocimiento del mundo está disponible para la mayoría de la humanidad, ya sea directamente o a través de intermediarios. Google y Wikipedia están ayudando a hacer que la frase “yo no sé” se vuelva obsoleta”.

Bueno hay una gran diferencia entre Google como plataforma privada y cerrada que brinda servicios en internet con los cuales obtiene grandes ganancias y Wikiepedia que es una plataforma abierta y colaborativa que permite compartir conocimientos. En el caso de Wikipedia es vía para lograr que la humanidad se vuelva más inteligente y sabia, si sabemos utilizarla. En el caso de Google es una forma de hacernos dependiente de la información que Google, ya que no somos colaboradores sino usuarios que estamos a la espera de los nuevos productos de Google.

“¿Cómo pueden incorporarse las consideraciones éticas más habitualmente en las decisiones globales? Aunque las actitudes económicas a corto plazo “yo primero” son frecuentes en todo el mundo, el amor por la humanidad y la conciencia global también son evidentes en las normas expresadas en los numerosos tratados internacionales, organizaciones de la ONU, filantropía internacional, el espíritu olímpico, los diálogos interreligiosos, la ayuda a los refugiados, los programas de desarrollo para las naciones más pobres, los Médicos sin Fronteras y el periodismo internacional”

El problema es ¿Si en el mundo predominan las acciones altruistas y solidarias o si predominan las acciones egoístas y hegemónicas? Bueno, yo no voy a dar la respuesta, solo una cosa si predominan las segundas podemos garantiza que el surgimiento de superhumanos y de superinteligencias no lo único que hará será aumentar el poder de destrucción y el fin de la humanidad solo es cuestión de tiempo.

“Durante miles de años hemos estado tratando con los roles de lo que es ser ingenieros o artistas chinos o franceses, aislados en nuestras propias creencias estrechas de lo que creemos que es verdad y correcto. Ahora es el momento de crecer y convertirse en una especie de adulto planetario. Si los líderes no toman las decisiones en la escala necesaria para hacer frente a los Retos Globales, entonces pueden ser necesarios los avances futuros de la inteligencia artificial, al igual que el sistema nervioso autónomo que gestiona el funcionamiento básico de nuestro cuerpo. Sin embargo, esto requerirá la atención para crear las condiciones que permitan hacer frente a las advertencias de Elon Musk, Bill Gates, y Steven Hawking acerca IA creciendo más allá  del control humano. Es hora de la intolerancia a los discursos irrelevantes y a las no acciones de los líderes. Las apuestas son demasiado altas para tolerar lo de siempre”

Coincidimos totalmente, es la misma preocupación del punto anterior. En ese mismo orden de cosa el informe alerta sobre las consecuencias actuales

“Debemos preocuparnos por todo el mundo, porque todo el mundo nos afectará –desde”

  • las nuevas formas de terrorismo
  • la inteligencia artificial
  • el cambio climático
  • ética financiera.

Estos son solamente algunos de los temas que se mencionan y que dada su importancia quise comentar. Ahora veremos en que estamos mejorando y en que empeorando según el análisis de los expertos ( y que no quede duda que son personas altamente calificadas)

 

Están entre algunos de los que ganamos

  • Aumento del PIB
  • Disminución de la pobreza
  • Inversión extranjera
  • Mayor libertad
  • Mujeres en los parlamentos
  • La matricula escolar
  • médicos por personas
  • Etc.

Entre lo que perdemos están de forma general

  • El aumento del deterior del planeta (existe algo mas grave)
  • El aumento del desempleo y su empeoramiento con las tecnologías cada vez mas autónomas e inteligentes
  • El incremento del terrorismo y las nuevas formas de terrorismo
  • Aumento de los conflictos y los enfrentamientos militares (desde el final de la guerra fría nunca hemos estado más cerca de la III guerra mundial)
  • Incremento de la corrupción
  • Aumento de las desigualdades

Si comparamos ambos vemos que estamos ganando en incidencias menos trascendente que en las que perdemos, podemos afirmar que los últimos pueden representar riesgos existenciales para la humanidad.

Por ejemplo ganamos en aumentar el PIB, esto es como decir me aumentaron el salario, pero mis problemas siguen existiendo y podría ser que el día de mañana me boten del trabajo (aumento del desempleo) y entonces si mi situación se convertirá en crítica.

En otros informes se toca el temas de la trata de humanos, el trafico de drogas y el comercio de armas, que año tras año siguen aumentado. Y aunque en este resumen no se mencionan, nada indica que estén disminuyendo.

En fin, no solo el peligro de una inteligencia artificial como señala Nick Bostrom y muchos otros, lo que puede terminar con la especie humana. Existe otros, que ya desde el presente, pueden exterminar a toda la raza humana y no tenemos otra alternativa que comenzar a cambiar todo los que sabemos que está mal: nuestro egoísmo, ignorancia, pereza, falta de solidaridad, ambición, irresponsabilidad…  Y lo peor, el desdén por nuestra propia condición humana.

Imagen:  2015-16 State of the Future

 

 

Desafíos del futuro. ¿Se puede tener un plan?

Futuros-TurchinLa humanidad parece estar ante el dilema de escoger entre un futuro sostenible o un futuro posthumano, visto fríamente parece ser así, pero si tenemos en cuenta los tipos de simbiosis que se pueden producir entre humanos y tecnologías, la solución más inteligentes parece ser buscar una forma de convivencia entre todos los futuros posibles ante el acelerado progreso tecnológico.

Entonces, el gran desafío es como será en futuro en la era de las tecnologías. Podemos considerar que hemos pasado por dos grandes eras: la era natural y la era socio-cultural, en la que estamos inmersos. En la era actual, la evolución social predomina sobre la evolución natural, incluso la condiciona. La sociedad es la que fija las mutaciones más favorables al contexto social imperante, en lugar de los cambios climáticos como sucedía antes. Ahora nos acercamos a una nueva era condicionada, de alguna manera, por una forma de evolución artificial, para muchos, la singularidad tecnológica.

Desafíos del futuro

Detrás de cada desafío existe un paradigma que los sustenta y que de alguna forma representa una solución a los problemas existentes. Podemos agrupar los desafíos en cuatro, con sus respectivos sistemas opositores.

Desafío socio-económico: Capitalismo vs Socialismo
Desafío psico-religioso: Transhumanismo vs Bioconservadores
Desafío eco-sostenible: Sostenibilidad ecológica vs Neoliberalismo irresponsable
Desafío tecno-científico: Singularidad tecnológica vs Precaución tecnológica

No vamos a entrar en detalles, esto tema para un próximo libro, pero a grandes rasgos, podemos afirmar que no se pueden hacer planes sobre el futuro si no se tienen en cuenta los cuatros desafíos, los paradigmas que lo sustentan y a qué futuro nos conducen.

¿Puede el capitalismo con su ley del mercado y su consumismo desenfrenado, preservar a la vida y al planeta? ¿Puede el transhumanismo sustituir los grandes ideales de la religión de perfeccionamiento espiritual? ¿Es capaz la sostenibilidad ecológica de alentar la prosperidad y el progreso tecnológico? Y por ultimo. ¿Nos impondrá la singularidad tecnológica el precio de abandonar nuestra condición humana? Son preguntas que tenemos que comenzar a respondernos desde ahora o iremos a ciegas al futuro.

En este articulo nos proponemos hacer un análisis de la publicación de Alexei Turchin, Plan of Action to Prevent Human Extinction Risks, en el mismo afirma que sus planes siguen el enfoque de la singularidad tecnológica, por lo que quedan fuera el resto de los enfoques: socio-económico, pisico-religioso y eco-sostenible. Y aunque estos puntos se tocan, pero condicionados al enfoque tecno-científico. Veamos los planes de forma resumida pero solo teniendo en cuenta los primeros años 2015-2020.

Plan A1. Basado en un sistema de control internacional (2015-2020)

Parte de la idea de un sistema de control internacional dirigido por las naciones unidas. No sé en el futuro que pasará pero en el presente organizaciones mundiales están muy preocupadas con las crisis del presente para pensar en lo que va a suceder en el futuro. Si no miren los Objetivos de Desarrollo del Milenio de la ONU. Obviando las verdaderas preocupaciones de la ONU. Tuchin propone el siguiente plan a corto plazo.
• Propone comenzar con una investigación sobre los riesgos, la integración de los diferentes enfoques (¿Cuáles enfoques) así como una evaluación de las probabilidades y prevención ante los riesgos.
• Buscar apoyo social: Cooperación entre las comunidades científicas dirigidas por el Centro de Estudio para los Riesgos Existenciales (CSER, en ingles), la divulgación, el apoyo público, el apoyo político y lo que el llama atributos científico: wiki, foro, conferencias, etc.
• Transformación de valores: crecimiento del deseo público de extender la vida y de la seguridad mundial, reducción de los religiosos radicales y de los valores nacionalistas, popularidad del transhumanimo y cambio del modelo del futuro (¿Cuál modelo?).

Plan A2. Inteligencia artificial amistosa (2015-2020)

La idea de una Inteligencia Artificial (IA) amistosa es una abstracción tal como la de construir una IA dentro de un laboratorio siguiendo la idea de un mundo de juguetes. Al final repetimos el mismo error de querer definir los requerimientos de una IA programada, totalmente, para que sea amistosa con los humanos. Veamos la propuesta de Turchin a corto plazo.
Estudio y promoción
• Estudio de la teoría IA amistosa
• Promoción de la AI Amistosa (Bostrom y Yudkowsky)
• Recaudación de fondos, Instituto de Investigación de Máquinas Inteligentes (MIRI, en ingles)
• Racionalidad enseñanza (menos mala)
• Disminuir otros proyectos de IA (reclutamiento de científicos)
Aquí quedan algunas dudas, porque se disminuyen los proyectos y quien los disminuye, que persigue es educación menos mala. En fin, el futuro, incluso a corto plazo, sigue siendo incierto.

Plan A3. Robustez creciente (2015-2020)

A pesar de que Turchin lo pone como la tercera opción de plan realizable, en mi opinión es el más consecuente con la complejidad del futuro que se avecina. Al menos es el único que tiene en cuenta el problema de la sostenibilidad del planeta.
Mejorar sostenibilidad de civilización
• sistemas críticos de seguridad intrínseca
• La creciente diversidad de los seres humanos y hábitats
• métodos universales de prevención (estructura resistentes, medicina fuerte)
Importante, tener en cuenta la creciente diversidad de los seres humanos, es casi seguro que en el futuro convivan con los humanos, humanos mejorados genéticamente, ciborgs, humanos reconstruidos, entidades robóticas, etc., y sus posibles hábitats. Para mí aquí está la clave del problema, ¿cómo será la relación simbiótica que establecerán los humanos y las tecnologías? ¿Tendrá cada cual su propio espacio vital?

Plan A4. Colonización del espacio (2015-2020)

Las posiciones más duras de una singularidad tecnológica, defendida por Hans Moravec, lleva a la sustitución total de lo natural por lo artificial, estamos hablando de la desaparición de la especie humana y el surgimiento de una nueva especie artificial y como consecuencia de una vida y un planeta artificial. Siempre he dicho si la solución extrema es destruir el planeta natural por otro artificial, no es mejor desde el principio construir un planeta artificial fuera de la Tierra y los que lo deseen se van a vivir a ese planeta. En fin veamos las propuestas de Turchin a corto plazo
Asilos temporales en el espacio
• Estaciones espaciales como asilos temporales (ISS)
• Sistemas de lanzamiento baratos y seguros
• La creación de colonias espaciales en la Luna y Marte (Elon Musk)
Sin dudas, Elon Musk es uno de los grandes entusiasta y financista de la colonización del espacio.

Ahora si fallan todos estos planes, entonces Tuchin propone un plan B.

Plan B. Sobrevivir a la catástrofe (2015-2020)

Aunque parezca ilógico, muchos creen que la humanidad debe sufrir un colapso, que este a punto de la destrucción total para que entonces los sobrevivientes retomen la civilización evitando los errores y de esa forma construir una nueva era para la humanidad. Veamos lo que propone Tuchin.
Preparación
• Recaudación de fondos y promoción
• Libro de texto para reconstruir la civilización (Libro “Conocimiento” de Dartnell)
• Las acumulaciones con los conocimientos, las semillas y materias primas (bóveda del Juicio Final en Noruega)
• Comunidades sobrevivientes
Sin comentarios.

En su escrito Tuchin también propone un plan C y un plan D

Plan C. Deje copias de seguridad (2015-20)

Ya existen alguna personas criogenizando su cuerpo (los que pueden pagarlo todo) o sus cabezas.
Cápsulas del tiempo con información
• Almacenamiento subterráneo con la información y el ADN para futuras civilizaciones no humanas
• Discos Eternos que durarán para siempre (o “M-Disc”)

Plan D. Ideas improbables (2015-2020)

Ya esto es pura ciencia ficción
Salvados por una inteligencia no humana
• Tal vez extraterrestre nos encuentran y nos salvarán
• Tal vez vivimos en una simulación y los simuladores nos salvarán
• La Segunda Venida, un milagro, o la vida después de la muerte
• Enviar mensajes de radio en el espacio pedir ayuda en caso de una catástrofe inevitable

Y por último el plan malo

Plan malo (2015-2020)

El plan malo es el escenario donde por una parte se imponen los llamados bioluditas y sus ideas de prohibir las tecnologías que huelan a peligro, que son casi todas o no hacer nada, o sea, no tener un plan.
Prevenir la investigación de riesgos existenciales ya que sólo aumenta el riesgo
• Mantenga peligroso secreto información e ideas de terroristas
• No publicitar la idea de la catástrofe global hecha por el hombre
• No trate de controlar los riesgos ya que esto los aumentará
• Como no podemos medir la probabilidad de la catástrofe global tal vez sea irazonable tratar de cambiarla
• No hacer nada
Aquí Turchin también incluye las ideas extremas del ecologismo de la Creación de la civilización ecológica sin tecnología (“Mundo hecho a mano”, anarco-primitivismo), así como las teorías malthusianas y el control de la natalidad.

Hasta aquí los planes propuestas por Alexei Turchin entre el 2015 y 2020, repito, aunque su análisis llega hasta más allá del 2050, yo preferí solo tener en cuenta las acciones a corto plazo, que están más cerca de la realidad actual.

En mi libro El gran desafío de la humanidad en la era de las tecnologías, analizo los diferentes escenarios futuros más viables teniendo en cuenta las Tecnologías emergentes y su implicación sobre la humanidad. Ahora vamos a realizar cierta comparación con los planes de Turchin.
1.-Ecologismo, aquí se asume que predominan las ideas de una ecología radical, que lleva al crecimiento cero, lo que Turchin, en parte, llama el plan malo cuando hace referencia cuando habla de una civilización ecológica sin tecnología.
2.-Socialismo ecológico. Son los intentos de tratar de resolver la crisis ecológica actual dentro de un desarrollo sostenible, se busca un equilibrio entre lo económico, lo social y lo ambiental, apoyándose en las instituciones gubernamentales (sistema de control internacional) pero orientado al deterioro del planeta, a la justicia social, a la pobreza extrema, el consumismo, etc. A diferencia de Turchin que aspira a un plan A1 donde la ONU se dedica a los problemas del futuro.
3.-Socialismo colaborativo. Se establece relaciones profundas entre los humanos y estos con las tecnologías se busca alcanzar un futuro sostenible sin detener el progreso tecnológico. Tiene cierta coincidencia con el plan A3 de Turchin.
4.-Tecnologismo. Consiste en la aceptación de que las máquinas superarán a los humanos y este no tiene otra opción que fusionarse con ellas. Incluso, se considera que es lo mejor que le puede pasar. Tiene grandes semejanzas con el plan A4 con respecto a construir un planeta artificial.
5.-Capitalismo postmoderno. Es el momento en que la ideología transhumanista alcanza todo su esplendor dentro del sistema neoliberal. Al cual solo le preocupa el surgimiento de una superinteligencia artificial que pueda poner en peligro el propio desarrollo transhumanista. Coincide con la preocupación del plan A2 y la necesidad de construir una IA amistosa.
6.-Es consecuencia del anterior lleva a un transhumanismo responsable más preocupado por los riegos existenciales en general. Dado su carácter conciliador se mueve entre el plan A1, A2 y A3.

Opino que los planes elaborados por Alexei Turchi pueden ser un buen punto de partida, pero, teniendo en cuenta que se sustenta sobre el paradigma de una singularidad tecnológica.

Como decía al principio nuestra época esta influenciada por cuatro paradigmas predominantes que, por separados, parecen movilizar todos los esfuerzos hacia un futuro mejor (o peor).
• Neloliberalismo (en lo social)
• Transhumanismo (en lo individual)
• Sostenibilidad (en lo ecológico)
• Singularidad (en lo tecnológico)

Del enfoque transdisciplinar de estos paradigmas y las soluciones (éticas, educativas, evolutivas, espirituales, tecnológicas…) que se den, dependerá el futuro de la humanidad.

Recomendación: El gran desafío de la humanidad, en la era de las tecnologías

Imagen: Brighterbrains