El futuro no nos necesita: Riesgos existenciales (1)

Nick Bostrom, filosofo y padre del transhumanismo

El fin de la especie humana

 “Las especies biológicas casi nunca sobreviven a encuentros con competidores superiores…  Parte de la respuesta yace en nuestra actitud hacia lo nuevo –en nuestra disposición a familiarizarnos rápido y a aceptar sin cuestionar. Acostumbrados a vivir con adelantos científicos que se dan casi como una rutina, todavía tenemos que hacernos la idea de que las tecnologías más seductoras del siglo XXI –robótica, ingeniería genética, y nanotecnología– plantean una amenaza distinta que la de las tecnologías que han venido antes” (Bill Joy)

 

Hoy estamos ante el peligro de la reconstrucción del mundo natural por otro artificial. Donde existe una lucha por ver quién es  más rápido entre la degradación del planeta y la aceleración tecnología. La aceleración a toda  costa, como una medida desesperada para alcanzar la posthumanidad (vida eterna), nos va a conducir inevitablemente a una mayor degradación del planeta y con ello, al fin de la especie humana.

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos (Los riesgos del futuro)

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

  1. Mal uso de las tecnologías.
    2. Guerras nucleares.
    3. Pandemias.
    4. Aristocracia poshumana.
    5. Mala programación de una superinteligencia.
    6. Superintenligencia autónoma que asume los valores de poder.
    7. Criogenización y superpoblación.
    8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
    9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica
    10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Uno de los riesgos que más se menciona es el del surgimiento de una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Los riesgos de una IA superior a los humanos.

“Una de dos cosas puede ocurrir. Se le podría permitir a las máquinas tomar todas las decisiones por sí mismas sin supervisión humana, o bien se mantendría el control humano sobre las máquinas” (Bill Joy)

La era de las tecnologías

 Estamos en la era de la tecnología y son muchos los que los que abrazan posiciones tecnofuturistas y creen que la solución a todos los problemas humanos están en la Ciencia y la Tecnología y afirman que la solución, esta exclusivamente, en el desarrollo acelerado de la tecnología. Lo que quiere decir que debemos concentrar todos nuestros esfuerzos en desarrollar instrumentos, aparatos y máquinas cada vez más potente. La idea consiste en acelerar la tecnología para alcanzar una superinteligencia y luego fundirse con ella.

Ideología de los tecnofurusitas

  1. Se sustenta en una ideología que sustituye a la fe religiosa al prometer, curar a las enfermedades, eliminar a la vejez, alcanzar la vida eterna… Alcanzar el paraíso en la tierra. (Manuscrito transhumanista).
  2. Convencimiento de que el fin de la humanidad es inevitable y hay que intervenir y crear una nueva evolución artificial basada en la tecnológica. (La singularidad tecnológica).
  3. Convencimiento de que la tecnología por si sola es capaz de resolver todos los problemas actuales de contaminación, pobreza, desigualdades, guerras. (Informes sobre las tecnologías convergentes).

Para comprender el impacto de las tecnologías hay que estar claro en las posiciones que se asumen desde el presente, y las propuestas de cada una de ellas. Y aunque las tecnoutopías, los presupuestos tecnológicos transhumastas, parecen irrealizables en muchos casos, es una ley aceptada por todos que las tecnologías están en constante crecimiento y que no se vislumbra un límite para su desarrollo, y que cada vez somos más dependientes de las mismas. Ell problema está; en si las tecnologías entrarán en competencia con los seres humanos o si colaborarán con ellos. Y si aceptamos el surgimiento de algunas de las formas de superinteligencias antes mencionadas

Tendencias de la tecnología (degradación vs aceleración)

1) Ignorar la tecnología: Subestimar el impacto de la tecnología. Concentrarse solamente en la degradación del planeta sin tener en cuenta la aceleración tecnológica. Subestimar el desarrollo tecnológico seguir pensando que es sólo una herramienta y creer que la tecnología siempre estará bajo nuestro control, sin tener en cuenta los intereses mercantiles y hegemónicos que se mueven detrás de la tecnología así como ignorar la ideología transhumanista y su poderosa visión de futuro, el no tener en cuenta la campaña de promoción y posicionamiento en la mente humana, que se está llevando a cabo sobre la singularidad tecnológica y sobre todo ignorar el impacto social, económico, político y militar que tendrán las tecnologías convergentes (NBIC) sobre el futuro de la humanidad. Tal negligencia y falta de visión de futuro, llevara a una degradación cada vez mayor del planeta y a la extinción indirecta de la humanidad

2) Acelerar la tecnología: Aceptar a la tecnología como la salvadora del planeta y apostar todo a la aceleración tecnológica (singularidad) Lo cual nos llevara al transhumanismo, Pero dentro del contexto actual de poder, lo único que hará es que unos sean mas poderosos que otros, aumentando la desigualdad, ahora entre transhumanos y humanos. Dado su carácter ideológico los pobres también serán convertidos a obsoletas versiones de transhumanos. Priorizar la aceleración tecnológica por encima de la degradación del planeta lo cual conducirá a que la evolución natural sea sustituida por una evolución artificial que terminará en la autoextinción de la humanidad.

3) Cooperar con la tecnología: Buscar la integración armónica (no invasiva) de la tecnología en el contexto humano, basado en la cooperación (en lugar de la fusión) entre humanos y tecnologías. Se busca poner la aceleración tecnológica en función del desarrollo intelectual y espiritual de los humanos. Que vaya a las causas de la degradación y potencie la integración armónica de la tecnología a la naturaleza, la sociedad y el mejoramiento humano. Buscar alternativas que permitan lograr una sostenibilidad tecnológica (en lugar de una singularidad) basada en principios éticos universales que permitan formar generaciones cada vez mejores basadas en la manifestación plena del SER.

Yo defiendo la idea de una superinteligencia colectiva que se irá desarrollando producto de la cooperación entre humanos y máquinas y la idea que tenemos que aprender, desde el presente,  a manejarnos con las tecnologías del futuro, donde los transhumanistas ya nos llevan la delantera y parto de la idea de una actitud bioconservadora de corte progresista. Porque en realidad, el futuro mejor que proponen los transhumanstas, lo que hará será: aumentar las diferencias sociales, el deterioro del planeta, la competencia tecnológica y la falta de fe en sí mismo; lo que pondrá en peligro la supervivencia de la especie humana tal como la conocemos hoy.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”. (conincide con Bill Joy)

El transhumanismo.

“Me parece a mí mucho más probable que una existencia robótica no fuera como una humana, de ninguna manera en que la entendemos, que los robots no serían de ninguna manera nuestros hijos, que por este camino nuestra humanidad seguramente se perdería” (Bill Joy).

 Presupuestos transhumanistas (transhumanismo democratico)

“Un segundo sueño de la robótica es que gradualmente nos reemplacemos a nosotros mismos con nuestra tecnología robótica, consiguiendo una casi inmortalidad mediante la descarga de nuestras conciencias. ¿Pero si nos descargamos en nuestra tecnología, qué posibilidades hay de que después del proceso sigamos siendo nosotros, o incluso humanos?”(Bill Joy)

El transhumanismo, Nick Bostrom (uno de sus artífices) lo define como “un movimiento cultural, intelectual y científico, que afirma el deber moral de mejorar la capacidad física y cognitiva de la especie humana y de aplicar las nuevas tecnologías al hombre, de manera que se puedan eliminar los aspectos no deseados y no necesarios de la condición humana como el sufrimiento, la enfermedad, el envejecimiento e incluso, el ser mortales”. El Transhumanismo se convierte así en un movimiento, una ideología, que tiene como credo filosófico “la superación de las limitaciones humanas a través de la razón, la ciencia y la tecnología” (Transhumanismo y fin de la humanidad)

Presupuestos tecnológicos.

Los presupuestos tecnológicos por medio de los cuales los transhumanistas aspiran a lograr sus propósitos, para ello cogen como referencia al proyecto norteamericano conocido como NBIC (convergencia de la Nanotecnología, la Biotecnología, la Infotecnología y la Cognotecnología) la cual esperan que produzca un impacto social sin precedentes en la historia de la humanidad. Se analizan por separado a tres de estas tecnologías.

Dentro de los presupuestos tecnológicos, la inteligencia artificial es la que más incidencia tiene y en la que más esperanzas se han cifrado, al dotar a los investigadores de una de las metáforas más poderosas e influyente para la comprensión del ser humano, al reducirlo a un ser material que puede considerado como un mecanismo (biomáquina) y que los estados mentales son complejos algoritmos que pueden ser reproducidos en una computadora. Siendo esta una de las tesis favorita de los transhumanistas.

Otro presupuesto tecnológico, se basa en el impacto de la  biotecnología. Se considera a  la eugenesia negativa: eliminación de los niños defectuosos y la eugenesia positiva y el sueño de construir el mejor hijo posible, así como la esperanza de alargar la vida, de eliminar las enfermedades, detener el envejecimiento y de crear una evolución artificial pro medio de la clonación.

En estas tecnologías cifran los transhumanistas sus esperanzas para mejorar la condición humana y son el tema de debate entre transhumanistas y bioconservadores.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

Hoy las tecnologías se están convirtiendo en juguetes demasiado peligrosos en manos de los intereses humanos, dada la negligencia, el egoísmo y la ambición humana. ¿Qué sentido tiene construir una IA que nos supere? ¿Qué debemos hacer? El futuro de la humanidad depende de cómo enfrentemos estas preguntas. Y es que estamos ante la decadencia del modelo mundial actual, producto de nuestra actitud  egoísta y hegemónica (mente intelectual) que nos llevará al fin de la especie humana ya sea por la destrucción del planeta o por la confrontación, debemos pasar  un nuevo modelo basado en la sabiduría y la colaboración (mentalidad espiritual) como forma de lograr un verdadero progreso humano.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom, quien no parece estar muy seguro de la tecno-utopía de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.

 

 

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Inteligencia Artificial, Riesgos existenciales y etiquetada , , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s