Transhumanismo y fin de la humanidad

El transhumanismo, Nick Bostrom (uno de sus artífices) lo define como “un movimiento cultural, intelectual y científico, que afirma el deber moral de mejorar la capacidad física y cognitiva de la especie humana y de aplicar las nuevas tecnologías al hombre, de manera que se puedan eliminar los aspectos no deseados y no necesarios de la condición humana como el sufrimiento, la enfermedad, el envejecimiento e incluso, el ser mortales”. El Transhumanismo se convierte así en un movimiento, una ideología, que tiene como credo filosófico “la superación de las limitaciones humanas a través de la razón, la ciencia y la tecnología”

Presupuestos tecnológicos.

Los presupuestos tecnológicos por medio de los cuales los transhumanistas aspiran a lograr sus propósitos, para ello cogen como referencia al proyecto norteamericano conocido como NBIC (convergencia de la Nanotecnología, la Biotecnología, la Infotecnología y la Cognotecnología) la cual esperan que produzca un impacto social sin precedentes en la historia de la humanidad. Se analizan por separado a tres de estas tecnologías.

Dentro de los presupuestos tecnológicos, la inteligencia artificial es la que mas incidencia tiene y en la que más esperanzas se han cifrado, al dotar a los investigadores de una de las metáforas más poderosas e influyente para la comprensión del ser humano, al reducirlo a un ser material que puede considerado como un mecanismo (biomáquina) y que los estados mentales son complejos algoritmos que pueden ser reproducidos en una computadora. Siendo esta una de las tesis favorita de los transhumanistas.

Otros ideólogos del transhumanismo reducen al ser humano a las funciones del cerebro y creen que la solución está en poder construir una computadora que, basada en su velocidad de cálculo y en su memoria, supere a la capacidad del cerebro. Esto ha llevado a la idea de una singularidad tecnológica en la que se vaticina el surgimiento de superinteligencias capaces de superar a la inteligencia actual de los humanos.

Y cifran sus esperanzas en vías para alcanzar esa superinteligencia:

  • El surgimiento de una superinteligencia artificial basada en la idea de que las máquinas cada vez tienen más capacidad de memoria y más velocidad de procesamiento de la información, llegará un momento en que igualará y luego superará la velocidad del cerebro, esta es la idea predilecta de los que defienden el surgimiento de una singularidad tecnológica y los que yo defino como transhumanistas singularistas.
  • La segunda inteligencia suprahumana definida por Vinge, yo la clasifico como superinteligencia hibrida y es la que aspira a la fusión entre humanos y tecnologías y da pie a las ideas más fantasiosas sobre seres parte humanos y parte máquina (el ciborg), y se describe las diferencias entre el ciborg y el hombre prótesis y como estas prótesis son cada vez más utilizadas y más potentes y se espera incluso que superen a los miembros del cuerpo humano siendo esta una de las ideas preferidas de los transhumanistas liberales.
  •  En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia, muchos la conocen como cerebro global, yo prefiero llamarle superinteligencia colectiva y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas. Esta idea en lugar de una fusión entre humanos y maquinas (conexión física) propone trabajar en aras de una cooperación entre humanos y máquinas (conexión lógica) y se opone a la creación de maquinas superinteligentes, que supuestamente se desarrollan ajenas a los humanos, por el de una superinteligencia que se forma por la interacción social entre humanos cada vez mejores y máquinas cada vez más inteligentes.
  • Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biotecnología, yo la nombro superinteligencia biológica, y su esperanza se cifra en la ingeniería genética. Es la idea que está más acorde con los transhumaistas democráticos.

Otro presupuesto tecnológico, se basa en el impacto de la  biotecnología. Se considera a  la eugenesia negativa: eliminación de los niños defectuosos y la eugenesia positiva y el sueño de construir el mejor hijo posible, así como la esperanza de alargar la vida, de eliminar las enfermedades, detener el envejecimiento y de crear una evolución artificial pro medio de la clonación.

En estas tecnologías cifran los transhumanistas sus esperanzas para mejorar la condición humana y son el tema de debate entre transhumanistas y bioconservadores.

Lo preocupante es que el ideario transhumanista va mas allá de simples presupuestos para convertirse en un movimiento con un plan de acción bien determinado que incluye todas las facetas sociales y van desde la creación de institutos, universidades, foros, filmes, propaganda; al extremo que casi todos los institutos y sociedades relacionadas con el futuro de alguna forma comparten los ideales transhumanistas y hoy hablar de futuro humano es hablar de transhumanismo. Y más llamativo, aun, es que la mayoría de las grandes transnacionales (IBM, Microsoft, Google, etc) apoyan los principios del transhumanismo, salvo raras excepciones; al igual que los científicos relacionados con las tecnologías de punta son partidarios del transhumanismo y qué decir de los militares (Darpa, por ejemplo). Y esto se debe a los transhumanistas se han ido adueñando del futuro y no es una exageración decir que es la visión más completa y sugerente que existe. Para los bioéticos, sigue pendiente, darle la importancia al futuro que le dio Potter en su momento.

Para comprender el impacto de las tecnologías hay que estar claro en las posiciones que se asumen desde el presente, y las propuestas de cada una de ellas. Y aunque las tecnoutopías, los presupuestos tecnológicos transhumastas, parecen irrealizables en muchos casos, es una ley aceptada por todos que las tecnologías están en constante crecimiento y que no se vislumbra un límite para su desarrollo, y que cada vez somos más dependientes de las mismas. El problema está; en si las tecnologías entraran en competencia con los seres humanos o si colaboraran con ellos. Y si aceptamos el surgimiento de algunas de las formas de superinteligencias antes mencionadas

Yo defiendo la idea de una superinteligencia colectiva que se irá desarrollando producto de la cooperación entre humanos y máquinas y la idea que tenemos que aprender, desde el presente,  a manejarnos con las tecnologías del futuro, donde los transhumanistas ya nos llevan la delantera y parto de la idea de una actitud bioconservadora de corte progresista. Porque en realidad, el futuro mejor que proponen los transhumanstas, lo que hará será: aumentar las diferencias sociales, el deterioro del planeta, la competencia tecnológica y la falta de fe en sí mismo; lo que pondrá en peligro la supervivencia de la especie humana tal como la conocemos hoy.

Esperen más sobre el tema…

Nick Bostrom, el transhumanismo

Nick Bostrom, filósofo y creador del movimiento transhumanista al que define como sigue:

1. El movimiento intelectual y cultural que afirma la posibilidad y la conveniencia de mejorar fundamentalmente la condición humana a través de la razón aplicada, especialmente mediante el desarrollo y la amplia divulgación de tecnologías para eliminar el envejecimiento y mejorar humano intelectual, físico, psicológico y capacidades.
2. El estudio de las ramificaciones, promesas, y los posibles peligros de las tecnologías que nos permiten superar las limitaciones humanas fundamentales, así como de los temas éticos involucrados en el desarrollo y utilización de estas tecnologías.

Bostrom desde posiciones transhumanistas advierte sobre los riesgos que esta puede traer y los nombra como riesgos existenciales

Estos son algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,
1. Mal uso de las tecnologías.
2. Guerras nucleares.
3. Pandemias.
4. Aristocracia posthumana.
5. Mala programación de una superinteligencia.
6. Superinteligencia autónoma que asume los valores de poder.
7. Criogenización y superpoblación.
8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la practica
10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Y reconoce como uno de los mayores riesgos, el mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se considera los errores humanos, que un virus se escape de un laboratorio.

O el de una inteligencia artificial (IA) que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no seria extraño que la IA respondiera a fines hegemónicos y fuera herramienta en manos de políticos cuyo interés se basa en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

También hace referencia a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos.

Otros de los riesgos, según Bostron, radican en que solo un grupo pueda alcanzar la posthumanidad. Lo cual parece bastante lógico dada los desequilibrios insostenibles y las desigualdades existentes, que siguen creciendo y si hoy hablamos de brecha digital, mañana hablaremos de una brecha tecnológica que dará lugar a una tecnocracia que se asuma el papel de una raza superior y tome el control del mundo

Una de las mayores preocupaciones de Bostrom como creador del transhumanismo, es que no se llegue a alcanzar la posthumanidad, de ahí su temor a que surjan leyes que prohíban ciertas investigaciones o aplicaciones que limiten o frenen el camino hacia una transhumnidad, para el, la única solución viable para la humanidad.

Bostrom, al final de sus hipótesis sobre los riesgos reconoce, por fin, que muchas estrategias a largo plazo se deben delegar (al igual que un jefe delega a un subordinado) a las generaciones futuras ya que no hay nada que podamos hacer

Científicos están preocupados por las aplicaciones futuras de la Inteligencia Artificial.

Alarmados por los avances y sobre todo por las aplicaciones que podría tener la Inteligencia Artificial (IA), un grupo de reconocidos científicos se reunió a finales del mes pasado para analizar los riesgos en las investigaciones en IA, las cuales podrían tener como consecuencia una perdida del control humano sobre la maquina y conducir a la humanidad a una catástrofe.

Entre los asistentes se encontraban personalidades como Eric Horvitz, Raymond Kurzweil, Bill Joy, Paul Berg o Tom Mitchell, quienes debatieron sobre el futuro de la IA y la robótica y sus aplicaciones que van desde construir robots militares autónomos hasta modelos que pueden volar, lo cual preocupa a los científicos, que creen pueden producirse altos índices de paro entre los humanos, hechos de delincuencia robótica o incluso un alzamiento robot.

Pero donde los científicos se encuentran mas preocupados es en las investigaciones y desarrollo que se están llevando a cabo con fines militares.

En el estado actual de la tecnología ya se puede construir desde robots militares autónomos, como los que están diseñando en DARPA quien a puesto los fondos necesarios para que la empresas Robotic Technology desarrolle un robot autónomo, al que nombraron EART (robot táctico energéticamente autónomo) capaz de mantenerse funcionando a base de gasolina, energía solar, gas propano y -también- de la energía que obtenga al “alimentarse” de materia orgánica, afirman que podría cortar trozos de madera o restos de animales (humanos incluidos) para alimentarse. En DARPA aseguran que EATR podrá “mantenerse funcionando por si mismo por el tiempo que la situación lo amerite.”

Otros de los proyectos que se están desarrollando en DARPA contratado a la empresa Aerovironment, consiste en el desarrollo de un pequeño robot volador que se propulsa y mantiene en el aire imitando con gran precisión el batir de las alas que se puede ver en insectos o en pájaros pequeños como los colibríes. Para misiones de espionaje y similares, pero el concepto de robot volador en miniatura con su propia fuente de energía y capaz de cargar material adicional (como podría ser un micrófono en miniatura) es lo suficientemente prometedor como para que DARPA haya decidido invertir más de dos millones de dólares en él. La empresa involucrada en el proyecto aspira a crear unidades que sean mucho más pequeñas, livianas y veloces, con un tamaño que no exceda los siete centímetros y medio, un peso de diez gramos y una velocidad máxima de 35 kilómetros por ahora.

Tampoco el cerebro humano escapa al interés de DARPA y están trabajando en un proyecto llamado SyNAPSE con el cual se intentará reproducir el funcionamiento de un cerebro mediante componentes electrónicos. Pero lo interesante es que intentan desarrollar un cerebro electrónico que no solo imite el comportamiento del cerebro, sino que además tenga el tamaño y el consumo energético de su equivalente biológico. DARPA nos promete que «de tener éxito, el proyecto proporcionará las bases para la creación de máquinas que puedan reemplazar a los humanos en muchas de las exigentes situaciones que enfrentan los combatientes de hoy».

Todo esto ha llevado a los científicos a alarmarse, de ahí que uno de los participantes en la reunión, Eric Horvitz, investigador de Microsoft y presidente de la Association for the Advancement of Artificial Intelligence (AAAI), dijera: “El desarrollo de la inteligencia artificial debería ser controlado de forma activa antes de tener máquinas superinteligentes correteando (y eventualmente disparando) por ahí”

Otra de las preocupaciones ante el impacto de la IA y la robótica es la perdida de empleos, debido al uso de robots lo cual podría traer malestar y conflictos sociales. Las ventajas de los robots industriales frente a un trabajador humano son innegables, y difícilmente nadie quiera desactivarlos y volver a ensuciarse las manos armando automóviles u ordenadores como hace 30 años. Pero el grupo de científicos asegura que debemos buscar la forma de que cada trabajador reemplazado por una de estas máquinas reciba la capacitación necesaria como para poder seguir ganándose el pan de cada día.

Dado el crecimiento acelerado de la tecnología muchos científicos predicen las maquinas dada su creciente capacidad de memoria y de calculo, siguiendo la ley de Moore, llegaran a igualar y superar el cerebro humano. Idea sostenida por Raymond Kurzweil y uno de los defensores de la idea de una singularidad que nos llevara al surgimiento de maquinas superinteligentes. Mientras Kurzweil ve en la singularidad un futuro luminoso (la singularidad esta cerca), Bill Joy, se muestra preocupada por el destino de los humanos (Porque las maquinas no nos necesitan). Pero ambos aceptan que la IA avanza a una velocidad asombrosa y comparan la larga evolución natural de los humanos con la veloz evolución artificial de las maquinas que actualmente son capaces de vencer al campeón mundial de ajedrez.

Si bien en la reunión se descartó la posibilidad de superinteligencias muy centralizada o la idea de que la inteligencia podría surgir espontáneamente a través de Internet, pero existe una preocupación legítima de que los avances tecnológicos que transforman la fuerza de trabajo mediante la destrucción de una amplia gama de puestos de trabajo, así como el potencial de los seres humanos y la necesidad de aprender a vivir con máquinas que cada vez copian más el comportamientos de los humanos. Y están de acuerdo en que los robots autónomos capaces de matar van a ser una realidad muy pronto.

Se prestó particular atención en el fantasma que los delincuentes podrían aprovechar los sistemas de inteligencia artificial en el momento en que se desarrollaron. ¿Qué puede hacer un criminal con un sistema de síntesis de voz que podría hacerse pasar por un ser humano? ¿Qué sucede si la inteligencia artificial utiliza la tecnología de la información personal en las bases de datos

Tom Mitchell, profesor de inteligencia artificial y aprendizaje automático en la Universidad Carnegie Mellon, dijo que la reunión de febrero había cambiado su pensamiento. «Fui muy optimista sobre el futuro de la IA y pensar que Bill Joy y Ray Kurzweil fueron muy lejos en sus predicciones», dijo. Pero, añadió, «El encuentro me hizo querer ser más abiertamente acerca de estas cuestiones y, en particular, ser abiertamente de la enorme cantidad de datos referentes a nuestra vida personal».

A pesar de sus preocupaciones, el Dr. Horvitz dijo que confía en que la inteligencia artificial de investigación se beneficiarían los seres humanos, y quizás incluso para compensar defectos humanos y afirmo que el grupo estaba buscando la manera de orientar la investigación a fin de que la tecnología de mejora de la sociedad en lugar de avanzar hacia catástrofe tecnológica.

Se espera que a finales de este año se publique un informe con los debates por parte de la asociación para los avances de la IA, donde se tratara de evaluar la posibilidad de la perdida de control las computadoras basadas en inteligencia así como los problemas sociales, económicos, jurídicos y técnicos que habrá que enfrentar ante los posibles cambios en las relaciones entre humanos y maquinas.