¿Provocarán las tecnologías el fin de la humanidad? (2)

La relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad.

¿Cuáles son los mayores peligros?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

1. La biotecnología
La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

La nanotecnología, trabajar a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

2. La inteligencia artificial
La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

Nick Bostrom sugirió que en la búsqueda de la humanidad el conocimiento podría inadvertidamente crear un dispositivo que podría destruir la Tierra y nuestro sistema solar.

3. La guerra nuclear
Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esa sería exterminar a la humanidad, sin embargo, un invierno nuclear causaría conmoción considerable en las civilizaciones avanzadas.

4. El cambio climático
Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

Según las Naciones Unidas, los desastres climáticos van en aumento y alrededor del 70 por ciento son de parición reciente. Estos desastres se hacen cada vez más difíciles de controlar y tienen cada vez un precio más alto.
• En la última década 2,4 millones de personas se vieron afectadas por desastres relacionados con el clima.
• El coste de la respuesta a los desastres se ha multiplicado por diez entre 1992 y 2008.
• Destructivas fuertes lluvias repentinas, intensas tormentas tropicales, inundaciones y sequias repetidas están aumentando.
• El aumento del nivel del mar.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tale como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Estamos pasando de una estructura social competitiva a una superestructura social, también competitiva, donde las tecnologías se integraran a nuestro contexto, caracterizado por la competencia y a la lucha por el poder, donde el libre mercado es el motor impulsor del progreso, un progreso que no contempla a todos por igual.

Hoy se habla de una Tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica, tan deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana, que no ve los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción, a que esto, podría conducirnos.

Transhumanistas vs Bioconservadores (5)

Enfrentamiento biopolítico ante el problema eco-sostenible.

Potter se cuestiona: ¿Cómo alcanzar el éxito a corto plazo sin destruir la opción futura de supervivencia?

Protección ecológica:

T. Singularista: Las tecnologías, cuyo potencial es infinito, en un futuro serán capaces,  con la nanotecnología, de reconstruir la materia y de ir sustituyendo lo natural por lo artificial. Evolución artificial

T. Liberal:Libre mercado. El mercado puede resolver todos los problemas ecológicos. El escenario de un futuro prospero  donde la economía puede crecer indefinidamente sin tener en cuenta los límites del planeta.

T. Democrático: Una combinación de la regulación prudente y ecológicamente orientada a las tecnologías, pueden prevenir y reparar los daños ecológicos. Regulación de las tecnologías hacia lo ecológico, existe la “intención” de preservar al planeta.

B. Ludita: La humanidad debe dejar de ser el mayor depredador del planeta y abandonar radicalmente sus hábitos y  costumbres. Conservar la evolución natural.

B. Sociales: Eco-socialismo: La causa del problema está en la apuesta por el crecimiento indefinido, lo que ha traído como consecuencia el agotamiento de los recursos del planeta siendo el sistema capitalista el responsable del deterioro del planeta y debe ser cambiado. Se debe controlar el crecimiento económico. Proteger la evolución natural.

B. Progresista:Necesidad de un enfoque evolutivo y sus consecuencias futuras. Determinar el futuro de forma evolutiva y no de forma radical en el presente, para que, no solo, responda a nuestros intereses actuales, lo cual puede perjudicar las decisiones futuras; al tomar decisiones que podrían ser irreversibles  o que comprometan el futuro, y no dejar otra elección.

El dilema para Potter radica en cómo alcanzar los alimentos actuales y las fibras necesarias sin contribuir a las dificultades futuras al ignorar la necesidad para la diversidad biológica en el mundo natural

En realidad el problema no consiste en el retorno a la naturaleza y llevar una vida casi primitiva, ni tampoco en la conservación a ultranza de la naturaleza, los problemas de hoy son cada vez más complejos y requieren de soluciones trans-disciplinares, los humanos son responsables de los problemas que enfrentamos y la protección del planeta es el principio fundamental de la vida.

Resumen

Transhumanistas: La tecnología cuyo potencial es infinito, será capaz de reconstruir la materia y de ir sustituyendo lo natural por lo artificial.

Bioconservadores: En lugar de una actitud egocéntrica y consumista hay que ir a la  responsabilidad con el planeta y al compromiso con las próximas generaciones. Desarrollo sostenible

Critica al transhumanismo

·                     Favorece la irresponsabilidad y el deterioro del planeta (este puede ser reconstruido).

·                     Se fomenta la sustitución de los recursos naturales por los artificiales. El problema se reduce en quien es más rápido: la destrucción o la reconstrucción.

·                     En general, se quiere sustituir la evolución natural por una evolución artificial que dé lugar a una nueva especie poshumana y, por supuesto, a la destrucción del planeta natural y la reconstrucción de uno artificial. Pienso, ¿no sería más lógico construir, entre todos, un planeta artificial fuera de la Tierra?

Próximo artículo: Transhumanistas vs Bioconservadores (6)

¿Nos acercamos al fin de la humanidad?

¿Cómo podemos saberlo? ¿Qué está sucediendo o que podría suceder?

Si el mayor peligro  para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Hoy son dos los escenarios que pone en peligro a la raza humana: la degradación del planeta y el desarrollo acelerado de las tecnologías, que cada vez responde menos al desarrollo humano, y parece escapar  a todo control. Siendo la aceleración tecnológica representa un mayor peligro que el deterior del planeta.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford,   quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, y no por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe natural; el mayor riesgo proviene de nosotros mismo.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”.

¿En qué consiste esa amenaza? Veamos las opiniones de los expertos y del propio Bostrom

Experimentos en áreas como biología sintética, nanotecnología e inteligencia artificial se están precipitando hacia el territorio de lo accidental e imprevisto.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana.

La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

 Vivimos en un mundo más interconectado: más noticias y rumores se difunden a la velocidad de la luz. Por ello, las consecuencias de un error o terror son más desmedidas que en el pasado”.

Nos preocupamos por riesgos individuales más inmediatos, como los vuelos aéreos o seguridad alimentaria, tenemos más dificultad en reconocer peligros más serios.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente.

“Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

·La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra”, apunta Bostrom. “Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso”.

La manera en la que la inteligencia artificial interactuará con el mundo exterior es otro de los temores del grupo de expertos reunidos en Oxford. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom.

Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Bostrom no parece estar muy seguro de la tecno-utopia de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”.

Hasta ahora hemos apostado por el progreso tecnológico y se ha ignorado el progreso humano, de ahí las consecuencias que se vislumbran hacia una tecnología fuera de control. Podemos afirma que vamos a ciegas hacia el futuro y significativo, que un pionero de la ideología transhumanista, como Nick Bostrom, comience a preocuparse de las consecuencias imprevista de la aplicación sin control de las tecnologías.

Coincido con Bostrom en que el cambio está próximo y que no se dado la importancia que merece. No podemos ignorar que Bostrom es un defensor del tranhumanismo, del cual hemos estado hablando en artículos anteriores. De ahí sus conclusiones.

 “Hay un cuello de botella en la historia de la humanidad. La condición humana va a cambiar. Puede ser que termine en una catástrofe o que nos transformemos tomando más control de nuestra biología”.

Recomendación:
Inteligencia Artificial, el futuro del hombre

La singularidad (1)

La singularidad tecnológica se esta convirtiendo en una de las mas poderosos visión del futuro en la actualidad, con una clara orientación a la ideología transhumanista, cuyas expectativas alcanzan matices religiosos y soportado por el desarrollo acelerado de las tecnologías y la cada vez mas evidente convergencia entre la nanotecnologia, la biotecnología, las tecnologías de la información y la ciencia cognitiva. Hace que la singularidad sea la perspectiva más sugerente del futuro.

Y por si esto fuera poco, tiene detrás un trabajo propagandístico y un apoyo de los medios como pocas visiones del futuro han tenido, gracias al prolifero Ray Kurzweil, quien lideres esta visión y se ha encargado de propagarla por todos los medios posibles, incluso se esta firmando una película con el nombre de su ultimo libro: “la singularidad esta cerca”, además de eventos sobre el tema, su pagina Web y por ultimo la creación de la universidad de la singularidad, noticia que ya referimos en este blog.

El termino la singularidad tecnológica, aunque se le atribuye a John von Neuman, pero quien la popularizo fue el matemático y escritor de ciencia ficción Vernor Vinge quien se planteo que la velocidad creciente de las maquinas (aceleración tecnológica) cada vez mas memoria, velocidad de calculo, las llevaría a igualar al cerebro humano y luego a superarlo.

Ya a mediado de los 80s Vinge vaticinó que la creación de entidades con inteligencia mayor que la humana será una realidad en un futuro cercano, antes del 2030, y se podrá alcanzar de diferentes modos:

1. Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior.

2. Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.

3. Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.

4. La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Vinge quien nación en 1944, para el 2030 tendrá 86 años, y a lo mejor alcanza ver sus predicciones de acuerdo a los avances de la tecnología, para entonces podrá rejuvenecerse, el sueño de los transhumanista.

Mas audaz y con una mente mas comercial, Ray Kurzweil, quien se mueve dentro del campo de la Inteligencia Artificial sin grandes resultados teóricos, no estamos hablando de un Minsky o un McCarthy, pero sin con excelentes resultados prácticos, vio en la singularidad un nicho muy prometedor para elaborar nuevas ideas. Su libro “La era de las maquinas espirituales”, se convirtió en un Best seller y desde entonces se ha consagrado a la promoción y posicionamiento de su visión del futuro.