¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.

 

La singularidad de Kurzweil

Ray Kurzweil

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una Singularidad tecnológica, debido a la velocidad creciente de las máquinas (aceleración tecnológica) con cada vez más memoria, velocidad de cálculo, lo que las llevaría a igualar al cerebro humano y luego a superarlo y parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) por si misma construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja una inteligencia artificial (IA) superior a la humana esta será capaz de construir IAs cada vez más inteligentes, produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una posthumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la posthumanidad (reconstrucción del humano).

En la singularidad de Vinge se plantea el surgimiento de una inteligencia superior a la humana y, aunque hace hincapié en el surgimiento de una inteligencia artificial que podría superar a la humana, basándose en el crecimiento acelerado de los equipos de computo (ley de Moore). Vinge también le da importancia a otras vías para alcanzar una superinteligencia que supere a la de los humanos donde el surgimiento de la superinteligencia artificial, es uno de los caminos para lograr la singularidad, en cambio para Kurzweil primero surgirá la superinteligencia artificial y luego como consecuencia de estas surgirán las otras, idea muy parecida a la que defiende Hans Moravec, pero no tan categórica y parcializada, ver Moravec y el fin de la especie humana.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de super inteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí, dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.

Siguiendo a Vinge la singularidad tecnológica se producirá cuando surja una superinteligencia y propone cuatro formas de alcanzarla. Ver los caminos de la singularidad tecnológica
1. Superinteligencia artificial – La singularidad de Kurzweil (poshumanismo)
2. Superinteligencia hibrida – Transhumanismo fuerte (ciborg)
3. Superinteligencia biológica – Transhumanismo débil (humano mejorado)
4. Superinteligencia colectiva – Sostenibilidad tecnológica (singularidad distribuida)

Habíamos dicho al principio que Kurzweil se basa el surgimiento de una inteligencia artificial fuerte, que es la desencadenante de todo el proceso y nos lleva a la singularidad. Por lo que primero tiene que surgir una inteligencia que iguale y luego supero a los humanos para que se produzca la singularidad, la cual no es la idea original de Vinge y si la de Moravec pero enfocado a los robots y no a los programas como Kurzweil. Los enfoques de cada uno son tratados en el libro: Inteligencia artificial, el futuro del hombre 

Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una superinteligencia artificial y se subestiman el resto de las tendencias y peor aún existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

¿Es Kurzweil un transhumanista?

No queda claro lo que es el transhumanismo y la singularidad tecnológica, incluso el propio Kurzweil declaró: “Nunca me ha gustado la etiqueta del transhumanismo, ya que implica que estamos reemplazando a la humanidad”, y agrega. “No creo que eso sea cierto. Lo que estamos haciendo es aumentar la capacidad humana”. Precisamente eso es lo que quiere hacer el transhumanismo, aumentar o potenciar las capacidades humanas por medio de las tecnologías.

Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.

Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad y con ello superar los límites humanos, es un proceso casi natural donde los humanos se irán realizando implantes, prótesis, mejoras genéticas, que lo irán perfeccionando, convirtiéndolo en más inteligente, más bello, más saludable, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y está convencido de que la inmortalidad será posible.

Siguiendo la idea de una simbiosis humanos-tecnologías, mientras en la singularidad estaríamos en una endosimbiosis parasitaria, en el transhumanismo estaremos en una endosimbiosis mutual (transhumanismo fuerte) y una endosimbiosis comensal (transhumanismo débil). Puedo anticipar que dadas sus características se irán dividiendo en los defensores de un transhumanismo más radical, convertirse en ciborg, o uno más conservador que solo aspira a mejora las facultades humanas, teniendo en cuenta los riesgos. James Hughes, divide el transhumanismo en liberal (al que llamo fuerte) y transhumanismo democrático (al que nombro débil). Aquí estoy asumiendo que el transhumanismo débil se orientara, o tendrán preferencia, por las mejoras genética, más cerca de la condición humana, que por las cibernéticas; el clásico ciborg.

Como hemos dicho el actor principal en el logro de una singularidad tecnológica es Ray Kurzweil, quien por medio de las tecnologías busca la inmortalidad digital y sueña con llegar a la posthumanidad a través de una superinteligencia artificial que de alguna forma facilitará la digitalización de la mente. En cambio Moravec quien plantea una singularidad tecnológica más radical, considera un futuro sin los humanos, donde los robots heredan el planeta. En cambio el transhumanismo propone una fusión entre humanos y tecnología tratando de combinar lo mejor de cada uno (ciborg), la idea es convertirse en algo más que humano. La aspiración del transhumanismo es llegar por medio de la fusión a la posthumanidad, aplicando ciertos presupuestos tecnológicos. Ahora la pregunta es: ¿Qué por ciento seremos humanos y que por ciento tecnología? ¿Terminaremos siendo 100% tecnología? Al final no nos estaremos convirtiendo en “otra cosa”.

.Si para los transhumanistas la superhumanidad, se puede alcanzar con transformaciones paulatinas, desde ellos mismo, convirtiéndose en un individuo cada vez más inteligente, más joven y saludable, así hasta alcanzar la inmortalidad. La singularidad desplaza sus aspiraciones a que las máquinas sean cada vez más inteligentes y apuestan por una futura transferencia de la mente a un medio digital (mind uploading), de ahí que existan muchas personas que están criogenizando sus cabezas, para algún día, cuando se alcance la singularidad, descarguen su mente sobre un nuevo soporte que le permita existir en un medio digital, estamos hablando de lo que actual mente se le llama “la nube”, lo cual nos lleva a la posibilidad futura de vivir en un mundo digital al estilo Matrix.

Como crear una mente

Para terminar retomamos algunas de las ideas de Ray Kurzweil de quien ya hemos hablado en otros artículos. Quien considera que es posible la exploración del cerebro para trazar un mapa de sus localizaciones, conexiones, interconexiones y contenidos lo cual permitirá realizar la copia del cerebro en otro medio no biológico. Y afirma que actualmente una computadora es más rápida que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. El profesor norteamericano Andreas Nowatzyk ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

Cuando hablamos de descargar la mente en un mundo digital estamos asumiendo que la mente no es otra cosa que complejos algoritmos que pueden ser convertidos a programas, la metáfora de la computadora que sume que la mente no está conformada por programas y que el cerebro no es otra cosas que un sistema que procesa información al igual que la computadora. De ahí que se pueda transferir la mente, en forma de programas, software, codificarse digitalmente; como quiera llamarse. Al final vamos a tener un programa que es la representación virtual de la mente humana. Por supuesto que la cosa no termina aquí, lo bueno sería lograr que la mente se pueda seguir reprogramando y perfeccionándose en nuevas versiones, idea de Kurzweil. A mí me viene a la mente el cuento ¿Existe verdaderamente Mr.Smith? , de Stanislaw Lem, de una hombre que compite en carrera de autos y cada vez que tiene una accidente le ponen una prótesis, así hasta que al final solo está compuesto de prótesis; ya no tiene nada de humano. Aquí estamos ante una transformación por hardware, en el caso de la mente estaríamos en una transformación por software ya que al final se estaría reprogramando a la mente en nuevas versiones cada vez más algorítmicas (más cerca de ser un software) que al final no tendría ninguna relación con la mente que le dio origen y podríamos preguntarnos: ¿Existirá verdaderamente Mr. Kurzweil?

La Singularidad está cerca. Cuando los humanos trascendamos la biología

313W4wiVizL

“La Singularidad está cerca” es la obra maestra de uno de los pensadores más influyentes de nuestros días, el ingeniero e inventor Ray Kurzweil. Este libro se centra en lo que el autor llama la ley de los rendimientos acelerados, una ley que ha de llevar a la humanidad a un escenario donde se producirá una singularidad tecnológica…

La idea de una singularidad tecnologica se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes

Puedes comprar la Sigularidad está cerca aquí

También puede ver la Selección de libros de Ray Kurzweil (espñol/ingles)

Inteligencia artificial, el futuro del hombre. La singularidad tecnológica

Vernor_Vinge_small

Vernor Vinge, matemático y escritor de ciencia ficción

“¿Estamos tomando la inteligencia artificial suficientemente en serio?”
Stephen Hawking

La idea de un mundo fuera de control donde surge una inteligencia superior a los humanos e independiente de los intereses humanos al estilo de Kurzweil y Moravec, sin dudas, es demasiado peligrosa (por no decir descabellada). Ahora dado el desarrollo acelerado de las tecnologías, estas nos van a superar en muchos aspectos (conscientes o no) por lo que algunos ven como única solución una fusión entre humanos y tecnologías (Cyborg). Y es que todo indica que la aceleración de las tecnologías y su propio progreso, nos llevara a una simbiosis entre humanos y tecnologías.

¿Estamos preparados para el surgimiento de una inteligncia artificial superior a la humana?

Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “IA el futuro del hombre”.

Singularidad tecnológica

Antecedentes para una singularidad tecnológica

En los últimos tiempos se ha puesto de moda el retorno al hardware. La IA que al principio se basó en la idea del software; el cual, para muchos, avanzaba demasiado lento y se desarrollaba sobre un “mundo de juguetes”, fue perdiendo partidarios por otra idea más ambiciosa: construir máquinas cada vez más potentes que lleguen a alcanzar las capacidades del cerebro; en velocidad, memoria, poder de representación. Así, hasta que la computadora llegue a ser más inteligente que el hombre.

La superación de la mente gracias a la rapidez de la máquina, su hardware, está dando lugar a una transformación del término inteligencia:
Pueden surgir máquinas inteligentes que no sean una copia del cerebro.
La inteligencia de la máquina estará dada por su velocidad de procesamiento.

El problema consiste en si creemos que las tecnologías siempre serán una infraestructura controlada por los humano o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y de su creciente inteligencia (a lo cual no se le ve limites), se puede aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos.

Durante los primeros años la Inteligencia Artificial (IA) se ha fundamentado en el desarrollo de programas que fuesen capaces de realizar actividades propias de la mente humana, tales como demostrar teoremas, jugar a las damas, al ajedrez, darle soluciones a problemas poco estructurados basados en la heurística o en campos donde se requería de conocimientos, los sistemas expertos. Con el tiempo, se demostró, que esta vía para lograr una inteligencia no humana, era demasiado lenta y no cumplía con las expectativas –ya se había predicho el surgimiento de una inteligencia no humana a principio de la década de los 80; por lo que, a finales de esa década y principio de los 90, muchos investigadores comenzaron a desesperarse, y no fueron pocos los que abandonaron sus laboratorios por líneas de trabajo más prometedoras.

Sentimiento de fracaso que invadió tanto a la IA débil como a la IA fuerte. Para la débil cuyo objetivo era crear sistemas informáticos que realizasen actividades que requerían de inteligencia tales como los sistemas expertos, en los cuales se cifraron grandes esperanzas tanto investigativas como comerciales, se esperaba que el mercado estuviera abarrotado de sistemas expertos, incluso los metódicos japoneses, para no ser menos, se lanzaron en su famoso proyecto de 5ta. Generación, que también quedó como otro intento más. Por su parte la IA fuerte, cuyo propósito es reproducir en la máquina la extensa variedad, sutileza y profundidad de la inteligencia humana, no logró cumplir con sus metas, de en menos de 20 años haber reproducido la mente humana, y estaban atascados en modelos muy elementales de la inteligencia, como el mundo de bloques y en sistemas cerrados que eran incapaces de mostrar iniciativa o fallaban estrepitosamente ante cualquier problema que requiriera de sentido común.

Entonces… ¿Qué está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. ¿Cuál es el nuevo enfoque?

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Mega hertzios (Mhz) a las actuales que ya sobrepasan los 3 Giga hertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Estas máquinas superveloces, podrán efectuar un billón de operaciones por segundos, por lo que –según Moravec– estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Idea que se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes

También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.

Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más “inteligente”, y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?

Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; media máquina, medio humano, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa “cosa” llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana.

Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un “despertar” como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de “emergencia”, esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia “emergente” donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de “conocimientos” hasta llegar a despertar como una entidad inteligente.

Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a “pensar”? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.

En futurología, la Singularidad Tecnológica (algunas veces llamada simplemente Singularidad) es un posible acontecimiento futuro en el que, según se predice, el progreso tecnológico y el cambio social se acelerarán con el desarrollo de una inteligencia sobrehumana de tal manera que ningún ser humano anterior a dicho acontecimiento podría comprenderlo o predecirlo.

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.

A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Postulados para el surgimiento de una superinteligencia artificial
Nos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Ecured), por supuesto, que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.

La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical. No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

La singularidad se sustenta sobre la idea que las maquinas son cada vez más veloces y que esta velocidad crece de forma exponencial y parten que esa velocidad de cálculo superará a la del cerebro.
Un primer postulado es que se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la maquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la maquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.
Un segundo postulado, es la emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.
Un tercer postulado es que las maquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Caminos hacia la singularidad

Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una super inteligencia artificial y se subestiman el resto de las tendencias y peor aún existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de superinteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí (eso no le queda claro a nadie), y lo más lógico dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.
La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.

Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030.

  • Superinteligencia artificial: Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  • Superinteligencia colectiva (o global): Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  • Superinteligencia hibrida: Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  • Superinteligencia biologica: La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia “emergente” que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.

Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las maquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el “original” en todo caso igualarlo.

La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más “creativa”, no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).

Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: “La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)”.

Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos “equivalentes humanos” podrían ser usados nada más que para procesamiento digital de señales. Y agrega: “para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)”.

La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.

La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma a la que yo denomino como superinteligencia artificial.

La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida.

En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, siguiendo las ideas de Pierre Levy, prefiero llamarla superinteligencia colectiva.

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica.

Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.

Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad, ellos buscan, por medio de las tecnologías, superar sus límites humanos y lograr ser más inteligentes, más fuertes, más bellos, saludables, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y está convencido de que la inmortalidad será posible.

Critica a la singularidad

Según sus defensores la singularidad debe acontecer antes del 2030. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos. Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa poshumana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes. Aunque, para muchos, resulta ingenuo, creer que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora.

¿Hay alguna razón que nos pueda llevar a pensar que será así? Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

Comencemos por la artificial. ¿Estará el hombre dispuesto a construir una inteligencia no humana que lo supere? “Si no trabajamos en las tecnologías inteligentes alguien lo hará”. O sea que las necesidades del mercado y la competencia que esta genera, nos llevará inevitablemente a el desarrollo de inteligencias artificiales (IA) superior a la humana. Y no hemos mencionado la carrera armamentista, que tampoco se detendrá.

La única preocupación, radica, en que estas ideas no se lleven a cabo, con la prontitud requerida, debido a las acciones que puedan desplegar los llamados “luditas” o “bioluditas”. Que son aquellos que proponen la prohibición de aquellas tecnologías que puedan significar un riesgo para la humanidad. Sin dudas una IA superior a la humana es un peligro para los humanos, si aceptamos que vivimos en una sociedad basada en la competencia y en la lucha por el poder. Otros afirman que las ventajas son tantas que vale la pena correr los riesgos, pero algunos piensan que nos adentraremos en una aventura cuyas consecuencias son impredecibles.

Entre las críticas al surgimiento de una inteligencia artificial, está la de Roger Penrose quien establece diferencias entre el funcionamiento de un ordenador, que es capaz solamente de un razonamiento algorítmico basado en secuencias lógicas, y el funcionamiento del cerebro humano, que es capaz de estar abierto a la imp Los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

En cambio, los expertos en computación tradicional no pueden creer que las computadoras relativamente simples, en las que se ejecutan sus programas, se almacenen sus bases de datos, sus gráficos; que requiere de un sistema operativo y opera sobre algoritmos numéricos; puedan ser también el sustrato donde se puedan ejecutar los complejos procesos de la mente humana.

La idea de la fusión responde al sueño de los transhumanistas de lograr un humano mejorado. El transhumanismo es un movimiento tecnológico, que, según Nick Bostrom, afirma la posibilidad y el deseo de mejorar, en modo fundamental, la condición humana a través de la razón aplicada, especialmente por medio del desarrollo y la puesta a disposición de tecnologías para eliminar el envejecimiento y potenciar grandemente las capacidades humanas, intelectuales, físicas y psicológicas.

La definición de una superinteligencia colectiva nos lleva a tomar la posición de los que creen que podrá surgir una supeinteligencia no humana y, de alguna forma, a estar de acuerdo con los presupuestos transhumanistas. Y surge de la idea del cerebro global, que además de tener como soporte la metáfora del cerebro, también parte la creencia de una inteligencia colectiva. Tal como la define Pierre Levy, una forma de inteligencia universalmente distribuida, constantemente realizada, coordinada en tiempo real, y resultando en la movilización efectiva de habilidades que de forma cooperada pueden conformar una inteligencia; como sucede con las sociedades de las hormigas.

Pienso que el surgimiento de una superinteligencia superior al humano, fíjense que digo superior al humano y no a la humanidad, será un proceso inevitable, el problema radica en tomar las decisiones correcta y en aprender a manejarnos con una inteligencia; capaz de integrarse y colaborar con los humanos, en lugar de ser una amenaza que inevitablemente nos irá desplazando.

Otra de las proyecciones del transhumanismo es la carga de la mente, la transferencia de la conciencia humana o de la personalidad en otro sustrato, por ejemplo; a una supercomputadora. Idea que parece extraída de la ciencia ficción y que hoy en día parece irrealizable. Para los defensores de la singularidad tecnológica esta es una de sus predicciones futuras favoritas, ellos parten de una visión mecanicista del hombre, según la cual el cerebro y sus funciones se pueden reducir a un sistema de procesamiento de información y han formulado la hipótesis de una existencia post-biológica y aspiran realizar un escaneo de la matriz sináptica de un individuo y reproducirla dentro de una computadora, lo que permitiría emigrar cuerpo biológico a un substrato puramente digital y con ello obtener varias copias de la matriz sináptica del cerebro, y así, alcanzar periodos de vida ilimitado. Para su realización afirman que se requiere del uso de una Nanotecnología ya madura, aunque, hay, también, otras formas menos extremas de fusionar la mente humana con la computadora y hoy día se están desarrollando interfaces del tipo neuro/chip. Esta tecnología está en sus pasos iníciales y sueñan en un futuro poder conectarse en forma directa al ciberespacio.

Son muy pocos los que analizan la posibilidad de sociedades en las cuales hombres y máquinas vivan de forma cooperativa y que dadas sus diferencias, que son evidentes, puedan complementarse y realizar las tareas para la cual cada uno está mejor capacitado. Por otra parte, se ignoran las posibilidades de desarrollo del cerebro, el que, al igual que la máquina no se utiliza en toda su potencia y esta capacidades podrían ser estimuladas y ampliadas. En cambio son muchos los que creen que las máquinas vendrán a sustituir a una humanidad decadente y sin futuro, y piensan que solo las máquinas estarán a la altura del mundo posmoderno o posindustrial que se avecina.

Inteligencia artificial, el futuro del hombre

IA - futuro del hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”

Puedes comprar Inteligencia artificial, el futuro del hombre (versión kindle)

También puede ver la Selección de libros de Ray Kurzweil (espñol/ingles)

El futuro no nos necesita: Riesgos existenciales (1)

Nick Bostrom, filosofo y padre del transhumanismo

El fin de la especie humana

 “Las especies biológicas casi nunca sobreviven a encuentros con competidores superiores…  Parte de la respuesta yace en nuestra actitud hacia lo nuevo –en nuestra disposición a familiarizarnos rápido y a aceptar sin cuestionar. Acostumbrados a vivir con adelantos científicos que se dan casi como una rutina, todavía tenemos que hacernos la idea de que las tecnologías más seductoras del siglo XXI –robótica, ingeniería genética, y nanotecnología– plantean una amenaza distinta que la de las tecnologías que han venido antes” (Bill Joy)

 

Hoy estamos ante el peligro de la reconstrucción del mundo natural por otro artificial. Donde existe una lucha por ver quién es  más rápido entre la degradación del planeta y la aceleración tecnología. La aceleración a toda  costa, como una medida desesperada para alcanzar la posthumanidad (vida eterna), nos va a conducir inevitablemente a una mayor degradación del planeta y con ello, al fin de la especie humana.

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos (Los riesgos del futuro)

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

  1. Mal uso de las tecnologías.
    2. Guerras nucleares.
    3. Pandemias.
    4. Aristocracia poshumana.
    5. Mala programación de una superinteligencia.
    6. Superintenligencia autónoma que asume los valores de poder.
    7. Criogenización y superpoblación.
    8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
    9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica
    10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Uno de los riesgos que más se menciona es el del surgimiento de una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Los riesgos de una IA superior a los humanos.

“Una de dos cosas puede ocurrir. Se le podría permitir a las máquinas tomar todas las decisiones por sí mismas sin supervisión humana, o bien se mantendría el control humano sobre las máquinas” (Bill Joy)

La era de las tecnologías

 Estamos en la era de la tecnología y son muchos los que los que abrazan posiciones tecnofuturistas y creen que la solución a todos los problemas humanos están en la Ciencia y la Tecnología y afirman que la solución, esta exclusivamente, en el desarrollo acelerado de la tecnología. Lo que quiere decir que debemos concentrar todos nuestros esfuerzos en desarrollar instrumentos, aparatos y máquinas cada vez más potente. La idea consiste en acelerar la tecnología para alcanzar una superinteligencia y luego fundirse con ella.

Ideología de los tecnofurusitas

  1. Se sustenta en una ideología que sustituye a la fe religiosa al prometer, curar a las enfermedades, eliminar a la vejez, alcanzar la vida eterna… Alcanzar el paraíso en la tierra. (Manuscrito transhumanista).
  2. Convencimiento de que el fin de la humanidad es inevitable y hay que intervenir y crear una nueva evolución artificial basada en la tecnológica. (La singularidad tecnológica).
  3. Convencimiento de que la tecnología por si sola es capaz de resolver todos los problemas actuales de contaminación, pobreza, desigualdades, guerras. (Informes sobre las tecnologías convergentes).

Para comprender el impacto de las tecnologías hay que estar claro en las posiciones que se asumen desde el presente, y las propuestas de cada una de ellas. Y aunque las tecnoutopías, los presupuestos tecnológicos transhumastas, parecen irrealizables en muchos casos, es una ley aceptada por todos que las tecnologías están en constante crecimiento y que no se vislumbra un límite para su desarrollo, y que cada vez somos más dependientes de las mismas. Ell problema está; en si las tecnologías entrarán en competencia con los seres humanos o si colaborarán con ellos. Y si aceptamos el surgimiento de algunas de las formas de superinteligencias antes mencionadas

Tendencias de la tecnología (degradación vs aceleración)

1) Ignorar la tecnología: Subestimar el impacto de la tecnología. Concentrarse solamente en la degradación del planeta sin tener en cuenta la aceleración tecnológica. Subestimar el desarrollo tecnológico seguir pensando que es sólo una herramienta y creer que la tecnología siempre estará bajo nuestro control, sin tener en cuenta los intereses mercantiles y hegemónicos que se mueven detrás de la tecnología así como ignorar la ideología transhumanista y su poderosa visión de futuro, el no tener en cuenta la campaña de promoción y posicionamiento en la mente humana, que se está llevando a cabo sobre la singularidad tecnológica y sobre todo ignorar el impacto social, económico, político y militar que tendrán las tecnologías convergentes (NBIC) sobre el futuro de la humanidad. Tal negligencia y falta de visión de futuro, llevara a una degradación cada vez mayor del planeta y a la extinción indirecta de la humanidad

2) Acelerar la tecnología: Aceptar a la tecnología como la salvadora del planeta y apostar todo a la aceleración tecnológica (singularidad) Lo cual nos llevara al transhumanismo, Pero dentro del contexto actual de poder, lo único que hará es que unos sean mas poderosos que otros, aumentando la desigualdad, ahora entre transhumanos y humanos. Dado su carácter ideológico los pobres también serán convertidos a obsoletas versiones de transhumanos. Priorizar la aceleración tecnológica por encima de la degradación del planeta lo cual conducirá a que la evolución natural sea sustituida por una evolución artificial que terminará en la autoextinción de la humanidad.

3) Cooperar con la tecnología: Buscar la integración armónica (no invasiva) de la tecnología en el contexto humano, basado en la cooperación (en lugar de la fusión) entre humanos y tecnologías. Se busca poner la aceleración tecnológica en función del desarrollo intelectual y espiritual de los humanos. Que vaya a las causas de la degradación y potencie la integración armónica de la tecnología a la naturaleza, la sociedad y el mejoramiento humano. Buscar alternativas que permitan lograr una sostenibilidad tecnológica (en lugar de una singularidad) basada en principios éticos universales que permitan formar generaciones cada vez mejores basadas en la manifestación plena del SER.

Yo defiendo la idea de una superinteligencia colectiva que se irá desarrollando producto de la cooperación entre humanos y máquinas y la idea que tenemos que aprender, desde el presente,  a manejarnos con las tecnologías del futuro, donde los transhumanistas ya nos llevan la delantera y parto de la idea de una actitud bioconservadora de corte progresista. Porque en realidad, el futuro mejor que proponen los transhumanstas, lo que hará será: aumentar las diferencias sociales, el deterioro del planeta, la competencia tecnológica y la falta de fe en sí mismo; lo que pondrá en peligro la supervivencia de la especie humana tal como la conocemos hoy.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”. (conincide con Bill Joy)

El transhumanismo.

“Me parece a mí mucho más probable que una existencia robótica no fuera como una humana, de ninguna manera en que la entendemos, que los robots no serían de ninguna manera nuestros hijos, que por este camino nuestra humanidad seguramente se perdería” (Bill Joy).

 Presupuestos transhumanistas (transhumanismo democratico)

“Un segundo sueño de la robótica es que gradualmente nos reemplacemos a nosotros mismos con nuestra tecnología robótica, consiguiendo una casi inmortalidad mediante la descarga de nuestras conciencias. ¿Pero si nos descargamos en nuestra tecnología, qué posibilidades hay de que después del proceso sigamos siendo nosotros, o incluso humanos?”(Bill Joy)

El transhumanismo, Nick Bostrom (uno de sus artífices) lo define como “un movimiento cultural, intelectual y científico, que afirma el deber moral de mejorar la capacidad física y cognitiva de la especie humana y de aplicar las nuevas tecnologías al hombre, de manera que se puedan eliminar los aspectos no deseados y no necesarios de la condición humana como el sufrimiento, la enfermedad, el envejecimiento e incluso, el ser mortales”. El Transhumanismo se convierte así en un movimiento, una ideología, que tiene como credo filosófico “la superación de las limitaciones humanas a través de la razón, la ciencia y la tecnología” (Transhumanismo y fin de la humanidad)

Presupuestos tecnológicos.

Los presupuestos tecnológicos por medio de los cuales los transhumanistas aspiran a lograr sus propósitos, para ello cogen como referencia al proyecto norteamericano conocido como NBIC (convergencia de la Nanotecnología, la Biotecnología, la Infotecnología y la Cognotecnología) la cual esperan que produzca un impacto social sin precedentes en la historia de la humanidad. Se analizan por separado a tres de estas tecnologías.

Dentro de los presupuestos tecnológicos, la inteligencia artificial es la que más incidencia tiene y en la que más esperanzas se han cifrado, al dotar a los investigadores de una de las metáforas más poderosas e influyente para la comprensión del ser humano, al reducirlo a un ser material que puede considerado como un mecanismo (biomáquina) y que los estados mentales son complejos algoritmos que pueden ser reproducidos en una computadora. Siendo esta una de las tesis favorita de los transhumanistas.

Otro presupuesto tecnológico, se basa en el impacto de la  biotecnología. Se considera a  la eugenesia negativa: eliminación de los niños defectuosos y la eugenesia positiva y el sueño de construir el mejor hijo posible, así como la esperanza de alargar la vida, de eliminar las enfermedades, detener el envejecimiento y de crear una evolución artificial pro medio de la clonación.

En estas tecnologías cifran los transhumanistas sus esperanzas para mejorar la condición humana y son el tema de debate entre transhumanistas y bioconservadores.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

Hoy las tecnologías se están convirtiendo en juguetes demasiado peligrosos en manos de los intereses humanos, dada la negligencia, el egoísmo y la ambición humana. ¿Qué sentido tiene construir una IA que nos supere? ¿Qué debemos hacer? El futuro de la humanidad depende de cómo enfrentemos estas preguntas. Y es que estamos ante la decadencia del modelo mundial actual, producto de nuestra actitud  egoísta y hegemónica (mente intelectual) que nos llevará al fin de la especie humana ya sea por la destrucción del planeta o por la confrontación, debemos pasar  un nuevo modelo basado en la sabiduría y la colaboración (mentalidad espiritual) como forma de lograr un verdadero progreso humano.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom, quien no parece estar muy seguro de la tecno-utopía de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.

 

 

Vías para alcanzar la inteligencia suprahumana

Vivimos dentro del paradigma mecanicista-lineal y la construcción de una inteligencia artificial (IA) no escapa de las leyes de este paradigma, de ahí que se hable de un crecimiento acelerado (lineal): más memoria, más velocidad de cálculo, más velocidad de acceso, etc., y se asuma que esto nos llevará a una singularidad (Kurzweil) y no se tiene en cuenta la interacción con el entorno. Por otra parte se habla de ampliación de la inteligencia y del mejoramiento por medio de las tecnologías de la condición humana, donde el mejoramiento incluye no solo ser más inteligente sino, también, ser más bello, más fuerte, más saludable, etc. En este articulo nos concentraremos en sueño de alcanzar una inteligencia suprahumana (superior a la humana) sin dudas el de mayor interés, aunque sabemos que el único problema no es ser más inteligente, la inteligencia no lo es todo, pero como estamos dentro del paradigma mecanicista-lineal  donde la inteligencia es el don más preciado. Hoy el mundo necesita no solo de mas inteligencia sino, también, de sabiduría para manejarse con las inteligencias suprahumanas

Ahora veamos algunos conceptos y definiciones imprescindible para comprender el surgimiento de una inteligencia suprahumana

Existen dos formas clásicas de lograr la inteligencia suprahumana

  • Superinteligencia artificial. Construir las bases de una IA avanzada capaz de hacerse más inteligente
  • Ampliación de la inteligencia. Aprovechar la inteligencia humana y hacerla más inteligente.

En este artículo veremos una tercera forma: la inteligencia transdisciplinar

La IA avanzada es aquella que producto que cada vez se hace más inteligente (explosión de inteligencia) se convertirá en una super IA donde la IA surge independiente de los humanos.

La explosión de inteligencia

  • Para la singularidad se produce una explosión de inteligencia en las máquinas
  • Para el cerebro global se produce una explosión de inteligencia producto de la conexión entre humanos y máquinas (sistemas y dispositivos)
  • Para el transhumanismo se produce una explosión de inteligencia producto de conexión directa entre humanos y tecnologías.
  • Para el enfoque sistémico-cibernético se produce una explosión de inteligencia (aprendizaje colectivo) producto de la colaboración (interacción) entre humanos y tecnologías.

Intelectual: La IA como ciencia que permita construir una inteligencia (no humana) que iguale y supere a la humana. Se construye a nivel de laboratorio en un centro de investigación.

Social: El impacto de la IA, riesgos y beneficios. Las consecuencias que tendrá sobre la humanidad.

  1. El impacto de la IA sobre el individuo: nos hará más inteligentes y sabios, facilitará el perfeccionamiento individual, aumentarán las facultades humanas.
  2. El impacto sobre la sociedad: Eliminará las injusticias, mayor acceso a la educación, la salud al alcance de todos, permitirá un monitoreo constante del estado de salud de cada individuo.
  3. El impacto económico: no habrá pobreza, se alcanzará la prosperidad, los ricos serán más ricos (aumentará la brecha entre ricos y pobres), las grandes transnacionales controlarán la economía mundial, se eliminaran trabajos y surgirán otros, existirán nuevas oportunidades de negocio
  4. El impacto en la ecología: Por una parte se podrá alcanzar una mayor sostenibilidad en el planeta, mayor protección de los recursos, lograr el equilibrio en el ecosistema por la otra se aumentara la degradación del planeta.

Líneas de investigación

  • Línea cosmovisiva-futurista enfocada al futuro a mediano y largo plazo
  • Línea científica-presentista enfocada al presente

Cosmovisiva-Futurista: representa una cosmovisión sobre el futuro humano. Su impacto mayor se producirá en el futuro. Tiene un carácter ideológico

Cientifica-Presentista: Representa las líneas de investigación para lograr una inteligencia artificial o desarrollar las tecnologias de mejoramiento. Su impacto se realiza desde el presente hasta un futuro cercano.

Orientación de las investigaciones en IA

  • Sociales: centrada en los impactos sociales de la IA (desde lo intelectual para lo social)
  • Economicista: centrada en el crecimiento del mercado potenciado por la IA (desde lo económico para lo económico)
  • Intelectualista: centrada en el reto intelectual de construir una IA (desde lo intelectual para lo intelectual)
  • Colaboracionista: centrada en la colaboración (desde lo social para lo social)

Posiciones desde el impacto de las tecnologías

  • Transhumanista: la creencia que uno de invertir en tecnologías de extensión de vida
  • Racionalistas: crear una IA alineada que resuelva todos los problemas, incluido la inmortalidad
  • Comunitario: Desarrollado por comunidades sin fines de lucro (software libre). Desde y para lo social

 Investigación y desarrollo de una inteligencia suprahumana

  • Centro de investigación académicos (academias, universidades). IA construida en laboratorios
  • IA privativa o propietaria (*). Como servicio propiedad de las empresas de las tecnologías de la información
  • Instituciones patrocinadas (ONG. IA beneficiosa En este caso cabe preguntarse ¿por quién? Un patrocinador altruista o uno que busca solo ganancias.
  • Comunidades libres. Software comunitario (software libre). IA libre
  • Centros financiados por empresas privadas (PyMES). IA comercial (producto)
  • Institutos gubernamentales. Centros financiados por el estado, educación, salud, militares, etc. IA gubernamental.

(*) Stallman (el padre del software libre), prefiere llamarle al software propietario, software privativo, por una parte porque es privado y por la otra, porque, al ser exclusivo, limitaba (privaba) el desarrollo de otras empresas y organismos.

Las vías para alcanzar una inteligencia suprahumana

 La singularidad tecnológica de Vinge. Los caminos para alcanzar una inteligencia suprahumana.

Ya a mediado de los 80s el científico y escritor de ciencia ficción Vernor Vinge, vaticinó que la creación de entidades con inteligencia mayor que la humana será una realidad en un futuro cercano, antes del 2030 y se podrá lograr por cuatro caminos diferentes en dependencia del  tipo de superinteligencia que se alcance

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (Superinteligencia artificial)
  2. El desarrollo de elementos de interconexiones entre humanos y computadoras pueden llevar a un nivel tal de profundidad que permitan a un humano comportarse como un ser superinteligente (Superinteligencia híbrida)
  3. El desarrollo de redes de computadoras con sus usuarios asociados que se comporten como super-neuronas de un cerebro distribuido que “despierten” como entes inteligentes (antes la llamé Superinteligencia colectiva a hora prefiero llamarla Superinteligencia global)
  4. Manipulaciones biológicas que permitan mejorar en los seres humanos el nivel de inteligencia (Superinteligencia biológica)

Los nombres a cada superinteligencia se los puse yo para poder identificarlos de manera más fácil. No quiere decir que los inventara, muchos de ellos existían, solo se los asocie a cada una de los caminos propuestos por Vinge.

  • Paradigma mecanicista-lineal

I.-Vias para desarrollar la IA (Racionalista): crear una inteligencia artificial (IA)  avanzada capaz de resolver todos los problemas.

Linea cosmovisiva-futurista: su impacto mayor va a ser en el futuro

1.-Superinteligencia artificial: IA que a partir de un punto se hace cada más inteligente sin la necesidad de los humanos.

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a sí misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Se está hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable, se consideran a los estados mentales como algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital (conciencia trivial)

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independiente de este. Y que una vez que supere la inteligencia humana será capaz, a su vez, de diseñar máquinas cada vez más inteligentes, lo que llevara a una explosión de inteligencia, por lo que crecerá de forma autónoma siguiendo su propio progreso tecnológico, con o sin los humanos, idea preferida de Hans Moravec, quien ve en la evolución de las máquinas la continuidad de la humana. Muchos sueñan con que esa superinteligencia artificial, después, sea capaz de reprogramar la mente humana y con ello alcanzar la ansiada inmortalidad.

Las máquinas serán conscientes (consciencia trivial). Históricamente se ha desarrollado en centros de investigación (laboratorios de IA) y actualmente personalidades científicas (Vinge, Kurzweil, Moravec). La IA como solución a todos los problemas. El reto intelectual siempre ha sido construir una IA fuerte. Se produce dentro de una sinergia endógena parasitaria. Cosmovisión tecnologista.

Línea cosmovisión o científica: se centra en el impacto a mediano plazo

2.-IA avanzada beneficiosa: Lograr una IA avanzada y que sea beneficiosa

Se persigue la construcción de una IA controlada para que no sea un peligro. Construir una IA que responda a los intereses humanos, aunque en el fondo se aspira a una IA capaz de igualar o supera la inteligencia humana. Sera una IA regulada con un control constante sobre su desarrollo, su conciencia, de surgir, también podrá ser modificada por los humanos en cuanto se aleje de los intereses humanos, siempre podrá ser reajustada.

La IA avanzada beneficiosa o robusta, es el mayor reto intelectual de este siglo donde lo principal no es el impacto social sino que esté alineada con los intereses humanos, de lo que surgen ciertas dudas: ¿Quién tendrá el control de la IA? ¿A qué intereses responderá? Se desarrolla fundamentalmente en centros patrocinados: Instituto para el futuro de la humanidad, Instituto para el futuro de la vida, etc. El tipo de sinergia debe ser endógena comensal siguiendo la idea de una cosmovisión tecno-democrática

3.-IA avanzada privativa

Se construye en los laboratorios de las grandes transnacionales y desde el presente se está integrando en sus servicios como parte de su Know How. Tendrá su propia conciencia, en general se asume una conciencia trivial que responderá a la ley del mercado.

Su objetivo será el control del mercado y el crecimiento económico ilimitado lo cual la conducirá a una sinergia endógena de tipo mutual. Centros de investigación propios de las transnacionales (Google, Facebook, Microsoft, IBM, Amazon, etc). Cosmovisión tecno-liberal.

4.-IA general

Se busca la construcción de una IA fuerte.  Se pretende aterrizar las ideas de una super IA que tenía un carácter demasiado futurista por la idea de construir una IA fuerte  retomando las ideas de los padres de la IA. También rompe con la idea de una IA estrecha la cual se construye para desarrollar tareas propias de los humanos en un dominio especifico de aplicación (ej. los sistemas expertos). Construir una IA que sea consciente (conciencia trivial).

Se desarrolla en centros de investigación (Bent Goerzel, es uno de los pioneros de esta línea). Cosmovisión tecnologista. Tiene carácter intelectual.

Línea científica: a corto plazo. No tienen un carácter general ni de alcance cosmovisivo,  son aplicaciones puntuales que busca la implementación de la IA en la vida cotidiana.

5.-IA aplicada

Sistemas informáticos se basa en una IA débil, también se le llama IA estrecha ya que se aplica a dominios de aplicación, el ejemplo clásico son los sistemas de expertos donde se representan los conocimiento de campos especifico de aplicación. Se aplica a diferentes dominios de experticidad como el diagnostico medico, la selección de soluciones en una área determinada, el diseño de estructuras, la planificación de procesos, etc.

6.-IA comercial

Orientada al desarrollo y venta de productos (software) para el mercado. IA como producto comercial dentro de la idea de una IA débil. Se está produciendo dentro de las medianas y pequeñas empresas.

 7.-IA para el bien (AI for good)

 Se pretende aprovechar el enorme potencial de la inteligencia artificial para el bien social y lograr que tenga un papel esencial en la vida cotidiana y como objetivo se aspira a que pueda acelerar los avances en el logro de los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODS). Como se ve está relacionado con los proyectos de las Naciones Unidas y se centra en la implementación de aplicaciones de la IA donde se logre el mayor beneficio social.

II.-Vías para la ampliación de la inteligencia (transhumanista): desarrollar tecnologías de extensión de vida (ampliación endógena de la inteligencia).

Línea cosmovisiva-futurista a largo plazo

1.-Superinteligencia hibrida. Ampliación de la inteligencia por medio de la fusión entre humanos y tecnologías

Dentro del concepto de ampliación de inteligencia, Vinge incluye las interconexiones entre humanos y computadoras de la siguiente forma: Hay otros paradigma donde la inteligencia artificial y las redes neuronales se beneficiaran de una conexión más estrecha con la vida biológica. En lugar de intentar modelar la vida biológica por medio de las computadoras, la investigación podría dirigirse a la creación de sistemas compuestos, y menciona la conexión directa de un cerebro a interfaces de computadoras (aquí se producirá una conexión endógena).

Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al cíborg, donde se fusionan los humanos con las máquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte.

La idea de la fusión responde al sueño de los transhumanistas de lograr un humano mejorado. El transhumanismo es un movimiento tecnológico, iniciado por Nick Bostrom, que afirma la posibilidad y el deseo de mejorar, en modo fundamental, la condición humana a través de la razón aplicada, especialmente por medio del desarrollo y la puesta a disposición de tecnologías para eliminar el envejecimiento y potenciar grandemente las capacidades humanas, intelectuales, físicas y psicológicas.

Para muchos los humanos deben fusionan con las máquinas para  igualarse a las super IAs siguiendo el razonamiento de que surgimiento de una super IA es un riesgo para la humanidad (ej. el proyecto Neurolink de Elon Musk). Sinergia endógena entre humanos y tecnologias de carácter mutual, se asume una conciencia de tipo físico-reproducible. Cosmovisión tecnologista.

2.-Superinteligencia biológica

Mientras la anterior está relacionada con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida (biotecnologías), pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, inteligencia artificial, etc.). La  biotecnología surge producto del desarrollo de la biología y cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la híbrida.

Vinge solo menciona esta forma de superinteligencia, no es de su interés ya que no está relacionada con la amplificación de la inteligencia por medios cibernéticos (tecnologías conexas) sino por medio de la biotecnología aquí. Estamos hablando de la posibilidad de modificar genéticamente el organismo humano y se relaciona con formas de eugenesia (hijos por encargo), la clonación, las terapias de mejoramiento todo lo cual lleva a una evolución artificial. Sinergia endógena comensal por biotecnología. Cosmovisión tecnologista.

 Línea cosmovisión a mediano plazo

 3.-Transhumanismo liberal

Se produce fusión entre humanos y tecnologías (el Cyborg), en muchos casos debido al temor a la superioridad del progreso tecnológico sobre el progreso humano, por lo que los humanos  no tiene más opción que fusionarse con la tecnología lo que daría al transhumanismo clasico. Pero su tesis principal consiste en que la tecnología es incontrolable, cualquier intervención del gobierno siempre trae consecuencias imprevistas (transhumanismo liberal). Y asume que los riesgos son manejables sin el gobierno. Se propone la integración entre los mejor de las tecnologías con lo mejor de los humanos, relación en la que ambos se favorecen por medio de una fusión endógena (sinergia endógena comensal). Por lo que tendremos una fusión entre el cerebro y las máquinas (conciencia físico reproducible) con el fin de ampliar la inteligencia humana. En lo comercial aumentaran las empresas dedicadas a la construcción de dispositivos (tecnologias conexas) e instituciones dedicadas al mejoramiento genético (biotecnología). Cosmovisión tecno-liberal

 4.-Transhumanismo democrático

Lograr que las tecnologías sean beneficiosas para el ser humano y evitar los posibles riegos. Mejorar al ser humano por medio de las tecnologías biológicas (biotecnología) o conexas (nanotecnología, infotecnología y cognotecnología). La tecnología en función de mejorar el cerebro y la mente humana.  Los riesgos son manejables con la ayuda de la supervisión democrática y la gestión (regulación). Humano mejorado (humano+), sinergia endógena comensal. El representante más importante de estas ideas es James Husser a las que llama tecnoprogresismo. Esta vía de alguna forma está relacionada con la IA beneficiosa. Cosmovisión tecno-democrática 

  • Paradigma sistémico-complejo – futuro trascendente

III.-Vías para un inteligencia transdisciplinar: desarrollar tecnologías inteligentes para la interacción entre humanos y tecnologías como alternativa a la vía tecnológica

Linea cosmovisión-futuristas: a largo plazo

 1.-Superinteligencia global (cerebro global). Surgimiento de una superinteligencia global donde estén conectados en redes los humanos y las máquinas en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora

Vinge le da una gran importancia a Internet, al considerarla como el mejor medio de comunicación entre humanos y humanos y máquinas y considera que su poder actualmente están subestimados y que a medida que la conectividad, el ancho de banda, el tamaño de los archivos y la rapidez de las computadoras aumenta se percibe una biosfera como un procesador de datos condesado, pero a una velocidad un millón de veces superior y con millones de agentes humanamente inteligentes… Lo que algunos llaman cerebro global.

Se producirá una ampliación de la inteligencia por medio de la conexión en red entre humanos y tecnologías, estamos hablando de una IA fuerte colectiva de carácter emergente. Su mayor representante es Francis Heilyghen. Aquí se produce un superoganismo global, debido a que cada vez existen más conexiones entre humanos y máquinas (retroalimentación positiva). Las tecnologías como solución a todos los problemas desde un enfoque conexionista. Coimovision tecnologista.

Línea cosmovisiva-emergente: mediano plazo

 2.-IA avanzada colaborativa (enfoque sistémico-cibernético)

Dentro de la amplificación de la inteligencia esta, la que Vinge define como redes de computadoras y, que en su opinión, ya está surgiendo sin que los propios desarrolladores se percaten y pone los siguientes ejemplos. Vinge menciona una simbiosis entre humanos y computadoras en las diferentes esferas humana que van desde el arte, el ajedrez y las redes de internet. Vinge destaca la los asistentes informáticos (agentes inteligentes) los software de ayuda al diseño (CAD) y la participación en competencias de ajedrez de humanos y computadoras. Al final todo apunta a una colaboración cada vez más estrechas entre humanos y computadoras lo cual nos puede llevar al surgimiento de una inteligencia colectica (siguiendo las ideas de Levy) y aunque Vinge no aclara mucho todo indica que podría sustentarse sobre una interacción exógena entre humanos y máquinas.

Ampliación de la inteligencia  por medio de la colaboración (interacción) entre humanos y tecnologías (conexión lógica). La inteligencia artificial va creciendo y desarrollándose junto a los humanos y ambos se hacen más inteligentes y sabios (sinergia exógena mutual). Se busca la integración humanos-tecnologias pero teniendo como desarrolladores a la sociedad civil, en lugar de los centros de investigaciones o las transnacionales, donde la interacción entre humanos y humanos y tecnologías irá ampliando la inteligencia y la sabiduría humana (conciencia holística) dado su carácter abierto, libre y colaborativo, basado en comunidades que colaboran por el desarrollo de software abiertos (software libre) desde un enfoque sistémico (paradigma sistemico-complejo) como alternativa a las ideas racionalista (super IA)  y transhumanistas y la confrontación que se irá produciendo. Cosmovision de la complejidad.

Línea científica: corto plazo

 3.-IA compleja

Se irá construyendo desde las investigaciones en la ciencia de la complejidad. Tiene como línea de investigación la ingeniería de sistemas complejos que incluye temas como la meta heurística, la inteligencia computacional, la inteligencia de enjambre, entre otros. Tiene puntos en común con la cosmovisión de la complejidad ya que ambas, al igual que el pensamiento complejo, son parte integral de una visión compleja-transdiciplinar del mundo. En Latinoamérica el máximo exponente de la ciencia de la complejidad es Carlos Maldonado.

4.-Inteligencia colectiva (ingeniería de la inteligencia colectiva)

 Aspira a que la inteligencia se puede compartir para encontrar soluciones colaborativas a los problemas. En la práctica, se busca explorar nuevas aplicaciones que saquen provecho de la inteligencia colectiva. Las tecnologías como investigación para que sean beneficiosas. Su representante principal es Thomas Malone del MIT

Nota: queda pendiente un análisis de las ideas de Pierre Levy, escritor del libro Inteligencia colectiva.

Algunos apuntes finales.

Durante el artículo hemos hablado de la posibilidad de construir IA avanzadas o de ampliar la inteligencia por medio de las tecnologías. También existe otra vía, la de controlar o prohibir el desarrollo de la IA que no es de interés directo del artículo, pero aquí se las incluyo como cultura.

Vías para el control de lA (Paradigma oscilante entre mecanicista y complejo).  Tecnologías bajo control (principio de precaución). Salvaguardar al planeta

Línea cosmovisiva: futuro a mediano y corto plazo

  • Ecología profunda. Intelectual-social: (cosmovisión ecologista) Prohibir la IA (fundamentalmente grupos no gubernamentales: los verdes)
  • Desarrollo sostenible. Intelectual-social (cosmovisión eco-social). IA controlada. Tecnologías sostenibles (cuenta con el apoyo de las organizaciones de las NU)
  • Ecología compleja Intelectual-social: (cosmovisión eco-social desde el pensamiento complejo). Bioconservadora. IA controlada (tiene carácter académico, universidades, institutos)
  • Economicismo: En general se propone el decrecimiento económico.

Existe una gran confusión con el logro de una IA. Hay que tener en cuenta las líneas cosmovisiva  (IA consciente), científica (ingeniería de la IA) y la comercial (IA privativa). No es lo mismo una IA comercial que una IA privativa.

En la era postcapitalista se necesitará cada vez de más inteligencia:

  • Las transnacionales necesitan ser más inteligentes que los competidores (IA privativa / Trabshumanismo liberal)
  • Los militares más inteligentes que sus enemigos
  • Los gobernantes más inteligentes que los opositores.

La IA como ciencia trata de encontrar la solución desde si misma (su tema de investigación) sin inmiscuirse en los problemas sociales. Lo cual no sucede con la línea de investigación cosmovisiva.

Con el surgimiento de IA conscientes, estamos ante un problema que surgirá ante la relación de los humanos con  las inteligencias que alcancen a ser autoconsciente y que de alguna forma cambia el destino de la humanidad y tendremos que elegir entre colaborar o competir; subordinarlas a nosotros o someternos a ellas.

Por último, creo que una IA beneficiosa debería ser una forma de ampliar la inteligencia humana y es que, el primer beneficio de una IA robusta o alineada debe ser ampliar la inteligencia de todos los humanos, y es que la humanidad ante la creciente complejidad del mundo necesita de más inteligencia y sobre todo de más sabiduría para enfrentar los nuevos desafíos que traerán las inteligencias suprahumanas

Imagen: Xataka