Riesgos del futuro

El tema de los riesgos existenciales desarrollado por el filósofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial (Super IA) y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad (Nick Bostrom: la amenaza de una superinteligencia artificial).

No hace mucho el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Empezamos por Max Tegmark, físico e investigador en el MIT, escritor del libro “Vida 3.0”. El cual plantea tres interrogantes:

– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo, las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.

Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otro paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

El dilema de la superinteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir, pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes.

Max Termark está consciente del problema que enfrentamos cuando dice: “Creo que nuestro futuro puede ser muy interesante si ganamos la carrera entre el poder creciente de la tecnología y la sabiduría con la que se gestiona esa tecnología (dilema planteado por el bioeticista norteamericano Van R. Potter). Para conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual consistía en aprender de nuestros errores. Inventamos el fuego, la fastidiamos unas cuantas veces y después inventamos el extintor; inventamos el coche, la volvimos a fastidiar varias veces e inventamos el cinturón de seguridad y el airbag. Pero con una tecnología tan potente como las armas atómicas o la inteligencia artificial sobrehumana no vamos a poder aprender de nuestros errores. Tenemos que ser proactivos”

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

A lo que Termark afirma: “En diez años, si no hacemos nada, vamos a ver más desigualdad económica. Y, por último, hay mucha polémica sobre el tiempo necesario para crear una inteligencia artificial general, pero más de la mitad de los investigadores en IA creen que sucederá en décadas. En 40 años nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la IA. Ese es el escenario catastrófico. Para evitarlo necesitamos que la gente se una a la conversación”.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, (Riesgos y beneficios de una inteligencia artificial avanzada desde un enfoque sistémico-cibernético)  tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llegó a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podrían convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Volviendo a Max Termark quien en su libro Vida 3.0, divide el desarrollo de la vida en tres fases:

  • Vida 1.0 (fase biológica): su hardware y software son fruto de la evolución. Surgió hace unos 4.000 millones de años. Es producto de la relación entre humanos-heramientas-naturaleza, se logra cierta sinergia entre humanos y animales. El ser humano se integra al entorno natural.
  • Vida 2.0 (fase cultural): su hardware es fruto de la evolución: diseña buena parte de su software. Surgió hace unos cien milenios. Relación entre humanos-maquinas-humanos. Se logra cierta sinergia entre los humanos por medio de alguna forma de organización, principalmente, con fines económicos. El humano se integra al entorno social, cultural y económico
  • Vida 3.0 (fase tecnológica): diseña tanto su hardware como su software. Aparece en el siglo XX y, sobre todo, siglo XXI. Relación entre humanos-tecnologías-máquinas inteligentes. Se logra cierta sinergia entre humanos y máquinas por medio de la interacción (o fusión) entre ambos. El humano se integra a un entorno artificial

A lo largo de su libro Termark da su definición de lo que es la Vida y su evolución desde la vida 1.0 pasando por la 2.0 hasta la 3.0. Habla de los escenarios futuros en cada escenario plantea su plausibilidad, los inconvenientes y analiza por qué puede o no puede suceder así como del impacto de una explosión de inteligencia (Los riesgos existenciales de una singularidad tecnológica 1). Al igual que Bostrom se inclina por el aprendizaje profundo, la técnica de IA más utilizada, sobre todo por las grandes transnacionales que marcan las pautas en la tecnología de información con Google a la cabeza. Sin embargo, existen otras líneas de investigación, como la que lleva a cabo Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contenga todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras (Paradigmas y tendencias en la investigación de la IA).

Termark también se preocupa por el tema de si las inteligencias artificiales generales (yo prefiero avanzadas) tendrán conciencias, para Kurzweil la consciencia es algo implícito a la inteligencia (conciencia trivial) para otros como Bostrom carece de importancia si las máquinas tienen conciencia o no. Al respecto Termark asume una posición realista cuando dice: “La importancia de si las IA son conscientes es relevante de cara a los problemas éticos y filosóficos que deben resolverse de cara a la irrupción de la IA en nuestras vidas”.

Otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

A Termark le preocupa como los líderes tecnológicos que están construyendo la IA son muy idealistas. Y agrega: “Quieren que esto sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de las compañías que están desarrollando la IA, la principal es ganar dinero. Siempre harás más dinero si reemplazas humanos por máquinas que puedan hacer los mismos productos más baratos. No haces más dinero diseñando una IA que es más bondadosa. Hay una gran presión económica para hacer que los humanos sean obsoletos”. Con lo que coincido plenamente

Y es que son muchos los creen que el surgimiento de una superinteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superiinteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostará por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Libro recomendado: “Vida 3.0” 

Los riesgos de la inteligencia artificial y la necesidad de un enfoque sistémico-cibernético

“¿Estamos tomando la inteligencia artificial suficientemente en serio?” Stephen Hawking

Hoy el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar, no obstante los riesgos, cada vez se propaga más en los jóvenes  la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista.

De lo anterior surgen las siguientes preguntas: ¿Es posible relacionarnos con las nuevas inteligencias no humanas desde la visión reduccionista actual? ¿Cómo el pensamiento mecanicista-reduccionista impide una verdadera comprensión de los beneficios y riesgos de las tecnologías?

Actualmente tenemos que la ley del mercado es un sistema de equilibrio para la economía desde las ganancias, pero, a su vez, responde al equilibrio como ley universal, de ahí que se coloque el sistema de equilibrio del mercado por encima de los otros sistemas, incluso, cuando en muchos casos el equilibrio del mercado perjudica el equilibrio social y el equilibrio ecológico.

Si las máquinas se usan principalmente en el equilibrio del mercado este va a aumentar los desequilibrios en los otros sistemas. Y si no aceptamos un equilibrio universal que acepte a todos los sistemas y los pone en equilibrio crearemos una desigualdad capaz de destruir el planeta y a la propia humanidad.

Todos los sistemas para lograr el equilibrio deben mantener un propósito, el propósito es parte de la condición de los sistemas y los humanos como sistema social tienen sus propósitos. Del equilibrio del sistema surge un propósito que luego mantiene ese equilibrio. El propósito, está presente en todos los sistemas: ecológico, social, biológico, sicológico aunque no sea de manera consciente, solo los humanos son conscientes de sus propósitos.

Problema tecno-científico (enfoque sistémico-cibernético)

  • Los beneficios de las tecnologías. Lograr que las tecnologías sean beneficiosas
  • La sinergia humano-tecnología.

Para los riesgos y beneficios de la IA se necesita de un enfoque sistémico-cibernético para tener en cuenta el equilibrio que se irá produciendo de las sinergia humano-tecnología y el papel de las tecnologías como elemento neguentrópico que regula ese equilibrio.

Hoy se habla de programas alineados con los intereses humanos, como los intereses humanos están regidos por el merco-centrismo y carecen de un propósito compartid. Debemos preguntarnos si la humanidad tiene claro cuál es su propósito y si tenemos en cuenta que el proceso actual es entrópico, dado el crecimiento a costa del consumo de los recursos, lo cual lleva a la destrucción del ecosistema y su entorno natural, el cual está siendo sustituido por el tecno-sistema y la construcción de un entorno artificial.

El lugar de querer programar una IA amigable, se deberían seleccionar a los desarrolladores de la IA (los que sean más amigables con la humanidad) hacerle test de altruismo, de empatía, de humildad, de pensamiento abierto y colaborativo. Pienso que el grupo de desarrolladores deberían existir bioeticista capaces de ejercer un sacerdocio humanista.

Las máquinas no podrán ser conscientes de sus actos ante los humanos ya que carecen de una conciencia humana formada de la experiencia, podrán vivir como un humano más, en familia y aprender. Pienso que primero tendrán que aprender a lidiar con los humano desde su propia conciencia como máquina, pero desde un contexto colaborativo donde cada cual aporte lo mejor de sí, por lo que la conciencia de las máquinas no tiene que ser igual a la humana, y el hecho de carecer de intencionalidad y de las ambiciones humanas, les permitirá tener un juicio imparcial y su mentalidad estará más cerca del budismo y su desapego a las cosas materiales.

Las tecnologías deben ser vistas como un medio que permite el mejoramiento de la humanidad tanto intelectual como espiritual y que la misma puede crecer indefinidamente integrándose al contexto humano. Se busca la cooperación entre humanos y tecnologías en lugar de la competencia entre ambas

Esto lleva a profundos cambios y en una nueva educación que prioriza la necesidad de aprender a manejarse con las tecnologías que están emergiendo y la sabiduría que debemos alcanzar, ya que el problema no es construir una IA amigable  sino enseñar a la IA a que se amigable, pero primero tenemos nosotros que aprender a ser amigables y a perseguir intereses altruistas y solidarios. Se necesita de un nuevo enfoque que mas que construir una inteligencia artificial persiga amplificar la inteligencia humana.

En sus inicios debe construirse como un sistema de computación que sea capaz de integrarse (desde su contexto como máquina) a la forma del pensamiento humano y en primera instancia representar los procesos del pensamiento humano como un sistema abierto en interacción con el entorno humano.

Es que las máquinas tendrán que asimilar la cultura humana y aprender, no solo de la ciencia sino también del arte y de la filosofía, y adquirir su propia experiencia. Las maquinas autónomas nunca podrán desarrollarse sino es dentro del contexto socio-cultural de los humanos, de la cual surgirá una sinergia humanos-tecnologías.

La IA se ha convertido en el motor impulsor de la transición de las tecnologías de la información ya que esta no necesita aprobación para implementar sus sistemas cada vez más inteligentes y autónomos.

Paradigma tecnologista

 Paradigma tecnologista (tecnocentrismo)

  • Cognitivista
  • Positivista
  • Reduccionista
  • Mecanicista
  • Sistema cerrado

 El cognitivismo, llevó a la ruptura entre sentido/forma y con ello a la del sujeto/objeto, busca la estabilidad de las significaciones

Veamos la siguiente definición de Bustamante sobre cognitivismo

Cognitivismo: es la doctrina general según la cual el comportamiento humano puede explicarse exhaustivamente por referencia a estados mentales. Por extensión, la ciencia cognitiva es la forma específica del cognitivismo que desarrolla su argumento utilizando términos prestados de la informática, concibiendo la mente humana como un tipo particular de sistema de procesamiento de información. El éxito o el fracaso de la IA como proyecto global ‑y por ende de la metáfora del computador sería el refrendo a la refutación de la ciencia cognitiva.

El conexionismo, la cognición es la emergencia en la relación global del sistema y su función con el entorno, siendo independiente del programa, pero dependiente de la auto organización de sus materiales constituyentes. Donde el circuito de retroalimentación será la transformación permanente de estados generales probables.

El problema tecno-científico

 Problema tecnocientífico. Controlar el progreso tecnológico y los riesgos o acelerar a las tecnologías y sus beneficios (sin tener en cuenta los riesgos).

 Dilema de Potter: Aumento del conocimiento sin el aumento de la sabiduría para manejarse con ese conocimiento.

El paradigma tecnologista, lleva, como alternativa a un nuevo antropocentrismo y a una cosmovisión de la complejidad. Se está pasando de una filosofía de la ciencia a una filosofía de la tecnología con un fundamento profundamente religioso.

Paradigma tecno-científico abarca el paradigma mecanicista-cognitivo que ha predominado en las tecnociencias hasta nuestro tiempo y el paradigma sistémico-conexionista que ha dado a lugar a un nuevo paradigma, el paradigma de la complejidad

. Posiciones ante el desarrollo de tecnologias inteligentes

 A)Posición tecnologista

1.-Paradigma mecanicista-cognitivo (tecnologista)

Surgimiento de máquinas inteligentes desde la cosmovisión de las tecnologías

  • Super-inteligencia artificial. Singularidad tecnológica. La IA más inteligente que los humanos, la cual tendrá su visión tecnologista del mundo. Las tecnologías son la solución a todos los problemas desde un enfoque cognitivo. Singularidad tecnológica que se produce a nivel tecno-individual (tecno-centrismo). Tiene como representantes a Vernor Vinge, Hans Moravec y Ray Kurzweil (paradigma tecnologista)
  • IA alineada con los intereses humanos. Se persigue la construcción de una IA controlada para que no sea un peligro. Las tecnologías pueden ser reguladas por los científicos. La IA se desarrollo en centros de investigación. IA controlada por los científicos (tecno-democracia). Entre sus representantes se encuentra el filosofo, Nick Bostrom (paradigma tecnologista)
  • IA como fuerza productiva. Se integra a la gestión productiva de las transnacionales, como su knowhow, ya sea como un futuro servicio o para elaborar nuevos productos. Sera una IA privada en manos de las transnacionales. IA controlada por el mercado. Las tecnologías en función del mercado (tecno-liberalismo). Tiene como representante a Google, Microsoft, IBM, Apple, etc (paradigma tecnologista)

2.-Paradigma sistémico-conexionista (tecnologista)

Surgimiento de máquinas inteligentes desde la cosmovisión de la complejidad

  • Cerebro global. Se produce un superoganismo global, debido a que cada vez existen más conexiones entre humanos y maquinas (retroalimentación positiva). Las tecnologías como solución a todos los problemas desde un enfoque conexionista. Singularidad tecnológica que se produce a nivel tecno-social (tecno-centrismo). Conexión en red humanos-máquinas que alcanzan un metasistema y donde se produce una sinergia con las tecnologías en la que se pierde el sujeto (individuo) y da lugar a una supraconciencia en red. Su máximo exponente es Heilyghen (paradigma tecnologista)
  • Inteligencia colectiva. Aspira a que la inteligencia se puede compartir para encontrar soluciones colaborativas a los problemas. En la práctica, se busca explorar nuevas aplicaciones que saquen provecho de la inteligencia colectiva. Las tecnologías como investigación para que sean beneficiosas. Ciencia de la complejidad (eco-tecno-social). Su representante principal es Thomas Malone del MIT (paradigma de la complejidad)
  • Inteligencia ampliada como metasistema colaborativo producto de las relaciones entre humanos y máquinas dadas las complejas interrelaciones que están surgiendo. Se produce una fusión de los dos puntos anteriores pero teniendo como desarrolladores a la sociedad civil (comunidad de destino), en lugar de los centros de investigaciones o las transnacionales (como en el enfoque mecanicista-cognitivo). La inteligencia artificial va creciendo y desarrollándose junto a los humanos y ambos se hacen más inteligentes y sabios. Cosmovisión de la complejidad (eco-tecno-complejidad). Tendrá una visión compartida con los humanos (superorganismo colaborativo). Aun no se ha definido totalmente, pero debe tener como motor impulsor a la comunidad de software libre que se irá transformando en una comunidad de destino abierta de software inteligente (paradigma de la complejidad)

B)Posicion tecno-conservadora

1.-Paradigma mecanicista-cognitivo (ecologista)

Control o prohibición de las maquinas inteligentes desde la cosmovisión ecologista

  • Los riesgos de la IA son demasiado grande. Prohibir la IA – eco-centrismo
  • IA siempre será una herramienta aplicada a proteger al planeta y a la sociedad y siempre estará bajo el control humano IA controlada por los gobiernos– eco-social (paradigma ecologista)

2.-Paradigma sistémico-conexionista (ecologista)

Las maquinas inteligentes en función de la supervivencia humana

  • Las tecnologías deben potenciar los cambios hacia una metamorfosis que permita encontrar la vía para la supervivencia humana (salir de las crisis). Se acepta la eugenesia negativa. El pensamiento complejo – eco-complejo (paradigma de la complejidad)

C)Posicion transhumanista

 1.-Paradigma mecanicista-cognitivo (transhumanista).

Fusión entre humanos y maquinas inteligentes desde una cosmovisión tecnologista

  • Reproducir la mente humana en un entorno digital. El posthumanismo – tecno-centrismo (paradigma tecnologista)
  • Fusión entre humanos y tecnologías. El transhumanismo liberal – tecno-liberalismo (paradigma tecnologista).
  • Mejoramiento del ser humano. Organismos mejorados. Transhumanismo democratico – tecno-democracia (paradigma tecnologista)

D)Posicion bioconservora

 1.-Paradigma mecanicista-cognitivo (ecologista)

Control o prohibición de la fusión entre humanos y maquinas inteligentes desde el ecologismo

  • Prohibir las tecnologías de mejora – eco-centrismo (paradigma ecologista)
  • Control de las tecnologías de mejora. Se acepta la eugenesia negativa – eco-social (paradigma ecologista)

2.-Paradigma sistémico-conexionista (tecnologista)

Colaboración entre humanos y máquinas inteligentes desde la complejidad

  • Las tecnologías deben potenciar las capacidades humanas desde la propia condición del ser humano. Se acepta la eugenesia negativa.– eco-complejo (paradigma de la complejidad)

La posición transhumanista nos lleva a la simbiosis humanos-tecnologias

La pregunta es ¿Podemos dirigir la simbiosis? El mismo Nick Bostrom plantea que las tecnologías son juguetes muy peligrosos en manos de niños traviesos (los humanos). Hay que trabajar en ampliación de la inteligencia y la sabiduría humana, se necesita una IA altruista que se vaya construyendo por medio de la colaboración con los humanos para que se vaya produciendo una sinergia mutual entre ambos donde prime el progreso humano en lugar del progreso tecnológico como se propone en la cosmovisión tecno-centrista.

Estamos ante la necesidad de una colaboración transdiciplinar de aceptar la simbiosis humano tecnología (dimensión tecno-bio-psico-social) desde un enfoque sistémico-cibernético que incluya un cambio de mentalidad hacia nuestra fuerza interior; transformación de la estructura social competitiva hacia una colaborativa, la protección del planeta y el surgimiento de una superestructura tecnológica sostenible. Donde se defienda la conservación de la condición humana desde la idea de un humano pleno y al surgimiento de una superinteligencia colectiva.

Imagen: Muy interesante

 

Las ideas de una super-inteligencia artificial

Este artículo es un compendio de otros artículos publicados, anteriormente, sobre el tema.

En el articulo “Expectativas de una inteligencia artificial avanzada” con respecto a la singularidad tecnológica hacíamos los siguientes señalamiento.

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas super-inteligentes.

Se está hablando del surgimiento de una super-inteligencia artificial (super IA) superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En “Los riesgos existenciales de una singularidad tecnológica (1)” se hablaba sobre la explosión de inteligencia, inteligencias artificiales que se auto-programan así mismas cada vez más inteligentes hasta llegar a una singularidad tecnológica. Y se definían los siguientes presupuestos a tener en cuenta para lograr una explosión de inteligencia.

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una super-inteligencia.

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.
1.-Relacionada con una inteligencia artificial. Super-inteligencia artificial (super-IA)
2.-Relacionada con la ampliación de la inteligencia

En el primer caso estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que, tendremos varias posibilidades.

  • Superinteligencia artificial creada (en sus bases para que siga mejorándose por sí misma) por los centros de investigación.
  • Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
  • Superinteligencia artificial creada por las grandes transnacionales como parte de su KnowHow, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
  • Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
  • Superinteligencia artificial creada por la comunidad de software libre.

Con respecto a la ampliación de la inteligencia surgen tres vías (ver Inteligencia artificial: ¿Hay razón para preocuparse? )

  • Superinteligencia colectiva (sistemas cooperativos conformados por la relación (colaboración) entre humanos y tecnologías
  • Superinteligencia hibrida, ampliación de las capacidades humanas por medio de dispositivos cibernéticos, estamos hablando del Cyborg.
  • Superinteligencia biológica, ampliación de la inteligencia por medio de la ingeniería genética.

También la ampliación de la inteligencia se puede lograr por cualquiera de las posibilidades mencionadas anteriormente, pero, si en el caso de la inteligencia artificial los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, entre otros siguiendo la línea de un humano mejorado por medio de las tecnologías.

Ni que decir de los proyectos militares, tales como el ideal de crear un superhumano, o las consecuencias sociales de colocar en el mercado dispositivos que permitan alcanzar poderes sobre humanos que tendrán consecuencias tanto ética como sociales ante un mercado que solo responde a las ganancias (ver El desafío de la inteligencia artificial). No se puede ignorar que vivimos en un contexto social competitivo donde se favorece el crecimiento económico a toda costa y el consumismo desmedido, lo cual nos lleva a la competencia por los mercados y, lo más grave, es que la ley del mercado nos está arrastrando a un futuro incierto, ajeno a un verdadero progreso humano.

Vamos a un futuro posthumano

Dado el impacto que tendrán las tecnologías emergentes sobre el ser humano y ante las propuestas del transhumanismo sobre el ser humano, del posthumanismo (singularidad tecnológica), del mejoramiento genético (eugenesia) y de un cerebro global. Que alternativas tenemos (o nos queda) para seguir siendo humanos (para no dejar de SER humanos) y mantener el progreso humano ante el advenimiento de la era tecnológica. Y aquí está la clave de todo, nos acercamos a una nueva era. ¿Estamos preparados para el cambio? ¿Hacia dónde vamos? Refinamiento (2)?

Hay que tener en cuenta que nos acercamos a la era de las tecnologías (tecnocentrismo)  donde las tecnologías dejaran de ser una infraestructura para convertirse en una superestructura y formar parte de las decisiones del planeta. Todo esto ha llevado cierta exageración sobre las posibilidades de la tecnología.

Personalmente no tengo dudas vamos hacia un futuro posthumano en algunas de sus variantes. Siendo el escenario más posible el transhumanismo liberal ya que le da continuidad al neoliberalismo.

¿Por qué vamos hacia un futuro posthumano?

  • Son las propuestas más optimistas sobre el futuro
  • Se insertan perfectamente en el sistema predominante (el neoliberal)
  • No exige de un esfuerzo personal (todo viene de afuera)
  • Ofrece el paraíso en la tierra

En fin, el tecnologismo nos promete el cielo en la tierra

  • No tengo que esperar nada de Dios, las tecnologías me lo ofrecen todo
  • No tengo que estudiar (ej., un idioma, basta implantarnos un chip con ese idioma.
  • No tengo que hacer ejercicios ya que por medio de la genética puedo lograr el cuerpo que desee.
  • Alcanzar patrones de belleza, cambiar el color de los ojos, el de la piel, etc.
  • Puedo llevar una vida disipada, como estar siempre borracho, luego solo tengo que tener un hígado nuevo producido genéticamente que sea resistente al alcohol.

El que todo esto sea realizable o no, es otro tema de discusión, pero sin dudas sus propuestas son prácticamente irresistibles.

Es importante saber, desde hoy, qué posición asumiremos ante las tecnologías

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super-inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad, tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking, ElonMusk y Bill Gate.

Siempre he dicho que me inclino por una   inteligencia artificial colaborativa, que su fin sea la ampliación y de la sabiduría humana y que se oriente hacia la construcción entre humanos (sin excepciones) y máquinas, de una estructura social colaborativa, donde los actores sociales sean la sociedad civil liderada por la comunidad de software libre, en alianza con organizaciones no gubernamentales y centros de investigación no comprometidos con las elites de poder.

 Imagen: Libertaliadehatali