Riesgos del futuro

El tema de los riesgos existenciales desarrollado por el filósofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial (Super IA) y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad (Nick Bostrom: la amenaza de una superinteligencia artificial).

Sigue leyendo

Las ideas de una super-inteligencia artificial

Este artículo es un compendio de otros artículos publicados, anteriormente, sobre el tema.

En el articulo “Expectativas de una inteligencia artificial avanzada” con respecto a la singularidad tecnológica hacíamos los siguientes señalamiento.

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas super-inteligentes.

Se está hablando del surgimiento de una super-inteligencia artificial (super IA) superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En “Los riesgos existenciales de una singularidad tecnológica (1)” se hablaba sobre la explosión de inteligencia, inteligencias artificiales que se auto-programan así mismas cada vez más inteligentes hasta llegar a una singularidad tecnológica. Y se definían los siguientes presupuestos a tener en cuenta para lograr una explosión de inteligencia.

Un primer postulado: La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica). Se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la máquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la máquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado: La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente. La emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado: Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos. Las máquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una super-inteligencia.

En la singularidad de Vinge, menos optimista y radical que Kurzweil, se plantean cuatro vías para alcanzar la singularidad tecnológica, la cual puede agruparse en dos grupos.
1.-Relacionada con una inteligencia artificial. Super-inteligencia artificial (super-IA)
2.-Relacionada con la ampliación de la inteligencia

En el primer caso estamos hablando de una IA que se construirá para que esta sea cada vez más autónoma. Ahora la pregunta es, ¿a quién responderá esta superinteligencia artificial? Teniendo en cuenta que será más inteligente que los humanos, es importante saber quiénes la van a utilizar y con qué fin. Por lo que al final estaríamos hablando de un software propietario, propiedad privada de alguien. Por lo que, tendremos varias posibilidades.

  • Superinteligencia artificial creada (en sus bases para que siga mejorándose por sí misma) por los centros de investigación.
  • Superinteligencia artificial creada con fines militares, ya sea por militares o alianzas.
  • Superinteligencia artificial creada por las grandes transnacionales como parte de su KnowHow, con fines económicos (las actuales grandes transnacionales de la información, encabezadas por Google).
  • Superinteligencia artificial creada con fines comerciales, su propósito es vender los sistemas.
  • Superinteligencia artificial creada por la comunidad de software libre.

Con respecto a la ampliación de la inteligencia surgen tres vías (ver Inteligencia artificial: ¿Hay razón para preocuparse? )

  • Superinteligencia colectiva (sistemas cooperativos conformados por la relación (colaboración) entre humanos y tecnologías
  • Superinteligencia hibrida, ampliación de las capacidades humanas por medio de dispositivos cibernéticos, estamos hablando del Cyborg.
  • Superinteligencia biológica, ampliación de la inteligencia por medio de la ingeniería genética.

También la ampliación de la inteligencia se puede lograr por cualquiera de las posibilidades mencionadas anteriormente, pero, si en el caso de la inteligencia artificial los más beneficiados van a ser las transnacionales de la información como Google, Facebook, Microsoft, etc., ahora van a ser las empresas que se dedican a la venta de componentes cibernéticos como prótesis, chips, dispositivos biónicos o interfaz cerebro-máquina, entre otros siguiendo la línea de un humano mejorado por medio de las tecnologías.

Ni que decir de los proyectos militares, tales como el ideal de crear un superhumano, o las consecuencias sociales de colocar en el mercado dispositivos que permitan alcanzar poderes sobre humanos que tendrán consecuencias tanto ética como sociales ante un mercado que solo responde a las ganancias (ver El desafío de la inteligencia artificial). No se puede ignorar que vivimos en un contexto social competitivo donde se favorece el crecimiento económico a toda costa y el consumismo desmedido, lo cual nos lleva a la competencia por los mercados y, lo más grave, es que la ley del mercado nos está arrastrando a un futuro incierto, ajeno a un verdadero progreso humano.

Vamos a un futuro posthumano

Dado el impacto que tendrán las tecnologías emergentes sobre el ser humano y ante las propuestas del transhumanismo sobre el ser humano, del posthumanismo (singularidad tecnológica), del mejoramiento genético (eugenesia) y de un cerebro global. Que alternativas tenemos (o nos queda) para seguir siendo humanos (para no dejar de SER humanos) y mantener el progreso humano ante el advenimiento de la era tecnológica. Y aquí está la clave de todo, nos acercamos a una nueva era. ¿Estamos preparados para el cambio? ¿Hacia dónde vamos? Refinamiento (2)?

Hay que tener en cuenta que nos acercamos a la era de las tecnologías (tecnocentrismo)  donde las tecnologías dejaran de ser una infraestructura para convertirse en una superestructura y formar parte de las decisiones del planeta. Todo esto ha llevado cierta exageración sobre las posibilidades de la tecnología.

Personalmente no tengo dudas vamos hacia un futuro posthumano en algunas de sus variantes. Siendo el escenario más posible el transhumanismo liberal ya que le da continuidad al neoliberalismo.

¿Por qué vamos hacia un futuro posthumano?

  • Son las propuestas más optimistas sobre el futuro
  • Se insertan perfectamente en el sistema predominante (el neoliberal)
  • No exige de un esfuerzo personal (todo viene de afuera)
  • Ofrece el paraíso en la tierra

En fin, el tecnologismo nos promete el cielo en la tierra

  • No tengo que esperar nada de Dios, las tecnologías me lo ofrecen todo
  • No tengo que estudiar (ej., un idioma, basta implantarnos un chip con ese idioma.
  • No tengo que hacer ejercicios ya que por medio de la genética puedo lograr el cuerpo que desee.
  • Alcanzar patrones de belleza, cambiar el color de los ojos, el de la piel, etc.
  • Puedo llevar una vida disipada, como estar siempre borracho, luego solo tengo que tener un hígado nuevo producido genéticamente que sea resistente al alcohol.

El que todo esto sea realizable o no, es otro tema de discusión, pero sin dudas sus propuestas son prácticamente irresistibles.

Es importante saber, desde hoy, qué posición asumiremos ante las tecnologías

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios, estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Por otra parte, no queda claro sin que una IA sea beneficiosa, quiere decir que de alguna forma va a colaborar con los humanos o, sencillamente, basta con que responda a los intereses humanos.

El tema de los riesgos existenciales desarrollado por el filosofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super-inteligencia artificial y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad, tema que se puesto de moda, sobre todo después de las declaraciones hechas por Stephen Hawking, ElonMusk y Bill Gate.

Siempre he dicho que me inclino por una   inteligencia artificial colaborativa, que su fin sea la ampliación y de la sabiduría humana y que se oriente hacia la construcción entre humanos (sin excepciones) y máquinas, de una estructura social colaborativa, donde los actores sociales sean la sociedad civil liderada por la comunidad de software libre, en alianza con organizaciones no gubernamentales y centros de investigación no comprometidos con las elites de poder.

 Imagen: Libertaliadehatali 

 

 

Como relacionarnos con las super inteligencias artificiales (3)

HEADER-IMAGE_SMALL2Hasta ahora hemos estado escribiendo sobre el problema de una super inteligencia artificial (super IA) y como será su impacto en la sociedad, pero existen otros intereses que no solo incluyen la idea de alcanzar una super IA, hay quienes tienen otros objetivos para el futuro de la humanidad y ven que la solución consiste en alguna forma de fusión con las tecnologías, dado su crecimiento acelerado y el peligro de dejar atrás a los humanos. Con el fin de esclarecer las posiciones analicemos los puntos de vistas más representativos

Sigue leyendo