El futuro no nos necesita: Riesgos existenciales (2)

van_rensselaer_potter

Van R Potter el padre de la Bioética

“Las tecnologías del siglo XXI –genética, nanotecnología, y robótica (GNR)– son tan poderosas que pueden impulsar casos enteramente nuevos de accidentes y abusos. Todavía más peligroso: por primera vez estos accidentes y abusos están al alcance de individuos o grupos reducidos. No requerirán gran infraestructura ni materiales con complicaciones. El conocimiento bastará para poder usarlas” (Bill Joy)

 

Queremos construir una inteligencia artificial (IA) alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las máquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

¿Cuáles son los intereses humanos? 

  • La destrucción (por negligencia) del planeta.
  • Las guerras por disimiles fines, pero guerras al fin.
  • La lucha por la hegemonía.
  • El control de los recursos del planeta.
  • Los conflictos territoriales.
  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

En realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA sobrehumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?

  • Lo hará más rico y poderoso (IA como producto o servicio)
  • Lo hará más inteligente y sabio (IA como colaborador)
  • Lo hará inmortal (IA como rediseñadora de los humanos)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses. Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

Las posiciones ante el desarrollo de una IA avanzada

  1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir, el tiempo suficiente, para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo). Visión tecnologista
  2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos. Visión economicista
  3. Construir una IA alineada con los intereses sociales (¿de cada tipo de sociedad?), que esté bajo control de las instituciones: científicas, económicas, políticas. Por lo que siempre estará subordinada a los humanos. Visión social.
  4. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos. Visión transhumanista
  5. Prohibir la IA ante el peligro que destruya a la naturaleza. Visión ecologista
  6. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser más inteligentes y sabios. Visión transdisciplinar

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Con respecto a la inteligencia artificial la preocupación no es por la IA en si misma sino la necesidad de cambiar nuestra mentalidad ante los problemas que enfrenta el mundo actual y que puede desencadenar la destrucción humana. El mensaje consiste en tomar conciencia de los peligros que enfrenta la humanidad

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es un progreso verdaderamente humano

Estamos ante la falta de sabiduría humana para manejarnos con las nuevos conocimientos  (Van R, Potter) y con las nuevas tecnologías

Que significa la falta de sabiduría, sus consecuencias
• Aumento de la desigualdad
• Buscar ganancias a toda costa
• Usar todas las tecnologías en ell ser humano (de forma indiscriminada)
• Fallas en la educación moral

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no y cómo relacionarnos con las super inteligencias artificiales (Inteligencia artificial, el futuro del hombre)

Ahora en bien, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

¿Se puede construir una IA alineada con los intereses humanos?

“Las tecnologías nucleares, biológicas y químicas (NBQ) usadas en las armas de destrucción masiva del siglo XX eran y son más que nada militares, desarrolladas en laboratorios de gobiernos. En abierto contraste, las tecnologías GNR del siglo XXI tienen usos comerciales manifiestos y están siendo desarrolladas casi exclusivamente por empresas corporativas” (Bill Joy).

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en artículos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero, ¿las consecuencias justifican los enormes beneficios potenciales que surgirán?

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. El peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro una transnacional no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre el mercado

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Desafíos éticos, Riesgos existenciales y etiquetada , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s