Riesgos y beneficios de la inteligencia artificial

Elon Musk, el creador de Open AI

Resumen
Hoy en día se ha convertido en una moda el tema de una Inteligencia Artificial (IA) robusta, amable y alineada con los intereses humanos. En el artículo se analizan las dificultades actuales y, como la aplicación de la IA exacerbará muchos de los problemas del presente. Se cuestiona la posibilidad de construir una IA alineada con los intereses humanos, ya que los intereses humanos no están alineados entre sí y se pone en duda la eficacia de las inversiones actuales para la construcción de una IA robusta, como una forma de perder dinero, mientras que los verdaderos problemas que enfrentamos son ignorados. Se analizan los diferentes escenarios que se producen y sus consecuencias, así como la necesidad de aprender a lidiar con las nuevas tecnologías que están surgiendo (Riesgos potenciales de la Inteligencia artificial (1))

Abstract
Nowadays, Artificial Intelligence (AI) has become a fashionable topic since it should be robust, friendly and aligned with human interests. This article analyzes the current difficulties and how the implementation of IA would exacerbate many of the present problems. The possibility of building an AI aligned with human interests is in question, since human interests are not aligned with each other and casts doubt on the effectiveness of current investments for the construction of a robust AI, as a way to lose money, while the real problems are ignored. Different scenarios and their consequences are analyzed, as well as the need to learn to deal with new emerging technologies (Potential risks of artificial intelligence)

Dificultades actuales

Actualmente el temor se centra en una inteligencia artificial capaz de superar a los humanos y los peligros que esto podría conllevar, no obstante los riesgos, cada vez se propaga más en los jóvenes  la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista, lo cual lleva a la construcción de una IA ajena a los verdaderos intereses humanos,

Es importante tener en cuenta que cuando se habla del futuro de la humanidad, lo encasillamos dentro del paradigma cognitivista-mecanicista-reduccionista. O sea, se extrapolan las condiciones actuales del paradigma economicista a un futuro tecnologista (era de las tecnologías). Hoy estamos pasando de la era social a la era de las tecnologías (se produce una simbiosis entre humanos y tecnologías). Por lo que, el problema del paradigma tecnologista es que está enmarcado dentro de un paradigma mecanicista-reduccionista y lo lleva a una comprensión lineal del progreso tecnológico. Por tanto nos propone un futuro donde las tecnologías son el centro del progreso humano, ya que no tienen en cuenta las interacciones entre todas las partes.

El desafío actual es lograr una IA beneficiosa que esté alineada con los intereses humanos, ya no es solo la satisfacción intelectual de construir una IA sino, también, que no sea un riesgo para los humanos. Pienso que el problema no es quela IA sea beneficiosa (¿a quién?) sino que sea socialmente útil para todos (colaborativa).  Claro, es más fácil querer que una IA de forma aislada, sea beneficiosa y que responda a los intereses de un grupo, esto la simplifica y hace que tenga una solución rápida pero incompleta.

Para construir una IA alineada con los intereses humanos hay que definir cuál es el propósito como sistema (cosmovisión) de la humanidad como especie evolutiva. ¿Cómo queremos evolucionar? ¿Hacia dónde queremos ir? (ver curso introducción a la cosmovisión de la complejidad)

Con respecto a la relación entre humanos y tecnologías existen muchas interpretaciones de acuerdo con el contexto de partida y los intereses los humanos. Para no perdernos en muchas interpretaciones se asumirá la relación humanos-tecnologías desde el propósito de los humanos (que no tiene que ser el que tendrán las máquinas inteligentes), y la pregunta es: ¿A que se aspira con las tecnologías?

Los intereses humanos

Por otra parte, se asume como solución evitar que la IA sea peligrosa. Una IA robusta alineada con los intereses humanos (intereses de un estado tiránico, de militares, de una transnacional monopolista). La pregunta es: ¿Los intereses de quien? La IA serviría para la competencia por los mercados, para ganar guerras, para controlar a los ciudadanos,… Y siempre será en aras del progreso, del bienestar, de la democracia, etc. Como lograr una IA alineada con los intereses humanos si los humanos no están alineados entre sí, sino piensen en los enfrentamientos actuales entre EEUU y Rusia, Israel y Palestina, Siria y el Estado Islámico, etc.

¿Cuáles son los intereses humanos? Dada nuestra mentalidad actual

  • La destrucción (por negligencia) del planeta.
  • Las guerras por disimiles fines, pero guerras al fin.
  • La lucha por la hegemonía.
  • El control de los recursos del planeta.
  • Los conflictos territoriales.
  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA

Riesgos del presente

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlara la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?.
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de codigo abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarle solución a problemas más abstractos y dejar de lado los problemas más comunes.

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

La aplicación de la IA va a exacerbar los problemas actuales

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en artículos anteriores, habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero las consecuencias justifican los enormes beneficios potenciales que surgirán.

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. Y lo peor, que estemos desde hoy, transfiriendo nuestra forma de pensar a las máquinas. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro que las transnacionales de la información no construirán una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre la Web.

Estamos partiendo de la idea de un usuario pasivo que espera a que le den la información elaborada y procesada por una superinteligencia y, demás está decir, que no es la única alternativa que tenemos los humanos, en realidad no estamos condenados a ser eternos usuarios sometidos a un gran procesador superinteligente que nos brinde toda la información sin el menor esfuerzo, al que inevitablemente llegaremos a adorar. Sin dudas tenemos otras opciones y desde hoy podemos ir construyendo una superinteligencia que no sea propiedad de nadie, que sea libre, que no esté centralizada, que sea abierta y colaborativa. Estamos a tiempo de negarnos a ir a ciegas a un futuro diseñado por las elite de poder: militares, transnacionales, gobiernos; podemos desde ahora comenzar a diseñar nuestro propio futuro, y ese es nuestro mayor desafío.

Como he dicho en otras ocasiones, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza…

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

¿Es  posible construir una IA alineada con los intereses humanos?

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferenciar las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llego a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podría convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

La otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

Están los que creen que el surgimiento de una super inteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una super inteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostará por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Un peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón.

Para muchos el problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las maquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

Personalmente considero un derroche de dinero al querer construir una IA robusta. ¿Quién garantiza que las transnacionales no van a competir con la IA robusta y van a aceptar las restricciones que se propongan? Peor aún, es muy posible que la IA surja ante en las transnacionales que en las instituciones que estudian los riesgos de la IA. El peligro no es una IA fuera de control sino las transnacionales que buscan las ganancias a toda costa, los militares en su lucha por la hegemonía y los gobiernos autoritarios que están construyendo fuera de control (basado en su poder económico, militar o político) una IA.

La necesidad de aprender de las nuevas tecnologías que están surgiendo

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma. Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)

Explosión de aprendizaje

Por tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.
Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje. Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces, ¿cómo se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva que surgirá producto de la interacción entre humanos y maquinas.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de una evolución trascendente) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje). Por supuesto que este super-optimismo no convence a casi nadie, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Por último (aquí me incluyo), los que piensan que el problema no está en construir una super IA capaz de responder a criterios definidos sino que esta vaya creciendo, formándose, junto a los humanos y que tanto la IA como los humanos vayan aprendiendo a trabajar de forma colaborativa, por lo que el algoritmo base de esta IA debe ser: la colaboración, la solidaridad, la empatía con los humanos y no las restricciones que hay que tener en cuenta. Para ello se necesita de una nueva relación entre humanos, una relación profunda, en lugar de las relaciones superficiales actuales, que a su vez conduzca a una nueva relación entre humanos y tecnologías. Por lo que desde hoy tendremos que aprender a relacionarnos como humanos para luego saber cómo relacionarnos con la super inteligencia artificial

En fin, queremos construir una IA perfecta en un mundo lleno de contradicciones, donde las leyes se interpretan a la conveniencia de cada cual y las reglas las ponen los poderosos. ¿Cómo va a actuar esa super IA? ¿Qué leyes va a respetar? ¿A qué intereses va a responder? ¿Qué reglas va a aplicar? Sencillamente la IA se incorporará a los manejos, y como he dicho, en otras ocasiones, será otro competidor más, que terminará, ante el egoísmo y la falta de acuerdo y la violencia humana, por coger el control del planeta y este es uno de los aspectos en que coincido con Moravec, las máquinas terminarán sustituyendo a los humanos; quizás estemos en el momento de comenzar a cambiar nuestra mentalidad, nuestra sociedad y convertirnos en dueños de nuestra propia evolución como humanos.

Imagen: Xataka

 

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Inteligencia Artificial y etiquetada , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s