La singularidad tecnológica de Raymond Kurzweil

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a una inteligencia artificial (IA) superior a la humana. Así de fácil.

Kurzweil define a la singularidad como la creación de una inteligencia no biológica que va a igualar el alcance y la sutileza de la inteligencia humana y luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de la información y a que tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido por lo que llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana “no mejorada” será incapaz de seguirlo lo cual marcará el advenimiento de la singularidad.

La idea de una singularidad la toma de Vernor Vinge, pero a diferencia de este que mostraba preocupación por su surgimiento, Kurzweil le profesa una fe que roza el fanatismo. En cambio, Vinge, reconoce que la singularidad podría ser un peligro, cuando dice: “Quizá los gobiernos del mundo decidan que la posibilidad es tan peligrosa que la investigación que lleva a la singularidad será prohibida. Lamentablemente, el problema de la proliferación de armas nucleares ya ha demostrado la fragilidad de esta esperanza. Aunque todos los gobiernos del mundo entendieran la “amenaza” y la temieran, el avance hacia el objetivo seguiría” … “De hecho, la ventaja competitiva –económica, militar e incluso artística–  de todo avance en la automatización es tan atractiva que aprobar leyes que prohíben estas cosas básicamente garantiza que otros las conseguirán antes. Si la singularidad tecnológica puede producirse, lo hará”

Para Ray Kurzweil (al igual que el resto de los tecno-utopista) las computadoras han duplicado tanto su velocidad como su complejidad (lo que en realidad significa la cuadruplicación de su capacidad) cada veinticuatro meses desde el comienzo de los artilugios de cálculo, en los inicios de este siglo. Esta tendencia continuará y, alrededor del 2020, los ordenadores alcanzarán la capacidad de memoria y la velocidad de cálculo del cerebro humano. También es el que más resalta las posibilidades de la tecnología y repite junto a Vingen que no ve límites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Y dice: “Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología… Este siglo será equivalente a 20.000 años de desarrollo lineal”.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: “La tecnología informática la situación dista mucho de ser estática. Hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que, en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos  –por ejemplo, el de escribir un libro sobre ordenadores–, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez”.

Al igual que Minsky está inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas; ellos, no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, en lugar de su capacidad para manejar información. Y considera que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos. Su sueño es reproducir las funciones del cerebro en un medio digital y toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. Ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También se muestra inconforme con su cuerpo a lo que dice: “La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida”. A lo que agrega: “Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas”.

Kurzweil que es el más tecnólogo de todos los futuristas, pone gran énfasis en la nanotecnología y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegará en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nano-robots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots  son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio. También aspira a que la nanotecnología nos lleve más allá de los límites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones sobre el futuro se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele-cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnología, también podrán tenerlos en la realidad.

De igual manera, Kurzweil, considera que la humanidad no es el fin de la evolución sino el principio de una nueva evolución que surgirá producto de una nueva forma de inteligencia que superará a la humana, lo cual será el acontecimiento más importante en la historia humana. Con profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que constituye la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología. Y dice: “Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la sinergia entre humanos y tecnologías”.

Kurzweil es categórico cuando afirma: los que decidan seguir siendo humanos, no tendrán ninguna posibilidad ante las nuevas entidades. Y agrega: “Una legislación eficaz protege a los Mosh, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados”. Se subestima la capacidad de los humanos y su potencial creador.

Kurzweil basa sus ideas sobre el futuro en las siguientes tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio…

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente.  Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre. La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Para los tecno-utópicos, Kurzweil a la cabeza,  solo la tecnología puede salvar a la humanidad por lo que surgen las siguientes preguntas: ¿Puede la tecnología por si sola resolver todos los problemas? ¿Se puede obviar la importancia de la sociedad y sus estructuras actuales sustentadas sobre la hegemonía, la competencia y la ambición de poder que está presente en la naturaleza humana? Cuando analizamos el lenguaje que utilizan, nos damos cuenta, de cómo las consideraciones sociales están presentes en las decisiones tecnológicas y como, las mismas, son consecuencias de muchas de las decisiones futuras; a pesar de sus intentos de querer basarse únicamente en la tecnología como remedio a todos los males.

Libro recomendado: “La singularidad está cerca”

Disponible en Amazon

Características y tipos de inteligencia artificial

tipos-ia3En este artículo continuaremos con algunas de las definiciones dadas en el estudio AI100

Inteligencia Atificial (IA) siguiendo la forma de pensar humana

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado “la IA estrecha o específica”; la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, limitadas a un dominio de aplicación.  Debido a las dificultades en la solución de problemas complejos, en los últimos años, cada vez más los investigadores han reconocido la necesidad -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y a la necesidad de hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general.

Habíamos visto que para López Mantaras, el objetivo de la IA lograr una inteligencia artificial general similar a la humana. Decíamos que la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no, estamos hablando que la IA sigue la forma de pensar humana.

La medida humana

Al respecto el estudio AI100, dice lo siguiente: “En particular, la caracterización de la inteligencia como espectro no otorga un estatus especial al cerebro humano, pero hasta la fecha, la inteligencia humana no tiene rival en lo biológico y mundos artificiales para su gran versatilidad… Esto hace que la inteligencia humana sea una opción natural para evaluar el progreso de la IA”.

IA que no sigue la forma de pensar humana

Recientemente ha ido surgiendo una forma de resolver los problemas basados en la velocidad de procesamiento de las máquinas, lo cual le permite el procesamiento de una gran cantidad de datos.

Definición operacional

Siguiendo al estudio AI100: “La IA también se puede definir por lo que hacen los investigadores de IA. Este informe ve a la IA, principalmente, como una rama de la informática que estudia las propiedades de inteligencia sintetizando inteligencia. Aunque el advenimiento de la IA ha dependido en el rápido progreso de los recursos informáticos de hardware, el enfoque aquí del software refleja una tendencia en la comunidad de IA. Más recientemente, sin embargo, el progreso en la construcción de hardware a medida para la informática basada en redes neuronales ha creado un acoplamiento más estrecho entre hardware y software en el avance de la IA”.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas inteligentes desde una IA débil que tiene como meta que las maquinas, cada vez más veloces y capaces de procesar más datos, llegan a superar a la inteligencia humana. Las cuales se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos. Lo cual nos conduce a la construcción de una IA desde y para las transnacionales con fines comerciales como una IA “no consciente” cada vez más lejos de la medida humana.

IA consciente de los humanos.

“La IA debe pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables” (Estudio AI100)

Tendencias de las investigaciones en Inteligencia Artificial

Volviendo al estudio AI100. “Las tecnologías de IA, ya impregna nuestras vidas. A medida que se convierten en una fuerza central en la sociedad, deben pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables. Varios factores han impulsado la revolución de la IA, el principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basados en la web, el aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas, son redes entrenadas usando un método llamado retro propagación. Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos. Nuevas plataformas y mercados para datos, productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA”.

Definiciones de Super IA, IA avanzada e IA (especifica)

Hoy se utiliza mucho la definición de una inteligencia artificial general mientras otros hablan de una IA avanzada.

La Inteligencia Artificial General

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado” la IA estrecha”, la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Volviendo a la definición de IA de López Mantaras

El objetivo de la IA avanzada es lograr una inteligencia artificial general similar a la humana. Donde la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no.

IA general

  • IA fuerte (capaz de tener conciencia)
  • IA débil

IA especifica

  • IA débil

Llamaremos a la IA general como “inteligencia artificial avanzada” y para la IA estrecha o específica, la llamaremos solamente IA. Mientras la IA general-fuerte capaz de superar a la mente humana y llevarnos a una singularidad tecnológica como Super IA

Mientras la IA avanzada (general), se puede aplicar a cualquier dominio, estamos hablando de una IA multitarea que se pueda aplicar a diferentes dominios. La IA (estrecha), solo se aplica a un dominio

Las computadoras son capaces de realizar tareas específicas mejor que los humanos, y es que los grandes logros de la IA se han con IA la débil y especifica. Hoy estamos ante nuevos éxitos de la IA especializada

Ya no es un secreto que todos los esfuerzos de la IA se han centrado en construir IA especializada, con grandes éxitos en el último decenio gracias a la conjunción de dos elementos:

  • La disponibilidad de grandes cantidades de datos (orientada a BD)
  • El acceso a la computación de grandes prestaciones para poder analizarlos (velocidad del hardware)

La IA avanzada, son estados mentales potenciales que los humanos en su vida diaria nunca desarrollan, quedan latentes. Por tanto, las IA especificas están más acorde con las necesidades de la vida. El que la IA sea general no quiere decir que se vaya a resolver el problema del sentido común, sigue sin comprenderse la semántica, y es que construir una IA avanzada de carácter general parece una misión imposible, tal vez los correcto sea una IA avanzada por medio de la colaboración entre inteligencias especificas abiertas al entorno.

Con respecto al sentido común López Mantaras dice lo siguiente: “En los 60 años de IA se ha probado que lo que parece más difícil ha resultado más fácil (jugar ajedrez) y lo que parece más fácil ha resultado lo más difícil y se debe a la falla del conocimiento de sentido común. El sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad” Y propone como solución al sentido común el desarrollo de una IA encarnada (robótica del desarrollo).

IA corpórea vs IA Basada en Datos

Habíamos visto que en el informe AI100 se proponía que en el desarrollo de la IA se debe pasar de construir sistemas inteligentes simples (no consciente de los humanos) a construir sistemas inteligentes que sean conscientes de los humanos y confiables.

Los sistemas digitales, se caracterizan por manipular símbolos (paradigma simbolista) y son cerrados, la información se la suministran los especialistas, no tienen contacto con el medio exterior. Son sistemas que procesan información, da lo mismo que sean datos, información o conocimientos, en el fondo son una representación de símbolos que son procesados por una computadora donde la información debe ser introducida manualmente. Por lo que la IA es un sistema cerrado (autista) y para que sea una IA avanzada debe estar abierta al entorno, o sea un sistema autónomo capaz de aprender e interactuar con su entorno (digital)

En muchos casos, se sigue hablando de una IA avanzada que depende de los humanos como suministradores de información. Por otra parte, se ignora la interacción entre personas y sistemas autónomos ya que se considera a los sistemas autónomos como entidades independientes que se desarrollan desde y por sí mismo (ver artículo de Moravec).

La inteligencia artificial basada en datos

Con el surgimiento de la IA basada en datos, se irá perdiendo la medida humana donde el referente ya no será la mente ni el cerebro sino la propia máquina y su velocidad para procesar los datos.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas superinteligentes desde una IA débil que tiene como meta que las máquinas, cada vez más veloces y capaces de procesar más datos llegan a superar a la inteligencia humana. Estas se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos.

La IA basada en datos son algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina (son posibles gracias a las prestaciones cada vez mayor de las máquinas), lo que daría lugar a una singularidad tecnológica producto del procesamiento de grandes cantidades de datos, por lo que estaríamos hablando de máquinas superinteligentes y de una IA débil en lugar de una super IA como una IA fuerte.

Inteligencia artificial corpórea o enactiva

Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las inteligencias avanzadas actúan en su entorno (virtual) y aprenden de él, por lo que adquieren una inteligencia ajena a la humana. La IA actual (convencional) está separada de su entorno por lo que no puede valerse por sí misma (sistema autista). Por lo que podemos hablar de una IA autónoma encarnada en el entorno humano (corpórea o enactiva) o de una IA no encarnada que responde a un ambiente digital

Francisco Varela define la inteligencia artificial enactiva como: “Una IA en la que las maquinas sean inteligentes en el sentido de desarrollarse hacia un sentido común compartido con los seres humanos, como pueden hacerlo los animales, no veo otro camino que hacerla pasar (a la IA) por un proceso de transformaciones evolutivas como se sugiere en la perspectiva”.

Podemos clasificar a la IA por sus características (tabla de comparación entre IA convencional e IA avanzada)

  1. Específica (se aplica a una tarea) o general (multitarea)
  2. Débil (no consciente de sí) o fuerte (autoconsciente)
  3. No autónoma o autónoma (aprende del entorno)
  4. Simbolista (resuelve las tareas de forma individual) o conexionista (resuelve las tareas de forma colectiva)
  5. No consciente de los humanos o consciente de los humanos
  6. No sigue la medida humana o a la medida humana
  7. No corpórea o corpórea

Debemos destacar que el objetivo principal de una IA avanzada siempre fue que fuera autoconsciente IA fuerte ahora se aspira a que la IA al menos sea consciente de los humanos y que en el futuro de forma emergente pueda convertirse en autoconsciente.

Ahora estamos en condiciones de definir la IA convencional que es la que se ha estado desarrollando hasta ahora

La IA convencional, el ejemplo clásico son los sistemas expertos:

  1. Específica, se desarrolla para un solo dominio
  2. Débil, no es autoconsciente
  3. No autónoma, depende que le suministren la información
  4. Simbolista, se basa en reglas de producción
  5. No es consciente de los humanos
  6. Se asume que de alguna forma represente la forma de pensar humana
  7. No corpórea

También podríamos tratar de definir las características de la IA avanzada (ideal)

Un primer acercamiento a una IA avanzada ideal

  1. General
  2. Fuerte
  3. Autónoma
  4. Integra el simbolismo con el conexionismo
  5. Consciente de los humanos y es capaz de colaborar
  6. Sigue la medida humana
  7. Corpórea (encarnada en el mundo y capaz de evolucionar)

Actualmente el patrón de una IA avanzada no es el mismo y difiere para cada tipo de IA. En realidad, en la IA se asumen muchas cosas que crean grandes expectativas, de ahí la confusión y los desacuerdos que siempre han existido

Tipos de IA avanzadas

IA avanzada cognitiva: Se cumple, bastante bien, para los puntos de una IA ideal, pero no es capaz de colaborar ni es corpórea

IA avanzada conexionista cumple con todos los parámetros excepto que no es corpórea

IA avanzada operativa (orientada a los datos), actualmente es la línea de IA avanzada que ha tenido más impacto sobre todo en la economía de las transnacionales de la información, hasta el momento se puede decir que no es colaborativa, no sigue la medida humana (son algoritmos que aprovechan las prestaciones de la máquina y su acceso a grandes bases de datos) y es no corpórea

IA avanzada enactiva como proyecto será capaz de cumplir con todos los puntos de la IA avanzada ideal

De momento no vamos a profundizar en la superinteligencias, recuerden que son inteligencias que aspiran a superar la medida humana (trascienden las capacidades humanas) y asumen un carácter tecno-religioso, por lo que solo mencionaremos su posible impacto futuro.

Superinteligencia producto de una singularidad tecnológica, aunque se inspira en una IA avanzada preferentemente cognitiva, todo indica que, de surgir, será producto de una IA avanzada operativa, por lo que en lugar de hablar de una superinteligencia artificial estaríamos hablando de una máquina superinteligente que, para bien o para mal, tendrá muy poco que ver con los humanos.

Superinteligencia producto de una singularidad distribuida (cerebro global) se inspira en la IA avanzada conexionista que producto de las conexiones (en principio lógicas) con las personas se ira conformando un cerebro global (metasistema, también, de momento exógeno) por lo que surgirá un superorganismo global. De producirse todo indica que pasará de una conexión lógica (metasistema exógeno) a una conexión física entre personas y maquinas lo cual conduciría a una metasistema endógeno y estaríamos ante una variante del transhumanismo: la fusión física entre humanos y tecnologías.

 (En próximos artículos volveremos sobre estos temas)

Imagen: Futuro eléctrico

 

Breve recorrido temático por la inteligencia artificial

Heurística

En sus inicios la inteligencia artificial (IA) se fundamentó en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria). También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva.

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus comienzos la inteligencia artificial (IA), intentó salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportaron las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

Mundo de bloques

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Sistemas expertos

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA. Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellas ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.En la década de los 80, se pensaba que la humanidad se encontraba “…ante un reto de imprevisibles consecuencias”, pues se avecinaban cambios que trastocarían muchos paradigmas que rigen el mundo. Los investigadores de la Inteligencia Artificial se hacían preguntas como:

  • ¿Qué será de los matemáticos cuando los Sistemas Expertos sean capaces de deducir todos los teoremas que se deriven de una cierta axiomática?
  • ¿Qué harán los abogados cuando haya una herramienta capaz de preguntar a sus clientes y de darles consejo sin posibilidad de error y utilizando toda la legislación y jurisprudencia?
  • ¿Qué será de los médicos cuando existan bases del saber capaces de almacenar los conocimientos y la experiencia de cientos de especialistas en una materia?.

En octubre de 1981 se sentaron las bases para el desarrollo de las computadoras de 5ta generación en una conferencia Internacional en Tokio, Japón. En este proyecto se adoptó el lenguaje PROLOG como lenguaje fundamental que sería soportado por el hardware a construir.

Inteligencia artificial fuerte y débil

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora. Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Nuevos enfoques de la IA

.Actualmente, la ciencia deja de encerrarse en sí misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran

Nuevas tendencias en la IA:

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Inteligencia artificial general

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG). La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana.

¿Qué es la inteligencia artificial general (IA general)?

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligencia
  • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.

Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte

La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teorice en tres campos

  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.

El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:

  • Lógica matemáticaTeoría de la probabilidad (tratamiento de la incertidumbre)
  • Sistema de producción (estrategias para las reglas)
  • Base de conocimientos (representación del conocimiento)
  • Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
  • Robótica (sistemas de planificación)
  • Redes neuronales
  • Computación evolutiva (algoritmos genéticos)
  • Sistema multi-agente (agentes inteligentes)

La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible..

Máquinas inteligentes

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir qué es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

Imagen: Terabito

Superinteligencia: Caminos, peligros, estrategias

Nick Bostrom

Disponible en Amazon

El futuro no nos necesita: Riesgos existenciales (2)

van_rensselaer_potter

Van R Potter el padre de la Bioética

“Las tecnologías del siglo XXI –genética, nanotecnología, y robótica (GNR)– son tan poderosas que pueden impulsar casos enteramente nuevos de accidentes y abusos. Todavía más peligroso: por primera vez estos accidentes y abusos están al alcance de individuos o grupos reducidos. No requerirán gran infraestructura ni materiales con complicaciones. El conocimiento bastará para poder usarlas” (Bill Joy)

 

Queremos construir una inteligencia artificial (IA) alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las máquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

¿Cuáles son los intereses humanos? 

  • La destrucción (por negligencia) del planeta.
  • Las guerras por disimiles fines, pero guerras al fin.
  • La lucha por la hegemonía.
  • El control de los recursos del planeta.
  • Los conflictos territoriales.
  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

En realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA sobrehumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?

  • Lo hará más rico y poderoso (IA como producto o servicio)
  • Lo hará más inteligente y sabio (IA como colaborador)
  • Lo hará inmortal (IA como rediseñadora de los humanos)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses. Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

Las posiciones ante el desarrollo de una IA avanzada

  1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir, el tiempo suficiente, para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo). Visión tecnologista
  2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos. Visión economicista
  3. Construir una IA alineada con los intereses sociales (¿de cada tipo de sociedad?), que esté bajo control de las instituciones: científicas, económicas, políticas. Por lo que siempre estará subordinada a los humanos. Visión social.
  4. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos. Visión transhumanista
  5. Prohibir la IA ante el peligro que destruya a la naturaleza. Visión ecologista
  6. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser más inteligentes y sabios. Visión transdisciplinar

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Con respecto a la inteligencia artificial la preocupación no es por la IA en si misma sino la necesidad de cambiar nuestra mentalidad ante los problemas que enfrenta el mundo actual y que puede desencadenar la destrucción humana. El mensaje consiste en tomar conciencia de los peligros que enfrenta la humanidad

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es un progreso verdaderamente humano

Estamos ante la falta de sabiduría humana para manejarnos con las nuevos conocimientos  (Van R, Potter) y con las nuevas tecnologías

Que significa la falta de sabiduría, sus consecuencias
• Aumento de la desigualdad
• Buscar ganancias a toda costa
• Usar todas las tecnologías en ell ser humano (de forma indiscriminada)
• Fallas en la educación moral

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no y cómo relacionarnos con las super inteligencias artificiales (Inteligencia artificial, el futuro del hombre)

Ahora en bien, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

¿Se puede construir una IA alineada con los intereses humanos?

“Las tecnologías nucleares, biológicas y químicas (NBQ) usadas en las armas de destrucción masiva del siglo XX eran y son más que nada militares, desarrolladas en laboratorios de gobiernos. En abierto contraste, las tecnologías GNR del siglo XXI tienen usos comerciales manifiestos y están siendo desarrolladas casi exclusivamente por empresas corporativas” (Bill Joy).

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en artículos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero, ¿las consecuencias justifican los enormes beneficios potenciales que surgirán?

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. El peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro una transnacional no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre el mercado

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

¿Qué es inteligencia artificial general? (1)

220px-John_searle2

John Searle

Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).

Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI)

Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.

Una vez hecha la aclaración de términos comencemos con el artículo, que es una selección actualizada de otros artículos publicados en este blog.

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

IA fuerte e IA débil

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora
En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad.

La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.
1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Referencia: Inteligencia artificial, el futuro del hombre.

Imagen: Wikipedia