Historia de la inteligencia artificial (2)

Segunda crisis de la IA

Si la primera crisis surgió producto de las expectativas de que la maquina (los programas)  en 20 años igualara las capacidades humanas, lo cual no se cumplió, la segunda fue producto de los diferentes enfoques de la IA  y sus métodos asi como las promesas que contenía cada uno y el  menos precio hacia los otros enfoques.

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías. Se basa en la idea de una inteligencia artificial fuerte y ha dado lugar a la psicología cognitiva

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente, Se soporta sobre la idea de una inteligencia artificial débil y ha sigo la impulsora del paradigma basado en datos, del cual hablaremos en el próximo articulo.

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias. Se busca desarrollar sistemas que permitan obtener ganancias, dio lugar al boom de los sistemas expertos que son aplicaciones centradas en un domino de aplicación, por lo cual ha sido llamada IA estrecha.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Nuevos paradigmas

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomarán algunas ideas, en muchos casos condenadas por los padres de la inteligencia artificial (IA). Y es que los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas, por lo que surgió un nuevo paradigma de programación dentro de la inteligencia artificial: el conexionista

El paradigma conexionista

El paradigma conexionista mas representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente. Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de conectarse entre sí para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los esté alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre sí y de ajustarse al problema e ir guardando su experiencia.

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Según  Moravec, de quien ya hemos hablado, hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, ver Moravec y el fin de la especie humana, donde predice que para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Nuevas tendencias en la IA

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas

 Redes neuronales artificiales (RNA)

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro. La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles. La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Algoritmos genéticos

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda “en paralelo” y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobre cruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, tras la publicación del libro de Holland  “Adaptation in Natural and Artificial Systems” y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de “evolución simulada”, en particular como un algoritmo matemático implementado en un ordenador.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Agentes inteligentes

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Vida artificial

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

Aprendizaje automático

Varios factores han impulsado la revolución de la IA.

  • El principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basada en la web.
  • El aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas redes entrenadas usando un método llamado retro propagación.
  • Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos.
  • Nuevas plataformas y mercados para datos productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA.

Otro de los problemas era el aprendizaje automático, como lograr que la máquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Rodney Brooks, investigador del MIT,  durante años tuvo deambulando por su oficina pequeñas arañas cibernéticas, cuyo objetivo era aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones.

Historia de la inteligencia artificial (1)

ai100_robot-concept_1_0

A lo largo del tiempo he venido escribiendo artículos sobre la inteligencia artificial (IA) que van desde su historia, sus paradigmas, las tendencias y los riesgos y beneficios de la IA. Ahora motivado por el primer informe sobre 100 años de IA y teniendo en cuenta los cambios que se están produciendo en el desarrollo de las nuevas técnicas y herramientas, su impacto social y el enfoque que se sigue, sentimos la necesidad revisar algunos puntos de vista del informe, en especial, sobre el futuro de la IA y la posición del ser humanos (Puede descargar el informe aqui)

La influencia de la cibernética

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, de todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

La heurística

Los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Con la heurística se pretendía resolver aquellos problemas poco estructurados en los que no existía una secuencia de pasos que nos llevara desde un estado inicial a uno final y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación y que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos revolvedores generales fueron abandonados, este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.

El paradigma simbolista

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupos, los que se basaban en la lógica en la lógica para la representación de los conocimientos (la sintaxis, cálculo de predicados) un ejemplo de ello el lenguaje Prolog, o los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos.

Múltiples progresos se desarrollaron durante esos años y fueron delineados los campos fundamentales que conformarían la nueva rama de la Informática. El desarrollo de lenguajes de y para la IA entusiasmó a investigadores y empresas a la vez que se comenzó la construcción de estaciones de trabajo especializadas en IA. A mediados de los años 70 se desarrolló en el Laboratorio de IA del MIT una de estas máquinas dirigida a apoyar y facilitar las investigaciones. En ellas el lenguaje de máquina es el LISP. Varios sistemas comerciales fueron elaborados por otras empresas.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia

Laboratorio de la IA (mundo de juguetes)

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Primera crisis de la IA

Se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales, debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Dadas las falsas expectativas del enfoque heurístico, que pretendía hallar un algoritmo capaz de resolver todos los problemas, y su agotamiento como paradigma de la IA, los investigadores comienzan a formularse una nueva metodología basada en los conocimientos, porque en realidad, el hombre resuelve los problemas debido a que aplica su saber. Este nuevo enfoque, en lugar de partir de lo general a lo particular, se debía tratar de resolver los problemas particulares, utilizando conocimientos.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje Prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos. Todos estos proyectos fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Sistemas expertos

Si anteriormente la IA solo se difundía dentro de los laboratorios, con los SE, irrumpe en el mercado y da lugar a una explosión de aplicaciones en casi todos los campos del saber. Este hecho recibió el impacto directo de la segunda revolución de la informática: las computadoras personales (PC), que fue lo que en fin de cuentas permitió, que los sistemas expertos se difundieran masivamente.

Marcada por MYCIN y desarrollada en la Universidad de Stanford, comienza la década de los Sistemas Expertos orientados al diagnóstico de enfermedades de la sangre, primer método que introduce el razonamiento con incertidumbre, permite comenzar la etapa de formalización de estos sistemas y conduce al desarrollo de herramientas de estructuras generalizadas o Shells (conchas) y por PROSPECTOR, dirigido a la evaluación de prospecciones geológicas e identificación de yacimientos minerales, el cual impactó por contradecir a los expertos y señalar una zona rica en molibdeno valorada en millones de dólares.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante, muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico, todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área específica o sea la restricción a un dominio de conocimiento, lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una máquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado, así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el juicio de una máquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y, por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y sus paradigmas habían llegado a un callejón sin salida. El fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todo el proyecto japonés de 5ta generación, la creación de una supercomputadora que, en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o el mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computadora al ser humano, tales como Lisp y Prolog.

El primer fracaso de la IA estuvo al pronosticar que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

De ahí que la IA abandone los sistemas autistas (encerrados en sí mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
La formalización del sentido común.
El aprendizaje.
La integración de diferentes paradigmas de inteligencia.
El desarrollo de arquitecturas cognoscitivas completas.

En fin, eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando, aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones.

Comprendiendo el futuro de la inteligencia artificial (2)

Ya a mediado de los 80s el científico y escritor de ciencia ficción Vernor Vinge, vaticinó que la creación de entidades con inteligencia mayor que la humana (inteligencias sobrehumanas)será una realidad en un futuro cercano, antes del 2030 y se podrá lograr por cuatro caminos diferentes en dependencia del  tipo de superinteligencia que se alcance

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (Superinteligencia artificial)
  2. El desarrollo de elementos de interconexiones entre humanos y computadoras pueden llevar a un nivel tal de profundidad que permitan a un humano comportarse como un ser superinteligente (Superinteligencia híbrida)
  3. El desarrollo de redes de computadoras con sus usuarios asociados que se comporten como super-neuronas de un cerebro distribuido que “despierten” como entes inteligentes (antes la llamé Superinteligencia colectiva a hora prefiero llamarla Superinteligencia global)
  4. Manipulaciones biológicas que permitan mejorar en los seres humanos el nivel de inteligencia (Superinteligencia biológica)

Cuando hablamos de inteligencia sobrehumana nos referimos a una inteligencia superior a la inteligencia humana y existen dos vías para alcanzar una inteligencia sobrehumana: la construcción de una inteligencia artificial  a nivel de laboratorio que llegue a igualar a la humana y que posteriormente sea capaz de autoprogramarse  cada vez más inteligentes, la otra vía consiste en la ampliación de la inteligencia humana ya sea por medio de dispositivos, o de la conexión en red de varias inteligencias, o por mejoras genéticas

La visión es la agrupación de las líneas de investigación y desarrollo para la creación de una inteligencia superior al humano, las cuales dado su propósito nos lleva a la creación de una forma de inteligencia sobrehumana. Donde cada línea de investigación son las vías para construir una inteligencia superior dentro de cada vision

 Las visiones

Ecologismo —————————————————————————Tecnologismo

Sostenible ——————————————————————– Transhumano

Transdisciplinar —————————————————— Tecnohumano

 

                                   Las visiones

Las vías
Tecnologista
Transdisciplinar
Transhumanista
Ecologista
Tecno-religiosa
Superinteligencia artificial
Superinteligencia global
Superinteligencia hibrida/biológica
Ecología profunda
Socio-económica
IA propietaria
Inteligencia colectiva
Transhumanismo liberal
Desarrollo sostenible
Ético-filosófica
IA beneficiosa
IA colaborativa
Transhumanismo democrático
Bioética global
Científica
IA general
IA evolutiva
Tecnologías convergentes
Tecnologías sostenibles
Técnica
IA estrecha
IA abierta
Humano mejorado
IA controlada

 Visión tecnologista

  1. Vía tecno-religiosa

Carácter utópico/filosófico: Tecnoutopía, tiene un carácter religioso inspirado en el cristianismo, alcanzar el paraíso en la tierra por medio de las tecnologías. Es la parte mística de cada visión, la aspiración de trascender las limitaciones humanas aquí el ideal es recargar la mente en un soporte digital, llámese nube, matriz, red, mundo virtual, etc. Donde la mente pueda desarrollarse infinitamente.

Superinteligencia artificial. Singularidad tecnológica donde las máquinas por sí mismas se hacen cada vez más inteligentes (IA aislada). Es consecuencia del desarrollo de la IA emergente (donde aparecen dos nuevos conceptos: la emergencia y el conexionismo), del crecimiento acelerado de las tecnologías y su capacidad de autoaprendizaje y de autoconstrucción. IA que a partir de un punto se hace cada más inteligente sin la necesidad de los humanos. Máquinas más inteligentes debido a la aceleración tecnológica (retroalimentación positiva) hasta superar a los humanos y llegar a ser inmortal (alma digital). El objeto sustituye al sujeto. La máquina como un mecanismo separado de los humanos y dentro de un entorno digital. Las tecnologías van a transformar al entorno natural, a la sociedad y al individuo y ante los riesgos de que puedan estar fuera de control  deberán ser programadas para que estén alineadas con los intereses humanos. Para la comprensión de la mente humana parte fundamentalmente de las ideas de Kurzweil.

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a sí misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Se está hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable, se consideran a los estados mentales como algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital (conciencia trivial)

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independiente de este. Y que una vez que supere la inteligencia humana será capaz, a su vez, de diseñar máquinas cada vez más inteligentes, lo que llevara a una explosión de inteligencia, por lo que crecerá de forma autónoma siguiendo su propio progreso tecnológico, con o sin los humanos, idea preferida de Hans Moravec, quien ve en la evolución de las máquinas la continuidad de la humana. Muchos sueñan con que esa superinteligencia artificial, después, sea capaz de reprogramar la mente humana y con ello alcanzar la ansiada inmortalidad.

  1. Vía socioeconómica

Carácter social (cosmovisivo): Construir una IA avanzada tiene un alcance cosmovisivo pero orientado a los problemas socioeconómicos como reacción a los peligros  (y beneficios) de una Super IA

IA avanzada propietaria

Su objetivo será el control del mercado y el crecimiento económico ilimitado lo cual la conducirá a una sinergia endógena de tipo mutual. Centros de investigación propios de las transnacionales y desde el presente se está integrando en sus servicios como parte de su KnowHow. IBM (Watson), Google, Microsoft, Facebook, Aple, Amazon, etc.

IA para el bien (AI forgood)

 Se pretende aprovechar el enorme potencial de la inteligencia artificial para el bien social y lograr que tenga un papel esencial en la vida cotidiana y como objetivo se aspira a que pueda acelerar los avances en el logro de los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODS). Como se ve está relacionado con los proyectos de las Naciones Unidas y se centra en la implementación de aplicaciones de la IA donde se logre el mayor beneficio social.

  1. Vía ético-filosófica

IA avanzada beneficiosa

Alineada con los intereses humanos. Cosmovisión tecno-democrática (centros patrocinados), como reacción a los peligros de una Super IA

Construir una IA avanzada robusta y beneficiosa, se ha convertido en el tema principal de los centros de investigación. Es el ideal de casi todas las cosmovisiones que por medio de las tecnologías buscan mejorar a la sociedad y a los individuos. Se persigue la construcción de una IA controlada para que no sea un peligro, una IA que responda a los intereses humanos, aunque en el fondo se aspira a una IA capaz de igualar o supera la inteligencia humana. Sera una IA regulada con un control constante sobre su desarrollo, su conciencia, de surgir, también podrá ser modificada por los humanos en cuanto se aleje de los intereses humanos, siempre podrá ser reajustada.

La IA avanzada beneficiosa o robusta, es el mayor reto intelectual de este siglo donde lo principal no es el impacto social sino que esté alineada con los intereses humanos, de lo que surgen ciertas dudas: ¿Quién tendrá el control de la IA? ¿A qué intereses responderá? Se desarrolla fundamentalmente en centros patrocinados: Instituto para el futuro de la humanidad, Instituto para el futuro de la vida, etc. El tipo de sinergia debe ser endógena comensal siguiendo la idea de una cosmovisión tecno-democrática

  1. Vía científica

IA general (IA fuerte)

Carácter científico (intelectual): Construir una IA avanzada, son las investigaciones para el desarrollo de inteligencia artificial como parte de las ciencias cognitivas, retorno a la IA clásica

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligenciaCree que ha llegado el tiempo par
  • a construir una IA que sea comparable a la inteligencia humana.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)

Se busca la construcción de una IA fuerte.  Se pretende aterrizar las ideas de una super IA que tenía un carácter demasiado futurista por la idea de construir una IA fuerte  retomando las ideas de los padres de la IA. También rompe con la idea de una IA estrecha la cual se construye para desarrollar tareas propias de los humanos en un dominio especifico de aplicación (ej. los sistemas expertos). Construir una IA que sea consciente (conciencia trivial).

Se desarrolla en centros de investigación (Bent Goerzel, es uno de los pioneros de esta línea). Cosmovisión tecnologista. Tiene carácter intelectual.

  1. Vía ingenieril

IA aplicada

Carácter técnico: (a corto plazo). No tienen un carácter general ni de alcance cosmovisivo, son aplicaciones puntuales que busca la implementación de la IA en la vida cotidiana. Construir una IA avanzada con fines productivos (IA estrecha)

Sistemas informáticos se basa en una IA débil, también se le llama IA estrecha ya que se aplica a dominios de aplicación, el ejemplo clásico son los sistemas de expertos donde se representan los conocimientos de campos especifico de aplicación. Se aplica a diferentes dominios de experticidad como el diagnostico medico, la selección de soluciones en una área determinada, el diseño de estructuras, la planificación de procesos, etc.

IA comercial

Orientada al desarrollo y venta de productos (software) para el mercado. IA como producto comercial dentro de la idea de una IA débil. Se está produciendo dentro de las medianas y pequeñas empresas.

 Visión transdisciplinar

  1. Vía tecno-religiosa

Tecnoutopía de corte religioso inspirado en el cristianismo (Intelectual)

 Superinteligencia global

Singularidad distribuida donde la conexión en red entre las personas y las máquinas los hace cada vez más inteligentes. (IA en red). La aceleración proviene de tecnologías más inteligentes, más veloces, más memoria, más conexiones, etc. Existirán personas (o estados) más omnisciente que otras. El crecimiento acelerado de las tecnologías de la información y su capacidad de interactuar en red y de construir nuevas conexiones (cerebro global). Conexión en red humanos-máquinas que alcanzan una superinteligencia (se produce una sinergia sujeto-objeto en la que se pierde el sujeto y da lugar a una supraconciencia en red, superorganismo global. Cada vez más conexiones entre humanos y maquinas donde se produce una fusión tecnológica entre el individuo y la sociedad de alcance global. Para la comprensión de la mente humana parte de las ideas de Francis Heylighen

Surgimiento de una superinteligencia global donde estén conectados en redes los humanos y las máquinas en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora. Vinge le da una gran importancia a Internet, al considerarla como el mejor medio de comunicación entre humanos y humanos y máquinas y considera que sus poderes actualmente están subestimados y que a medida que la conectividad, el ancho de banda, el tamaño de los archivos y la rapidez de las computadoras aumenta se percibe una biosfera como un procesador de datos condesado, pero a una velocidad un millón de veces superior y con millones de agentes humanamente inteligentes… Lo que algunos llaman cerebro global.

  1. Socioeconómica

Inteligencia colectiva

 Aspira a que la inteligencia se puede compartir para encontrar soluciones colaborativas a los problemas. En la práctica, se busca explorar nuevas aplicaciones que saquen provecho de la inteligencia colectiva. Las tecnologías como investigación para que sean beneficiosas. Su representante principal es Thomas Malone del MIT

  1. Ético-filosófica

IA avanzada colaborativa.

Ampliación de la inteligencia  por medio de la colaboración (interacción) entre humanos y tecnologías (conexión lógica). La inteligencia artificial va creciendo y desarrollándose junto a los humanos y ambos se hacen más inteligentes y sabios (sinergia exógena mutual). Se busca la integración humanos-tecnologías pero teniendo como desarrolladores a la sociedad civil, además, de los centros de investigaciones y las transnacionales, donde la interacción entre humanos y humanos y tecnologías irá ampliando la inteligencia y la sabiduría humana (conciencia holística) dado su carácter abierto, libre y colaborativo, basado en comunidades que colaboran por el desarrollo de software abiertos (software libre) desde un enfoque sistémico (paradigma sistémico-complejo) como alternativa a las ideas racionalista (super IA)  y transhumanistas y la confrontación que se irá produciendo. Cosmovisión de la complejidad.

Dentro de la amplificación de la inteligencia esta, la que Vinge define como redes de computadoras y, que en su opinión, ya está surgiendo sin que los propios desarrolladores se percaten y pone los siguientes ejemplos. Vinge menciona una simbiosis entre humanos y computadoras en las diferentes esferas humana que van desde el arte, el ajedrez y las redes de internet. Vinge destaca la los asistentes informáticos (agentes inteligentes) los software de ayuda al diseño (CAD) y la participación en competencias de ajedrez de humanos y computadoras. Al final todo apunta a una colaboración cada vez más estrechas entre humanos y computadoras lo cual nos puede llevar al surgimiento de una inteligencia colectica (siguiendo las ideas de Levy) y aunque Vinge no aclara mucho todo indica que podría sustentarse sobre una interacción exógena entre humanos y máquinas.

Vía científica

IA evolutiva

Se irá construyendo desde las investigaciones en la ciencia de la complejidad. Tiene como línea de investigación la ingeniería de sistemas complejos que incluye temas como la meta heurística, la inteligencia computacional, la inteligencia de enjambre, entre otros. Tiene puntos en común con la cosmovisión de la complejidad ya que ambas, al igual que el pensamiento complejo, son parte integral de una visión compleja-transdiciplinar del mundo. En Latinoamérica el máximo exponente de la ciencia de la complejidad es Carlos Maldonado.

Investigación y desarrollo de sistemas complejos desde el paradigma científico de la complejidad: Ciencias de la complejidad y computación bio-inspirada, vida artificial, sistemas evolutivos, inteligencia de enjambres, computación inmune, metaheuristicas, etc.

Técnicas utilizadas en las investigaciones relacionadas con la IA

  • Redes neuronales
  • Robótica inteligente
  • Algoritmos genéticos
  • Inteligencia de enjambre
  • Modelación basada en agentes
  1. Vía ingenieril

Línea aplicada: Aplicaciones de las investigaciones de los temas anteriores

  • Aplicaciones de la inteligencia colectiva
  • IA abierta, aplicaciones colaborativas (comunitarias del software libre). Construcción de una plataforma en red abierta y colaborativa entre personas e IAs que permitan la interacción de conocimiento y surgimiento de nuevos conocimientos.
  • Web semántica,
  • Wikipedia, medios sociales de comunicación, etc.
  • Colaboratium (la inteligencia colectiva aplicada al cambio climático)

Si aceptamos que el paradigma actual nos lleva al abismo (siguiendo a Morin) y necesitamos de una inteligencia superior para enfrentar los retos de una complejidad creciente en nuestras relaciones como individuos, como sociedad, como familia, y con las tecnologías , entonces ante las nuevas tecnologías, necesitamos urgentemente un cambio de paradigma y no nos queda más remedio que desarrollar una inteligencia sobrehumana que nos permita construir un nuevo paradigma y con ello construir una nueva inteligencia sobrehumana

Parece que la única forma de resolver los problemas contemporáneos es por medio del desarrollo de una inteligencia sobrehumana. Se necesita de una inteligencia superior a la humana para resolver los problemas contemporáneos (ante la complejidad creciente del mundo). La inteligencia y la sabiduría actual de la humanidad no están condiciones de resolver los problemas actuales (los cuales se vienen arrastrando durante siglos). Por lo que las inteligencias sobrehumanas deben irse desarrollando desde y hacia un nuevo paradigma que cambie nuestra manera de enfocar los problemas y que nos guie hacia un progreso humano basado en la sabiduría colectiva.

 

DiplomadoEnfoqueSistemico

Saber más: Diplomado Enfoque Sistémico