Historia de la inteligencia artificial (1)

ai100_robot-concept_1_0

A lo largo del tiempo he venido escribiendo artículos sobre la inteligencia artificial (IA) que van desde su historia, sus paradigmas, las tendencias y los riesgos y beneficios de la IA. Ahora motivado por el primer informe sobre 100 años de IA y teniendo en cuenta los cambios que se están produciendo en el desarrollo de las nuevas técnicas y herramientas, su impacto social y el enfoque que se sigue, sentimos la necesidad revisar algunos puntos de vista del informe, en especial, sobre el futuro de la IA y la posición del ser humanos (Puede descargar el informe aqui)

La influencia de la cibernética

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, de todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

La heurística

Los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Con la heurística se pretendía resolver aquellos problemas poco estructurados en los que no existía una secuencia de pasos que nos llevara desde un estado inicial a uno final y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación y que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos revolvedores generales fueron abandonados, este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.

El paradigma simbolista

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupos, los que se basaban en la lógica en la lógica para la representación de los conocimientos (la sintaxis, cálculo de predicados) un ejemplo de ello el lenguaje Prolog, o los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos.

Múltiples progresos se desarrollaron durante esos años y fueron delineados los campos fundamentales que conformarían la nueva rama de la Informática. El desarrollo de lenguajes de y para la IA entusiasmó a investigadores y empresas a la vez que se comenzó la construcción de estaciones de trabajo especializadas en IA. A mediados de los años 70 se desarrolló en el Laboratorio de IA del MIT una de estas máquinas dirigida a apoyar y facilitar las investigaciones. En ellas el lenguaje de máquina es el LISP. Varios sistemas comerciales fueron elaborados por otras empresas.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia

Laboratorio de la IA (mundo de juguetes)

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Primera crisis de la IA

Se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales, debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Dadas las falsas expectativas del enfoque heurístico, que pretendía hallar un algoritmo capaz de resolver todos los problemas, y su agotamiento como paradigma de la IA, los investigadores comienzan a formularse una nueva metodología basada en los conocimientos, porque en realidad, el hombre resuelve los problemas debido a que aplica su saber. Este nuevo enfoque, en lugar de partir de lo general a lo particular, se debía tratar de resolver los problemas particulares, utilizando conocimientos.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje Prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos. Todos estos proyectos fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Sistemas expertos

Si anteriormente la IA solo se difundía dentro de los laboratorios, con los SE, irrumpe en el mercado y da lugar a una explosión de aplicaciones en casi todos los campos del saber. Este hecho recibió el impacto directo de la segunda revolución de la informática: las computadoras personales (PC), que fue lo que en fin de cuentas permitió, que los sistemas expertos se difundieran masivamente.

Marcada por MYCIN y desarrollada en la Universidad de Stanford, comienza la década de los Sistemas Expertos orientados al diagnóstico de enfermedades de la sangre, primer método que introduce el razonamiento con incertidumbre, permite comenzar la etapa de formalización de estos sistemas y conduce al desarrollo de herramientas de estructuras generalizadas o Shells (conchas) y por PROSPECTOR, dirigido a la evaluación de prospecciones geológicas e identificación de yacimientos minerales, el cual impactó por contradecir a los expertos y señalar una zona rica en molibdeno valorada en millones de dólares.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante, muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico, todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área específica o sea la restricción a un dominio de conocimiento, lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una máquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado, así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el juicio de una máquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y, por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y sus paradigmas habían llegado a un callejón sin salida. El fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todo el proyecto japonés de 5ta generación, la creación de una supercomputadora que, en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o el mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computadora al ser humano, tales como Lisp y Prolog.

El primer fracaso de la IA estuvo al pronosticar que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

De ahí que la IA abandone los sistemas autistas (encerrados en sí mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
La formalización del sentido común.
El aprendizaje.
La integración de diferentes paradigmas de inteligencia.
El desarrollo de arquitecturas cognoscitivas completas.

En fin, eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando, aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones.

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en General. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s