Historia de la inteligencia artificial (2)

Segunda crisis de la IA

Si la primera crisis surgió producto de las expectativas de que la maquina (los programas)  en 20 años igualara las capacidades humanas, lo cual no se cumplió, la segunda fue producto de los diferentes enfoques de la IA  y sus métodos asi como las promesas que contenía cada uno y el  menos precio hacia los otros enfoques.

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías. Se basa en la idea de una inteligencia artificial fuerte y ha dado lugar a la psicología cognitiva

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente, Se soporta sobre la idea de una inteligencia artificial débil y ha sigo la impulsora del paradigma basado en datos, del cual hablaremos en el próximo articulo.

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias. Se busca desarrollar sistemas que permitan obtener ganancias, dio lugar al boom de los sistemas expertos que son aplicaciones centradas en un domino de aplicación, por lo cual ha sido llamada IA estrecha.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Nuevos paradigmas

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomarán algunas ideas, en muchos casos condenadas por los padres de la inteligencia artificial (IA). Y es que los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas, por lo que surgió un nuevo paradigma de programación dentro de la inteligencia artificial: el conexionista

El paradigma conexionista

El paradigma conexionista mas representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente. Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de conectarse entre sí para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los esté alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre sí y de ajustarse al problema e ir guardando su experiencia.

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Según  Moravec, de quien ya hemos hablado, hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, ver Moravec y el fin de la especie humana, donde predice que para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Nuevas tendencias en la IA

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas

 Redes neuronales artificiales (RNA)

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro. La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles. La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Algoritmos genéticos

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda “en paralelo” y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobre cruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, tras la publicación del libro de Holland  “Adaptation in Natural and Artificial Systems” y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de “evolución simulada”, en particular como un algoritmo matemático implementado en un ordenador.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Agentes inteligentes

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Vida artificial

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

Aprendizaje automático

Varios factores han impulsado la revolución de la IA.

  • El principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basada en la web.
  • El aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas redes entrenadas usando un método llamado retro propagación.
  • Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos.
  • Nuevas plataformas y mercados para datos productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA.

Otro de los problemas era el aprendizaje automático, como lograr que la máquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Rodney Brooks, investigador del MIT,  durante años tuvo deambulando por su oficina pequeñas arañas cibernéticas, cuyo objetivo era aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones.

¿Se convertirá la inteligencia artificial en una amenaza? (1)

Inteligencia artificial fuerte y débil

stephen-hawking

Stephen Hawking se pregunta. ¿Si estamos tomando la inteligencia artificial suficientemente en serio?

La creación de una Inteligencia Artificial (IA) siempre se consideró como una tarea exclusiva de científicos superdotados que trabajaban en modernos centros de investigación, ubicados en los países más desarrollados del planeta. Era algo ajeno a las verdaderas necesidades informáticas del mundo. Trabajar en la IA fuera de los grandes centros, era considerado una pérdida de tiempo, y si lo hacías desde un país en vías de desarrollo, era una locura. Y, aunque, en este último aspecto no se ha cambiado mucho, si estamos ante un nuevo fenómeno: la IA se ha escapado de los grandes centros de investigación para integrarse a las aéreas de investigación de las transnacionales de las nuevas tecnologías.

En los inicios de la IA, cuando todo era más claro, solo existían dos grandes enfoques teóricos (más bien filosóficos), los que defendían la idea de una inteligencia artificial fuerte y los que se inclinaban por una IA débil. Esto puede parecer trivial pero dada la interpretación que se le dé a lo que estamos representando podemos sacar diferentes conclusiones de un mismo resultado. La IA fuerte asume que la mente está formada por algoritmos altamente complejos que pueden ser descifrado y convertidos en programas de computadora, y de ahí llegan a la conclusión que la mente humana puede ser digitalizada en una computadora, en cambio la IA débil considera que la mente funciona diferente a las sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano.

Con el surgimiento de los sistemas expertos, la IA tomo un matiz comercial y se soñó con la posibilidad de desarrollar aplicaciones basadas en los conocimientos de una experto para un área de terminada. Aquí se retomaba la idea de una IA débil, eran sistemas de corte informático, aunque en buena lid, a los creadores no les preocupaba mucho las cuestiones filosóficas, su interés era más bien comercial.

Hasta ese momento existían tres grandes líneas, bien diferenciadas.
• Sistemas cognitivos (IA fuerte)
• Sistemas informáticos (IA débil)
• Sistemas expertos (Comerciales)

Teniendo en cuenta que la IA se ha caracterizado por hacer predicciones y crear expectativas, los sistemas expertos no fueron una excepción y el esperado bum comercial no paso de unas pocas ventas y muchas empresas fracasaron en el intento, al igual que las predicciones hechas por la IA en sus primeros años debido a la euforia de los avances en la demostración de problemas matemáticos y los juegos, lo que llevo a la idea de que era posible encontrar una heurística capaz de resolver todos los problemas (el solucionador general de problemas), esto llevó a una crisis en la inteligencia artificial y a buscar nuevos paradigmas de representación.

No obstante las recaídas que ha tenido la IA esta ha resurgido con más fuerza en nuestros tiempos y hoy se ha convertido en la mayor esperanza para la humanidad, tanto para los defensores del transhumanismo como para los defensores de una singularidad tecnológica, que parecen lo mismo pero no son iguales, aunque ambos coinciden en el surgimiento de una superinteligencia superior a la humana. Precisamente esta es la creencia actual, y no es tanto que se puede construir una inteligencia superior a la humana, que ya está surgiendo ante nuestros ojos, como producto de una tecnología, que cada vez se acelera más y se hace más potente y autónoma.

Entonces, ¿surgirá una superinteligencia que supere a la humana? Para muchos esta ya está sucediendo, y más preocupante aun, si ellos mismo están haciendo todo lo posible porque suceda, y peor aún; cuentan con todos los medios para lograrlo. Por lo que estamos hablando, ya no de investigadores aislados sino de grandes empresas que están convencidas de que es posible y han desplegado una cantidad enormes de recursos con ese fin, y si vemos los nombres de las compañías: Google, Apple, Facebook, IBM, Microsoft, Amazon, etc. Sin dudas, hay que pensar un poco antes de decir que no surgirá una inteligencia artificial, que al menos igualará en muchos aspectos, a los humanos. La pregunta es: ¿Que pasará cuando esto suceda?

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.

Los riesgos del futuro. Este será el próximo tema.

Foto: The Independent

La inteligencia artificial se renueva (1)

inteligencia-artificial-5La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y en sus paradigmas simbólico como conexionista, habían llegado a un callejón sin salida. La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o los mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computador al ser humano, tales como Lisp y Prolog.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no se justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área  especifica o sea la restricción a un dominio de conocimiento,  lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una maquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el  juicio de una maquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

En fin eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando,  aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones, lo cual llevo a una nueva crisis en la inteligencia artificial.

Desde entonces la IA se fue volviendo más modesta y sus pretensiones de crear una mente artificial basada en programas de computación y que a su vez fuera autoconsciente, inteligencia artificial fuerte,  sin tener en cuenta al cerebro ni al entorno, fue sustituida por el desarrollo de métodos y aplicaciones más acorde con el funcionamiento del cerebro o del accionar humano, nos referimos a las redes neuronales, los algoritmos genéticos de una parte, o los agentes inteligentes, los sistemas cooperativos y los autómatas que aprenden del entorno, de la otra.

Otro fenómeno que ha ido surgiendo, es la perdida de “elitismo” de los investigadores de la IA, lo cual decidían que era una investigación de IA y que no era. Por lo que podías estar trabajando en el área de la IA sin ser reconocido ni invitado a ningún evento, y las aplicaciones, exitosas o no, no pasaban de ser hijos bastardos de la IA. Hoy el protagonismo en la IA no lo tienen los centros de investigación sino los laboratorios de I+D de las grandes transnacionales de la información: IBM, Microsoft, Google, Facebook, Aple, Amazon… De esto y otras cosas, seguiremos hablando en el próximo artículo.