Inteligencia Artificial General

Este año en Universidad de Pekin (China cuya presencia cada vez es más fuerte en el mundo y la Inteligencia Artificial no es una excepción) se está celebrando la Sexta Conferencia sobre Inteligencia Artificial General (AGI 2013) y a continuación, en el mismo escenario, de 3 al 9 de agosto, se celebrará la XXIII Conferencia Internacional Conjunta sobre Inteligencia Artificial.

La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte (ver, en este blog, el artículo anterior) dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.

Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética (de está hablaremos en otro artículo) está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.

Volviendo al evento AGI 2013, los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

Libro recomendado:
Inteligencia Artificial, el futuro del hombre
Más libros del autor

¿Qué es la inteligencia artificial fuerte?

Después del paradigma cibernético con su intento de construir una mente mecánica (de esto hablaremos en otro artículo), le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifrara los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

Como siempre sucede, los investigadores en inteligencia artificial,(IA) no se ponían de acuerdo en si, esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrpastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, una vez que la maquina tenga todos los algoritmos que conforman la mente, y este es uno de los problemas de la IA convencional, ya que, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se halla reproducido totalmente la mente humana, y pueda funcionar en una computadora. Muchos investigadores, en esa época de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si se reproducía la mente humana en una máquina, esta no sería consciente? Esto llevó a las siguientes definiciones.

1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los que defienden la IA fuerte sostienen los puntos de vista 3 y 4
Los partidarios de la IA débil se inclinan por 1 y 2.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Recomendación:
Inteligencia artificial, el futuro del hombre

Super inteligencia artificial

Definición de Superinteligencia (Nick Bostrom)
Tendrá superinteligencia cualquier intelecto que se comporta de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:
• Creatividad científica
• Sabiduría en general
• Desempeño científico

Esta definición deja abierta la forma como se implementa esa superinteligencia
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Mixta: fusión entre computadoras y humanos

Inteligencia artificial

En sus inicios la inteligencia artificial (IA) se fundamento en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el mas adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticas, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran algunas ideas, en muchos casos condenadas por los padres de la IA.

Nuevas tendencias en la IA
• Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Maquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Los investigadores de la IA han ido perdiendo interés en la programación de sistemas que emulen con la mente por la de un hardware cada vez mas potentes y se parte del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución mas importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
• La evolución de las maquinas es mas rápida que la de los humanos, mientras las maquinas sufren un crecimiento acelerado, la evolución natural de los humanos esta prácticamente detenida.
• La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
• La maquinas que se Irán auto construyéndose a si misma cada vez mas perfeccionadas, mas veloces, mas memorias, dotadas de mejores algoritmos podrán llegar a convertirse en maquinas superinteligentes que superen a los humanos..
• La inteligencia de las maquinas dada la complejidad que Irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

¿Hay alguna razón que nos pueda llevar a pensar que será así?
Hoy la maquina supera al campeón del mundo en ajedrez, no seria esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.