Paradigmas y tendencias en la investigación de la IA

A partir de la crisis del paradigma simbolista surge un nuevo paradigma dentro de la inteligencia artificial: el paradigma conexionista que asume que la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente (Hacia un nuevo enfoque de la inteligencia artificial). La IA no se quedó en el paradigma conexionista o emergente, al cual le han seguido el paradigma enactivo o corpóreo y el paradigma basado en datos o máquinas superinteligentes.

De momento, podemos mencionar los siguientes paradigmas

  • Paradigma simbólico (lógico/semántico)

  • Paradigma conexionista o emergente

  • Paradigma corpóreo o enactivo

  • Paradigma basado en datos o máquinas superinteligentes

A su vez, los paradigmas han dado lugar a nuevos modelos y nuevas técnicas de investigación (Las máquinas superando a los humanos) entre las técnicas más importantes tenemos:

Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Las ciencias cognitivas y los paradigmas de la Inteligencia Artificial (IA)

  • Simbolista (lógica y semántica)

  • Conexionista o emergente (redes neuronales y sistemas multiagentes)

  • Evolutiva (algoritmos genéticos)

El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA partiendo de la representación en la computadora de la realidad y, para muchos, esa representación basada en símbolos es equivalente a los estados mentales, ya que tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que procesan información). Actualmente se esta hablando de dos nuevos paradigmas: el enactivo o corpóreo y el basado en datos

Paradigmas de la IA

Los paradigmas de la IA sirven tanto para la IA general como para la IA específica y para la futura super IA. Su aplicación ha sido fundamentalmente en la IA específica, pero se puede aplicar a la IA general y a la hipotética super IA.

Modelos y paradigmas dominantes en la IA

1.-Paradigma simbólico

  • Modelo simbólico – Reglas de producción

2.-Paradigma conexionista

  • Modelo conexionista o neuronal – Redes neuronales

  • Modelo colectivo – Sistemas multiagentes

  • Modelo evolutivo – Algoritmo genético

3.-Paradigma enactivo

  • Modelo corpóreo – Robótica del desarrollo (robótica reactiva)

4.-Paradigma máquinas inteligentes

  • Modelo basado en datos – Aprendizaje profundo

Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas.

Las unidades interconectadas pueden ser

  • Neuronas

  • Genes

  • Agentes inteligentes

No se puede olvidar que hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión.

Todos los modelos son las técnicas que se aplican para desarrollar una IA (de momento específica) que puede alcanzar, en algún momento, una IA avanzada (general). Los modelos tienen su aplicación fundamental dentro del enfoque socioeconómico como IAs específicas que buscan dar solución a los diferentes dominios, aunque su pretensión inicial haya sido la construcción de una IA de carácter general. Sin embargo sus logros han estado en las aplicaciones a dominios restringidos, Ya existen IA específicas que superan a los humanos en una tarea (ej: ajedrez, GO, etc)

Para mejor comprensión de los modelos veamos la definición dada por López Mantaras para los principales modelos en IA: simbólico, conexionista, evolutivo y corpóreo. Aquí se agregan otros dos modelos: colectivo y basado en datos.

Paradigma simbólico

Modelo simbólico

Es un modelo descendente, que se basa en el razonamiento lógico y la búsqueda heurística como pilares para la resolución de problemas, sin que el sistema inteligente necesite formar parte de un cuerpo (no encarnado) ni está situado en el entorno real. La IA simbólica opera con representación abstracta del mundo real

Paradigma conexionista.

Se mantiene dentro del cognitivismo clásico, de la hipótesis simbolista y la metáfora del computador

Modelo conexionista (neuronal)

Los sistemas conexionistas no son incompatibles con la hipótesis simbolista (SSF) pero al contrario del simbólico, se trata de un modelo ascendente, ya que se basa en la hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran número de unidades interconectadas que procesan información paralelamente. En la IA conexionista estas unidades son modelos muy aproximados de la actividad eléctrica de las neuronas biológicas.

Modelo colectivo

El modelo colectivo son sistemas multiagentes y es compatible con la hipótesis simbolista y se puede decir que es no corpórea aunque si tiene en cuenta al entorno, también se trata de un modelo ascendente ya que la inteligencia emerge de una gran número de unidades interconectadas en este caso son los llamados agentes inteligentes, que tienen como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como la posibilidad de interactuar con dicho entorno y con otros agentes.

Modelo evolutivo

También es compatible con la hipótesis simbolista (SSF) y no corpórea. Se trata de imitar la evolución con el fin de que los programas de computadoras mediante un proceso evolutivo mejorasen automáticamente las soluciones a los problemas para los que fueron programados.

Paradigma enactivo

Rompe con la hipótesis simbolista, ya que no es la representación del mundo objetivo y su conversión en símbolos para ser procesados por una computadora sino, la actuación de la máquina en el entorno. Varela incluye el paradigma enactivo en las ciencias cognitivas pero dado que el enactivismo está más cerca de un pensamiento sistémico-cibernético y su complejidad, perfectamente encaja en las ciencias de la complejidad.

Modelo corpóreo

Se basa en que un agente inteligente necesita un cuerpo para tener experiencias directas con su entorno, en lugar de que un programador proporcione descripciones abstractas de dicho entorno, codificado mediante un lenguaje de representación del conocimiento. Sin un cuerpo esta representación abstracta no tiene contenido semántico. El método corpóreo ha dado lugar a la llamada robótica del desarrollo.

Paradigma basado en datos o máquinas superinteligentes,

Se acepta que la forma de pensar de los humanos es totalmente diferente a la de las máquinas (IA débil) y que el método es crear programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano (no sigue la medida humana). Por supuesto, esto nos lleva a máquinas carentes de sentimientos (al menos como los humanos), tan inteligentes como los humanos o quizás más, pero dentro de su propio contexto digital.

Modelo basado en datos

El progreso tecnológico y el almacenamiento de grandes bases de datos ha posibilitado, que el procesamiento orientado a los datos del mundo real sea factible, dado el surgimiento de hardware cada vez más potente, barato y confiable, además la capacidad de internet para recopilar grandes cantidades de datos y la disponibilidad de almacenamiento para procesar esos datos. La IA basada en datos (IA BD) son, en general, algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina, estamos ante programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano.

Tendencias en las investigaciones de la IA (ver el estudio AI100)

El aprendizaje automático a gran escala se refiere al diseño de algoritmos de aprendizaje, así como escalar algoritmos existentes, para trabajar con conjuntos de datos extremadamente grandes.

El aprendizaje profundo, una clase de procedimientos de aprendizaje, ha facilitado el reconocimiento de objetos en imágenes, etiquetado de video y reconocimiento de actividades, y está haciendo avances significativos en otras áreas de percepción, como el procesamiento de audio, habla y lenguaje natural.

El aprendizaje por refuerzo es un marco que cambia el enfoque de la máquina aprender del reconocimiento de patrones a la toma de decisiones secuenciales impulsada por la experiencia promete llevar las aplicaciones de IA hacia adelante para tomar medidas en el mundo real. Si bien se ha limitado en gran medida a la academia en las últimas décadas, ahora está viendo algunos éxitos prácticos del mundo real.

La robótica se preocupa por cómo entrenar a un robot para que interactúe con el mundo a su alrededor de manera generalizable y predecible, cómo facilitar la manipulación de objetos en entornos interactivos y cómo interactuar con las personas. Avances en la robótica dependerá de avances proporcionales para mejorar la fiabilidad y la generalidad de la visión por computadora y otras formas de percepción de la máquina.

La visión por computadora es actualmente la forma más prominente de percepción de la máquina. Ha sido la subárea de IA más transformada por el auge del aprendizaje profundo. Por primera vez, las computadoras pueden realizar algunas tareas de visión mejor que las personas. La investigación actual se centra en el subtitulado automático de imágenes y videos.

Procesamiento de lenguaje natural, a menudo junto con reconocimiento automático de voz se está convirtiendo rápidamente en una mercancía para idiomas ampliamente hablados con grandes conjuntos de datos. La investigación ahora está cambiando para desarrollar sistemas refinados y que sean capaces de interactuar con las personas a través del diálogo, no solo reaccionar a las solicitudes estilizadas. Grandes pasos, también se han realizado en traducción automática entre diferentes idiomas, con más intercambios de persona a persona en tiempo real en el horizonte cercano.

Los sistemas colaborativos, investigan modelos y algoritmos para ayudar a desarrollar sistemas autónomos que pueden trabajar en colaboración con otros sistemas y con humanos.

La investigación de crowdsourcing y computación humana investiga métodos para aumentar los sistemas informáticos haciendo llamadas automatizadas a la experiencia humana para resolver problemas que las computadoras solas no pueden resolver bien.

La teoría de juegos algorítmicos y la elección social computacional llaman la atención a las dimensiones de computación económica y social de la IA, como la forma en que los sistemas pueden manejar incentivos potencialmente desalineados, incluidos los participantes humanos interesados o empresas y los agentes automatizados basados ​​en IA que los representan.

La investigación de Internet de las cosas (IoT) se dedica a la idea de que una amplia gama de dispositivos, incluidos electro domésticos, vehículos, edificios y cámaras, pueden interconectarse para recopilar y compartir su abundante información sensorial para usar con fines inteligentes.

La computación neuromórfica es un conjunto de tecnologías que buscan imitar redes neuronales biológicas para mejorar la eficiencia del hardware y la solidez de sistemas informáticos, a menudo reemplazando el énfasis anterior en módulos separados en entrada /salida, procesamiento de instrucciones y memoria

Conclusión

Como hemos visto, todos los modelos excepto el BD tratan de emular las competencias de la mente o del cerebro humano. En el caso del modelo BD estamos hablando del surgimiento de una inteligencia no humana en el sentido literal. Ya que el modelo BD no tiene nada que ver con la forma de pensar del ser humano es un algoritmo de fuerza bruta basado en la velocidad del hardware. Ahora de acuerdo al paradigma basado en datos, según crezcan los datos las máquinas tendrán más acceso a la información y a su procesamiento (dada su creciente velocidad) y con ello a aumentar exponencialmente su inteligencia, lo que lleva a una posible singularidad tecnológica, fuera de la medida humana.

La IA actual es dependiente, depende de las personas que le suministran información del medio, mientras la IA enactiva recoge la información directamente del medio. Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las máquinas actúan en su entorno (digital) y aprenden de él por lo que adquieren una inteligencia ajena a la humana. También, la IA actual es individualista, resuelve los problemas por si misma sin cooperación, en resumen, podemos decir que la IA actual es específica, individualista y dependiente (incorpórea)

Hoy se habla de sistemas híbridos que combinen el paradigma cognitivo (simbolista y conexionista) con el basado en datos, yo en cambio me inclino por el desarrollo de un sistema que integre el paradigma enactivo con el colectivo: una IA enactiva/colaborativa que sea consciente y cooperativa; capaz de desarrollarse y evolucionar junto a los humanos.

Características y tipos de inteligencia artificial

tipos-ia3En este artículo continuaremos con algunas de las definiciones dadas en el estudio AI100

Inteligencia Atificial (IA) siguiendo la forma de pensar humana

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado “la IA estrecha o específica”; la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, limitadas a un dominio de aplicación.  Debido a las dificultades en la solución de problemas complejos, en los últimos años, cada vez más los investigadores han reconocido la necesidad -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y a la necesidad de hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general.

Habíamos visto que para López Mantaras, el objetivo de la IA lograr una inteligencia artificial general similar a la humana. Decíamos que la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no, estamos hablando que la IA sigue la forma de pensar humana.

La medida humana

Al respecto el estudio AI100, dice lo siguiente: “En particular, la caracterización de la inteligencia como espectro no otorga un estatus especial al cerebro humano, pero hasta la fecha, la inteligencia humana no tiene rival en lo biológico y mundos artificiales para su gran versatilidad… Esto hace que la inteligencia humana sea una opción natural para evaluar el progreso de la IA”.

IA que no sigue la forma de pensar humana

Recientemente ha ido surgiendo una forma de resolver los problemas basados en la velocidad de procesamiento de las máquinas, lo cual le permite el procesamiento de una gran cantidad de datos.

Definición operacional

Siguiendo al estudio AI100: “La IA también se puede definir por lo que hacen los investigadores de IA. Este informe ve a la IA, principalmente, como una rama de la informática que estudia las propiedades de inteligencia sintetizando inteligencia. Aunque el advenimiento de la IA ha dependido en el rápido progreso de los recursos informáticos de hardware, el enfoque aquí del software refleja una tendencia en la comunidad de IA. Más recientemente, sin embargo, el progreso en la construcción de hardware a medida para la informática basada en redes neuronales ha creado un acoplamiento más estrecho entre hardware y software en el avance de la IA”.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas inteligentes desde una IA débil que tiene como meta que las maquinas, cada vez más veloces y capaces de procesar más datos, llegan a superar a la inteligencia humana. Las cuales se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos. Lo cual nos conduce a la construcción de una IA desde y para las transnacionales con fines comerciales como una IA “no consciente” cada vez más lejos de la medida humana.

IA consciente de los humanos.

“La IA debe pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables” (Estudio AI100)

Tendencias de las investigaciones en Inteligencia Artificial

Volviendo al estudio AI100. “Las tecnologías de IA, ya impregna nuestras vidas. A medida que se convierten en una fuerza central en la sociedad, deben pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables. Varios factores han impulsado la revolución de la IA, el principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basados en la web, el aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas, son redes entrenadas usando un método llamado retro propagación. Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos. Nuevas plataformas y mercados para datos, productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA”.

Definiciones de Super IA, IA avanzada e IA (especifica)

Hoy se utiliza mucho la definición de una inteligencia artificial general mientras otros hablan de una IA avanzada.

La Inteligencia Artificial General

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado” la IA estrecha”, la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Volviendo a la definición de IA de López Mantaras

El objetivo de la IA avanzada es lograr una inteligencia artificial general similar a la humana. Donde la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no.

IA general

  • IA fuerte (capaz de tener conciencia)
  • IA débil

IA especifica

  • IA débil

Llamaremos a la IA general como “inteligencia artificial avanzada” y para la IA estrecha o específica, la llamaremos solamente IA. Mientras la IA general-fuerte capaz de superar a la mente humana y llevarnos a una singularidad tecnológica como Super IA

Mientras la IA avanzada (general), se puede aplicar a cualquier dominio, estamos hablando de una IA multitarea que se pueda aplicar a diferentes dominios. La IA (estrecha), solo se aplica a un dominio

Las computadoras son capaces de realizar tareas específicas mejor que los humanos, y es que los grandes logros de la IA se han con IA la débil y especifica. Hoy estamos ante nuevos éxitos de la IA especializada

Ya no es un secreto que todos los esfuerzos de la IA se han centrado en construir IA especializada, con grandes éxitos en el último decenio gracias a la conjunción de dos elementos:

  • La disponibilidad de grandes cantidades de datos (orientada a BD)
  • El acceso a la computación de grandes prestaciones para poder analizarlos (velocidad del hardware)

La IA avanzada, son estados mentales potenciales que los humanos en su vida diaria nunca desarrollan, quedan latentes. Por tanto, las IA especificas están más acorde con las necesidades de la vida. El que la IA sea general no quiere decir que se vaya a resolver el problema del sentido común, sigue sin comprenderse la semántica, y es que construir una IA avanzada de carácter general parece una misión imposible, tal vez los correcto sea una IA avanzada por medio de la colaboración entre inteligencias especificas abiertas al entorno.

Con respecto al sentido común López Mantaras dice lo siguiente: “En los 60 años de IA se ha probado que lo que parece más difícil ha resultado más fácil (jugar ajedrez) y lo que parece más fácil ha resultado lo más difícil y se debe a la falla del conocimiento de sentido común. El sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad” Y propone como solución al sentido común el desarrollo de una IA encarnada (robótica del desarrollo).

IA corpórea vs IA Basada en Datos

Habíamos visto que en el informe AI100 se proponía que en el desarrollo de la IA se debe pasar de construir sistemas inteligentes simples (no consciente de los humanos) a construir sistemas inteligentes que sean conscientes de los humanos y confiables.

Los sistemas digitales, se caracterizan por manipular símbolos (paradigma simbolista) y son cerrados, la información se la suministran los especialistas, no tienen contacto con el medio exterior. Son sistemas que procesan información, da lo mismo que sean datos, información o conocimientos, en el fondo son una representación de símbolos que son procesados por una computadora donde la información debe ser introducida manualmente. Por lo que la IA es un sistema cerrado (autista) y para que sea una IA avanzada debe estar abierta al entorno, o sea un sistema autónomo capaz de aprender e interactuar con su entorno (digital)

En muchos casos, se sigue hablando de una IA avanzada que depende de los humanos como suministradores de información. Por otra parte, se ignora la interacción entre personas y sistemas autónomos ya que se considera a los sistemas autónomos como entidades independientes que se desarrollan desde y por sí mismo (ver artículo de Moravec).

La inteligencia artificial basada en datos

Con el surgimiento de la IA basada en datos, se irá perdiendo la medida humana donde el referente ya no será la mente ni el cerebro sino la propia máquina y su velocidad para procesar los datos.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas superinteligentes desde una IA débil que tiene como meta que las máquinas, cada vez más veloces y capaces de procesar más datos llegan a superar a la inteligencia humana. Estas se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos.

La IA basada en datos son algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina (son posibles gracias a las prestaciones cada vez mayor de las máquinas), lo que daría lugar a una singularidad tecnológica producto del procesamiento de grandes cantidades de datos, por lo que estaríamos hablando de máquinas superinteligentes y de una IA débil en lugar de una super IA como una IA fuerte.

Inteligencia artificial corpórea o enactiva

Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las inteligencias avanzadas actúan en su entorno (virtual) y aprenden de él, por lo que adquieren una inteligencia ajena a la humana. La IA actual (convencional) está separada de su entorno por lo que no puede valerse por sí misma (sistema autista). Por lo que podemos hablar de una IA autónoma encarnada en el entorno humano (corpórea o enactiva) o de una IA no encarnada que responde a un ambiente digital

Francisco Varela define la inteligencia artificial enactiva como: “Una IA en la que las maquinas sean inteligentes en el sentido de desarrollarse hacia un sentido común compartido con los seres humanos, como pueden hacerlo los animales, no veo otro camino que hacerla pasar (a la IA) por un proceso de transformaciones evolutivas como se sugiere en la perspectiva”.

Podemos clasificar a la IA por sus características (tabla de comparación entre IA convencional e IA avanzada)

  1. Específica (se aplica a una tarea) o general (multitarea)
  2. Débil (no consciente de sí) o fuerte (autoconsciente)
  3. No autónoma o autónoma (aprende del entorno)
  4. Simbolista (resuelve las tareas de forma individual) o conexionista (resuelve las tareas de forma colectiva)
  5. No consciente de los humanos o consciente de los humanos
  6. No sigue la medida humana o a la medida humana
  7. No corpórea o corpórea

Debemos destacar que el objetivo principal de una IA avanzada siempre fue que fuera autoconsciente IA fuerte ahora se aspira a que la IA al menos sea consciente de los humanos y que en el futuro de forma emergente pueda convertirse en autoconsciente.

Ahora estamos en condiciones de definir la IA convencional que es la que se ha estado desarrollando hasta ahora

La IA convencional, el ejemplo clásico son los sistemas expertos:

  1. Específica, se desarrolla para un solo dominio
  2. Débil, no es autoconsciente
  3. No autónoma, depende que le suministren la información
  4. Simbolista, se basa en reglas de producción
  5. No es consciente de los humanos
  6. Se asume que de alguna forma represente la forma de pensar humana
  7. No corpórea

También podríamos tratar de definir las características de la IA avanzada (ideal)

Un primer acercamiento a una IA avanzada ideal

  1. General
  2. Fuerte
  3. Autónoma
  4. Integra el simbolismo con el conexionismo
  5. Consciente de los humanos y es capaz de colaborar
  6. Sigue la medida humana
  7. Corpórea (encarnada en el mundo y capaz de evolucionar)

Actualmente el patrón de una IA avanzada no es el mismo y difiere para cada tipo de IA. En realidad, en la IA se asumen muchas cosas que crean grandes expectativas, de ahí la confusión y los desacuerdos que siempre han existido

Tipos de IA avanzadas

IA avanzada cognitiva: Se cumple, bastante bien, para los puntos de una IA ideal, pero no es capaz de colaborar ni es corpórea

IA avanzada conexionista cumple con todos los parámetros excepto que no es corpórea

IA avanzada operativa (orientada a los datos), actualmente es la línea de IA avanzada que ha tenido más impacto sobre todo en la economía de las transnacionales de la información, hasta el momento se puede decir que no es colaborativa, no sigue la medida humana (son algoritmos que aprovechan las prestaciones de la máquina y su acceso a grandes bases de datos) y es no corpórea

IA avanzada enactiva como proyecto será capaz de cumplir con todos los puntos de la IA avanzada ideal

De momento no vamos a profundizar en la superinteligencias, recuerden que son inteligencias que aspiran a superar la medida humana (trascienden las capacidades humanas) y asumen un carácter tecno-religioso, por lo que solo mencionaremos su posible impacto futuro.

Superinteligencia producto de una singularidad tecnológica, aunque se inspira en una IA avanzada preferentemente cognitiva, todo indica que, de surgir, será producto de una IA avanzada operativa, por lo que en lugar de hablar de una superinteligencia artificial estaríamos hablando de una máquina superinteligente que, para bien o para mal, tendrá muy poco que ver con los humanos.

Superinteligencia producto de una singularidad distribuida (cerebro global) se inspira en la IA avanzada conexionista que producto de las conexiones (en principio lógicas) con las personas se ira conformando un cerebro global (metasistema, también, de momento exógeno) por lo que surgirá un superorganismo global. De producirse todo indica que pasará de una conexión lógica (metasistema exógeno) a una conexión física entre personas y maquinas lo cual conduciría a una metasistema endógeno y estaríamos ante una variante del transhumanismo: la fusión física entre humanos y tecnologías.

 (En próximos artículos volveremos sobre estos temas)

Imagen: Futuro eléctrico

 

¿Qué es la inteligencia artificial?

Durante esta serie de artículos que publicaremos estaremos haciendo alusión al estudio cien años sobre IA (AI100) y al excelente artículo de López Mantaras sobre el futuro de la IA. Comenzaremos por el estudio AI100, el cual llega a la conclusión de que no existe una definición precisa de la IA.

 En el estudio (AI100) en uno de sus párrafos se afirma lo siguiente

Una imagen precisa y sofisticada de IA, una que compite con su popular representación: se ve obstaculizada al principio por la dificultad de precisar una definición de inteligencia artificial. En los enfoques que el Panel de Estudio consideró, ninguno sugiere que actualmente haya una IA de “propósito general”.

Luego, más adelante, en el informe se trata de definir la IA

Curiosamente, la falta de una definición precisa y universalmente aceptada de IA probablemente ha ayudado al campo a crecer, florecer y avanzar a un ritmo cada vez más acelerado. Los practicantes, investigadores y desarrolladores de IA son guiados por un rudo sentido de dirección y un imperativo para “seguir adelante”. Aun así, queda una definición importante y Nils J. Nilsson ha proporcionado una útil: “La inteligencia artificial es esa actividad dedicada a hacer que las máquinas sean inteligentes, y la inteligencia es esa calidad que permite que una entidad funcione de manera apropiada y con previsión en su entorno”.

En esta definición, personalmente, me deja ciertas lagunas:

1ro. Que las máquinas sean inteligentes, ¿nos estamos refiriendo a una inteligencia general (multitarea) o una inteligencia especifica

2do. Que funcione de manera apropiada y con previsión en su entorno ¿a qué entorno se refiere, cuando las IA hasta la fecha han sido desarrolladas ajenas a su entorno, de ahí que muchos le llamen sistemas autistas.

Por su parte López Mantaras en su articulo El futuro de la IA: hacia inteligencias artificiales realmente inteligentes, da la siguiente definición de IA., dice lo siguiente:

El objetivo último de la IA, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es comparable a otros grandes objetivos científicos como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. A lo largo de los últimos siglos, este afán por construir máquinas inteligentes nos ha conducido a inventar modelos o metáforas del cerebro humano…Actualmente el modelo dominante es el modelo computacional basado en el ordenador digital y, por consiguiente, es el modelo que se contempla en este artículo.

Definición con la cual, a pesar de su restricción, me siento identificado, pero, para comprender esta definición necesitamos saber a qué le llama inteligencia de tipo general, lo cual veremos en el próximo artículo, ahora vamos a hacer un poco de historia y con ello aclarar los conceptos de IA fuerte e IA débil (similar a la humana).

Algo de historia (ver Inteligencia artificial el futuro del hombre)

La Inteligencia Artificial (IA) surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en sí misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora. Lo que dio origen a la metáfora de la computadora como modelo de los procesos mentales, que insiste en la semejanza entre el hardware y el cerebro. De hecho, la realización y el perfeccionamiento de las computadoras numéricas partieron de analogías con el sistema nervioso. El propio John von Neumann solía hablar de “órganos” para referirse a los componentes de la computadora. Se hizo popular la definición de la computadora como un “cerebro electrónico”. Con la llegada de los primeros lenguajes de programación evolucionados y posteriormente con la aparición de la Inteligencia Artificial, las comparaciones con el hardware empezaron a tener menos aceptación.

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte, la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil (ver La inteligencia artificial, algunos conceptos).

  • IA fuerte: Construir programas que emulen el comportamiento inteligente de los humanos como: el pensamiento, el aprendizaje, la visión, la resolución de problemas, la creatividad, etc. Ya que estos modos de comportamiento se pueden explicar algorítmicamente en términos de estados mentales.
  • IA débil: Construir máquinas capaces de resolver problemas que requieran de inteligencia. Para ello se construyen programas que tengan un comportamiento inteligente sin importar si emula o no a la inteligencia humana.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia, … El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Paradigma simbolista.

Para algunos, los humanos y las computadoras son dos especies de un mismo género: los sistemas de procesamiento de la información. Aceptar a la mente humana como una forma de procesamiento de la información trae como consecuencia que se produzcan dos fenómenos inversos:

  • La generalización de los sistemas procesadores de información.
  • La simplificación de la mente humana (reduccionismo).

El problema radica en la generalización que se le quiere dar a los sistemas de procesamiento de la información. Hay palabras que, para los creadores de teorías, toman un significado especial (trascendental) y se convierten en un “símbolo” cargado de significados adicionales, en muchos casos abiertos a nuevas manipulaciones, que se adaptan a la interpretación del contexto de la teoría, como es el caso del término “procesamiento de la información”.

Veamos algunos apuntes a la definición de Lopez Mantaras

Paradigma simbólico (hipótesis): la naturaleza del sustrato (circuito electrónico o redes neuronales) carece de importancia siempre y cuando dicho sustrato permite procesar símbolos.

Lo anterior se trata de una hipótesis, por tanto, no se puede ni aceptar ni rechazarla a priori.

La IA es el campo dedicado a verificar esta hipótesis: verificar si una computadora convencionalmente programada es capaz o no de tener conducta inteligente de tipo general.

Sistema simbólico físico (SSF): Sistema capaz de manipular símbolos, generar nuevos símbolos, crear y modificar relaciones entre símbolos, almacenar símbolos, etc. Los símbolos son físicos y tienen un sustrato físico-electrónico.

Sustrato de los símbolos:

  • Físico-electrónico (computador)
  • Físico-biológico (seres humanos)

Computadora: los símbolos se realizan mediante circuitos electrónicos digitales

Seres humanos: los símbolos se realizan mediante redes de neuronas.

Para concluir con Mantaras, podemos decir que tanto las computadoras como los seres humanos son capaces de procesar símbolos (en general, procesar información)

La metáfora del computador

La metáfora del computador surge casi desde los inicios de la computación. ¿A qué se debe esto? Antes, las máquinas solo sustituían cualidades físicas de los humanos tales como: fuerza, traslación, precisión. Piensen en los medios de transporte, las grúas, los microscopios, etc. Con las computadoras se pretende que estas realicen los cálculos, al igual que los hace la mente para resolver los problemas técnicos. De ahí que una primera metáfora fue llamarle “cerebros electrónicos”. Metáfora que cayó en desuso. Por otra más sutil y trascendente: la computadora puede sustituir al hombre en todas sus actividades ya que ambos son “sistemas basados en el procesamiento de la información”.

La metáfora reduce el concepto de inteligencia a procesamiento de la información lo cual hace que se pueda hablar de inteligencia en la máquina, pero también a nivel social, redefine el concepto de inteligencia en términos computacionales, crea una cultura social y una pedagogía orientada a la formación del pensamiento algorítmico en los jóvenes científicos. Ya que, si se parte de la idea de que todo es algoritmizable, entonces, la limitación no está en la máquina, sino en la incapacidad del hombre para hacer los algoritmos. El hombre debe aprender a hacer algoritmos para la máquina. Lo que nos puede llevar a la conclusión de que el hombre sólo sabe lo que es capaz de algoritimizar, por lo que, algoritmizar; se entiende como comprender.

De lo anterior se desprende, por ejemplo, que, para yo entender un fenómeno, debo ser capaz primero de construir una serie de conceptos que me permitan una descripción algorítmica de ese fenómeno. Es evidente que el fenómeno en sí, se pierde entre tanta formalización. Al final, que nos queda, una representación algorítmica de una interpretación matemática –entiéndase formalizada–de un fenómeno.

La simplificación de la mente humana (reduccionismo).

El reduccionismo afirma que se pueden explicar los fenómenos reduciéndolos a un nivel más elemental. Por ejemplo: la conducta humana puede reducirse a estudios neurofisiológicos (incluso sobre animales), el estudio del cerebro puede reducirse a la biología celular, etc. La IA es reduccionista, ya que trata de reducir los procesos de la mente (que son complejos) a sencillos procesamientos de la información. Siguiendo la metáfora del computador, la mente es un sistema de procesamiento de la información que cumple con las leyes de la manipulación de símbolos.

La generalización de los sistemas procesadores de información.

Cuando hablamos de la generalización de los sistemas procesadores de la información, por ejemplo: estamos considerando que cuando un sistema es capaz de vencer al campeón del mundo en ajedrez se ha logrado igualar o superar la inteligencia humana, lo cual es falso en realidad estamos ante una IA especifica que solo puede jugar ajedrez. Estamos asumiendo que un caso particular como jugar ajedrez por una máquina tenga un carácter general

Podemos decir que el gran problema a la hora de definir la IA ha sido, precisamente darles un carácter general a los sistemas de IA que estaban desarrollando, en realidad se asumía que una IA capaz de resolver un problema específico, sería capaz de resolver cualquier tipo de tarea, solo había que agregarle los algoritmos adecuados, o sea, un programa capaz de jugar ajedrez, se podría, sin mucho esfuerzo, adaptarlo para que jugara a las damas. En la práctica no resultó así, cada programa requiere de su propia representación del problema y, hasta el momento, no es posible convertir una IA específica, aplicada a un dominio, en una IA general multitarea (sin mencionar el sentido común que puede cambiar de un dominio a otro), de ahí el fracaso de construir un solucionador general de problemas o del proyecto de quinta generación japonés.

En el próximo artículo hablaremos sobre las características de la IA. También seguiremos haciendo referencia al estudio AI100

Nuevos enfoques de la IA (1)

inteligencia-artificial

Crisis de la IA

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Tenemos, entonces, que de las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea. Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte.

En el artículo anterior mencionábamos tres de los enfoques de la IA para una  visión tecnologista lo cual llevo a la segunda crisis de la IA, donde decíamos:

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana (IA fuerte). Enfoque científico, actualmente se habla del desarrollo de una inteligencia artificial general.
  • Sistemas informáticos inteligentes (IA débil). Enfoque socioeconómico, estamos hablando del enfoque pragmático que ha dado a lugar al paradigma basado en datos
  • Sistemas comerciales basados en las técnicas de la IA (IA estrecha). Enfoque técnico-comercial, el cual ha dado origen a diferentes aplicaciones de la IA, tales como los sistemas expertos.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Entonces… Que está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Máquinas inteligentes

Algunos en lugar de IA prefieren hablar de maquinas inteligentes

Los investigadores de la IA han ido perdiendo interés en la programación de sistemas que emulen con la mente por un hardware cada vez más potentes y se parte del hecho que las máquinas son cada vez más veloces y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas super veloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas super inteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Singularidad tecnológica

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

El ideal siempre ha sido que la ciencia sustituya a la religión, persiguiendo con ello que se alcance una interpretación objetiva de la vida y se acepte solo lo que es verificable, pero un nuevo enfoque ha estado surgiendo recientemente y es el deseo que la ciencia y la tecnología, no solo sustituyan a la religión, sino que también ofrezcan una nueva dimensión de la eternidad y de un paraíso tecnológico (enfoque tecno-religioso)

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de RayKurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja una inteligencia artificial (IA) superior a la humana esta será capaz de construir IAs cada vez más inteligentes, produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una poshumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la poshumanidad (reconstrucción del humano).

Como les decía estamos ante un nuevo enfoque de carácter tecno-religioso, donde las tecnologías son capaces de resolver todos los problemas que los humanos durante años no han podido resolver

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a sí mismas cada vez mejores

Hoy seguimos lanzando falsas expectativas sobre el futuro de la IA y las tecno-utopías alcanzan niveles insospechados, por otra parte seguimos sin tener una visión clara de las diferentes líneas que se desarrollan en la IA y confundimos las aplicaciones y su especialización, con técnicas y herramientas que buscan un propósito general y sobre todo la extrapolación en el ser humano sigue siendo insuficiente y se tiende a simplificar las funciones tanto de la mente como el cerebro desde un reduccionismo siguiendo el pensamiento mecanicista actual. Sin embargo son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, RayKurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Intel, etc., trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Microsoft y Sun por solo citar dos nombres, lo que nos hace pensar que no todo es fantasía.

Historia de la inteligencia artificial (2)

Segunda crisis de la IA

Si la primera crisis surgió producto de las expectativas de que la maquina (los programas)  en 20 años igualara las capacidades humanas, lo cual no se cumplió, la segunda fue producto de los diferentes enfoques de la IA  y sus métodos asi como las promesas que contenía cada uno y el  menos precio hacia los otros enfoques.

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías. Se basa en la idea de una inteligencia artificial fuerte y ha dado lugar a la psicología cognitiva

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente, Se soporta sobre la idea de una inteligencia artificial débil y ha sigo la impulsora del paradigma basado en datos, del cual hablaremos en el próximo articulo.

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias. Se busca desarrollar sistemas que permitan obtener ganancias, dio lugar al boom de los sistemas expertos que son aplicaciones centradas en un domino de aplicación, por lo cual ha sido llamada IA estrecha.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Nuevos paradigmas

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomarán algunas ideas, en muchos casos condenadas por los padres de la inteligencia artificial (IA). Y es que los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas, por lo que surgió un nuevo paradigma de programación dentro de la inteligencia artificial: el conexionista

El paradigma conexionista

El paradigma conexionista mas representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente. Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de conectarse entre sí para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los esté alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre sí y de ajustarse al problema e ir guardando su experiencia.

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Según  Moravec, de quien ya hemos hablado, hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, ver Moravec y el fin de la especie humana, donde predice que para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Nuevas tendencias en la IA

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas

 Redes neuronales artificiales (RNA)

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro. La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles. La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Algoritmos genéticos

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda “en paralelo” y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobre cruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, tras la publicación del libro de Holland  “Adaptation in Natural and Artificial Systems” y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de “evolución simulada”, en particular como un algoritmo matemático implementado en un ordenador.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Agentes inteligentes

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Vida artificial

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

Aprendizaje automático

Varios factores han impulsado la revolución de la IA.

  • El principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basada en la web.
  • El aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas redes entrenadas usando un método llamado retro propagación.
  • Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos.
  • Nuevas plataformas y mercados para datos productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA.

Otro de los problemas era el aprendizaje automático, como lograr que la máquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Rodney Brooks, investigador del MIT,  durante años tuvo deambulando por su oficina pequeñas arañas cibernéticas, cuyo objetivo era aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones.