Ciencia cognitiva y la inteligencia artificial

Surgimiento

En 1948 se celebró en el Instituto de Tecnología de California un simposio multidisciplinar sobre los mecanismos cerebrales de la conducta, conocido como Simposio de Hixon. Allí participaron destacados científicos de la época como John von Neumann quien propuso la metáfora computacional, el matemático y neurofisiología Warren McCulloch que expuso una teoría sobre cómo el cerebro procesa la información y el psicólogo Karl Lashley quien alertó sobre la incapacidad del conductismo para explicar conductas organizadas complejas. Este simposio, junto a la conferencia de Dartmouth donde fue acuñado el término “inteligencia artificial, celebrada en 1956, crearon las bases para que en ese mismo año tuviera lugar en el Instituto Tecnológico de Massachusetts (MIT) un nuevo simposio, dando a lugar al surgimiento del paradigma cognitivista, en el que asistieron personalidades como: el psicólogo George Miller, el lingüista Noam Chonsky, el informático Allen Newell, el economista Herbert Simon entre otros

Definición

La ciencia cognitiva busca ser el estudio del conocimiento de forma científica e interdisciplinar, abarcando inteligencia artificial, la psicología, la lingüística, la neurociencia, la filosofía y la antropología.

Según Thagard, el propósito principal de la Ciencia Cognitiva es explicar cómo se piensa, estando la mayoría de los científicos cognitivos de acuerdo en que el conocimiento consiste en representaciones mentales. Las representaciones mentales serían las formas mentales que tenemos de lo que nos rodea, las representaciones del mundo.

Modelos de las representaciones mentales

Para Thagard, las principales formas de entender cómo se piensa o de modelar actualmente las representaciones mentales son:

  • La lógica trata las representaciones como inferencias deductivas
  • Las reglas son estructuras del tipo “si… entonces…”,
  • Los conceptos serían algo así como “esquemas mentales” que se corresponderían con situaciones típicas,
  • Las analogías son adaptaciones de situaciones ya conocidas
  • Las imágenes se corresponderían con “dibujos mentales”,
  • Las conexiones neurales son representaciones como patrones de actividad de una red de neuronas

 Los supuestos teóricos de la ciencia cogntiva

Las ciencias cognitivas son aquellas que comparten el paradigma cognitivista (Carpintero, 1996). Éste consta de dos supuestos teóricos fundamentales (García, 2001):

  • El primero es la metáfora computacional, que consiste en la mencionada analogía según la cual la mente es un procesador de información semejante a una computadora electrónica.
  • El segundo es la tesis internalista que establece la existencia de representaciones mentales y que reclama un nivel de análisis propio para estudiarlas al margen de los factores biológicos y de algunos de los factores ambientales que las afectan.

 Veamos las definiciones dadas por Manuel Carabantes en su tesis doctorante sobre inteligencia artificial (1):

La metáfora computacional, también conocida como la tesis del procesamiento de información, caracteriza los procesos cognitivos como manipulación y operación con la información de modo análogo a como lo hace una computadora electrónica. En virtud de la teoría de la información de Shannon y Weaver se supone que el contenido de la información es irrelevante para su procesamiento. Daría igual, por tanto, que los estados internos del sistema intencional contuvieran representaciones simbólicas, analógicas, procedimentales o de cualquier otro tipo (García, 1996, p. 304).

La tesis internalista establece que para explicar adecuadamente la actividad humana o de cualquier otro sistema intencional que opere con causalidad final se requiere postular la existencia de procesos cognitivos, caracterizados como estados internos que dan cuenta, representan, conocen o informan de alguna realidad. Además, el cognitivismo reclama un nivel de análisis propio para estudiar dichos estados internos al margen de los factores biológicos y de algunos de los factores ambientales que los afectan. Se trata de una tesis opuesta a la pretensión conductista de eliminar de la psicología el estudio de la vida psíquica.

Actualmente existe una discusión sobre si la teoría representacional sigue siendo el fundamento de la ciencia cognitiva o si debe se sustituida por una teoría no representacionista o si la ciencia cognitiva debe ser ampliado e incluir otras formas de representación.

Para Francisco Varela, quien es un defensor de una ciencia cognitivo ampliada (2), considera que la importancia de la ciencia cognitiva es que por primera vez la ciencia (es decir, el conjunto de científicos que definen qué debe ser ciencia) reconoce plenamente la legitimidad de las investigaciones sobre el conocimiento mismo, en todos sus niveles, más allá de los límites tradicionalmente impuestos por la psicología o la epistemología. Por otra parte considera que la ciencia cognitiva se encuentra en su tercera etapa.

Etapas de la ciencia cognitiva:

  1. Simbólica
  2. Emergente (conexionista)
  3. Inactiva

Las dos primeras cumplen con la teoría representacional, la última (enactiva) rompe con ese esquema al proponer un enfoque no representacional partiendo de la corporeidad del conocimiento como un proceso vivido. Aquí Varela está aceptando que el conocimiento, actualmente es representacional y puede ampliarse asumiendo la compatibilidad con un conocimiento corpóreo.

Dada la relación tan estrecha entre la ciencia cognitiva y la IA vamos a detenernos en los modelos de la inteligencia artificialc (ver Paradigmas y tendencias en la investigación de la IA)

Modelos de la IA

Los modelos de la IA sirven tanto para la IA general como para la IA específica y para la futura super IA, aunque u aplicación ha sido fundamentalmente en la IA específica.

  • Modelo simbólico – Lógico: reglas de producción o semántico: conceptos
  • Modelo conexionista o emergente – Redes neuronales.
  • Modelo evolutivo – Algoritmo genético.
  • Modelo colectivo o colaborativo – Sistemas multiagentes
  • Modelo corpóreo – Robótica del desarrollo (agentes reactivos).
  • Modelo operativo (basado en datos) – Aprendizaje profundo.

Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas.

Las unidades interconectadas pueden ser

  • Neuronas
  • Genes
  • Agentes inteligentes

No se puede olvidar que, hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión, lo cual ha facilitado el surgimiento de una IA operativa basada en datos

Hoy algunos, proponen salirse de la ciencia cognitiva otros hablan de ciencias cognitivas con el fin de aceptar los diferentes enfoques y aunque Varela defiende la idea de una ciencia cognitiva ampliada con el enfoque enactivo, en los últimos años de su vida, hablaba de dos enfoques: el enfoque tradicional-abstracto y el enfoque moderno-enactivo. Esto me recuerda al paradigma tradicional-mecanicista y el paradigma complejo-sistémico, los cuales tienen un carácter filosófico y para muchos son irreconciliables. En cambio, Varela propone sus dos enfoques implicados con la ciencia.

Entonces (siguiendo a Varela) tendríamos dos paradigmas científicos:

  1. Paradigma representacionista con un enfoque tradicional-abstracto: racionalista, cartesiano, objetivista
  2. Paradigma no representacionista (construccionista) con su enfoque moderno-enactivo: concreto, encarnado, incorporado, vivido

Por otra parte, Varela defiende la inclusión del enfoque enactivo en la ciencia cognitiva cuando en realidad el enactivismo está más cerca del pensamiento sistémico-complejo que del pensamiento racionalista-reduccionista. Son muchos los que ubican a Varela dentro de la ciencia de la complejidad.

Volviendo a la inteligencia artificial, yo me atrevería a agrupar a los modelos de la IA de la siguiente forma.

Paradigma representacionista. Enfoque tradicional-abstracto

  • Modelo simbólico-lógico (representación en reglas) – IA simbólica
  • Modelo conexionista – IA conexionista (subsimbólica)
  • Modelo computacional (BD) – IA operativa

Paradigma construccionista. Enfoque moderno-enactivo

  • Modelo simbólico-semántico (representación en conceptos) – IA semántica
  • Modelo emergente-colectivista – IA colaborativa
  • Modelo enactivo – IA corpórea

El modelo semántico, aunque se inserta dentro del representacionismo ya contenía elementos menos abstractos, tomados de la vida, tales como escenarios, estructuras complejas, redes semánticas, guiones, etc.

La clasificación de los paradigmas anteriores nos lleva irremediablemente a las “ciencias cognitivas” dividida en ciencia cognitiva representacionista y ciencia cognitiva no representacionista (construccionista), la primera enmarcada dentro de un pensamiento racionalista-reduccionista y la segunda dentro de un pensamiento complejo-sistémico, este último defendido por pensadores como Morin (pensamiento complejo), Capra (cosmovisión de la complejidad) y Maldonado (ciencia de la complejidad) por nombrar solo tres.

Personalmente no creo que sea posible conciliar el pensamiento racionalista-reduccionista-abstracto-aislacionista con el pensamiento complejo-sistémico-concreto-colectivista (aunque si pueden complementarse) como tampoco veo posible el desarrollo de una IA operativa basada en datos (centrada en la computadora) con el desarrollo de una IA corpórea (centrada en lo humano). De esto hablaremos en un próximo artículo.

 Referencias

  •  Carabantes, López, Manuel. Inteligencia artificial: condiciones de posibilidad técnicas y sociales para la creación de máquinas pensantes (2014)
  • Varela, Francisco. El fenómeno de la vida (2000)

Imagen: Wikipedia

 

 

 

 

S

Paradigmas y tendencias en la investigación de la IA

A partir de la crisis del paradigma simbolista surge un nuevo paradigma dentro de la inteligencia artificial: el paradigma conexionista que asume que la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente (Hacia un nuevo enfoque de la inteligencia artificial). La IA no se quedó en el paradigma conexionista o emergente, al cual le han seguido el paradigma enactivo o corpóreo y el paradigma basado en datos o máquinas superinteligentes.

De momento, podemos mencionar los siguientes paradigmas

  • Paradigma simbólico (lógico/semántico)

  • Paradigma conexionista o emergente

  • Paradigma corpóreo o enactivo

  • Paradigma basado en datos o máquinas superinteligentes

A su vez, los paradigmas han dado lugar a nuevos modelos y nuevas técnicas de investigación (Las máquinas superando a los humanos) entre las técnicas más importantes tenemos:

Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Las ciencias cognitivas y los paradigmas de la Inteligencia Artificial (IA)

  • Simbolista (lógica y semántica)

  • Conexionista o emergente (redes neuronales y sistemas multiagentes)

  • Evolutiva (algoritmos genéticos)

El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA partiendo de la representación en la computadora de la realidad y, para muchos, esa representación basada en símbolos es equivalente a los estados mentales, ya que tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que procesan información). Actualmente se esta hablando de dos nuevos paradigmas: el enactivo o corpóreo y el basado en datos

Paradigmas de la IA

Los paradigmas de la IA sirven tanto para la IA general como para la IA específica y para la futura super IA. Su aplicación ha sido fundamentalmente en la IA específica, pero se puede aplicar a la IA general y a la hipotética super IA.

Modelos y paradigmas dominantes en la IA

1.-Paradigma simbólico

  • Modelo simbólico – Reglas de producción

2.-Paradigma conexionista

  • Modelo conexionista o neuronal – Redes neuronales

  • Modelo colectivo – Sistemas multiagentes

  • Modelo evolutivo – Algoritmo genético

3.-Paradigma enactivo

  • Modelo corpóreo – Robótica del desarrollo (robótica reactiva)

4.-Paradigma máquinas inteligentes

  • Modelo basado en datos – Aprendizaje profundo

Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas.

Las unidades interconectadas pueden ser

  • Neuronas

  • Genes

  • Agentes inteligentes

No se puede olvidar que hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión.

Todos los modelos son las técnicas que se aplican para desarrollar una IA (de momento específica) que puede alcanzar, en algún momento, una IA avanzada (general). Los modelos tienen su aplicación fundamental dentro del enfoque socioeconómico como IAs específicas que buscan dar solución a los diferentes dominios, aunque su pretensión inicial haya sido la construcción de una IA de carácter general. Sin embargo sus logros han estado en las aplicaciones a dominios restringidos, Ya existen IA específicas que superan a los humanos en una tarea (ej: ajedrez, GO, etc)

Para mejor comprensión de los modelos veamos la definición dada por López Mantaras para los principales modelos en IA: simbólico, conexionista, evolutivo y corpóreo. Aquí se agregan otros dos modelos: colectivo y basado en datos.

Paradigma simbólico

Modelo simbólico

Es un modelo descendente, que se basa en el razonamiento lógico y la búsqueda heurística como pilares para la resolución de problemas, sin que el sistema inteligente necesite formar parte de un cuerpo (no encarnado) ni está situado en el entorno real. La IA simbólica opera con representación abstracta del mundo real

Paradigma conexionista.

Se mantiene dentro del cognitivismo clásico, de la hipótesis simbolista y la metáfora del computador

Modelo conexionista (neuronal)

Los sistemas conexionistas no son incompatibles con la hipótesis simbolista (SSF) pero al contrario del simbólico, se trata de un modelo ascendente, ya que se basa en la hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran número de unidades interconectadas que procesan información paralelamente. En la IA conexionista estas unidades son modelos muy aproximados de la actividad eléctrica de las neuronas biológicas.

Modelo colectivo

El modelo colectivo son sistemas multiagentes y es compatible con la hipótesis simbolista y se puede decir que es no corpórea aunque si tiene en cuenta al entorno, también se trata de un modelo ascendente ya que la inteligencia emerge de una gran número de unidades interconectadas en este caso son los llamados agentes inteligentes, que tienen como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como la posibilidad de interactuar con dicho entorno y con otros agentes.

Modelo evolutivo

También es compatible con la hipótesis simbolista (SSF) y no corpórea. Se trata de imitar la evolución con el fin de que los programas de computadoras mediante un proceso evolutivo mejorasen automáticamente las soluciones a los problemas para los que fueron programados.

Paradigma enactivo

Rompe con la hipótesis simbolista, ya que no es la representación del mundo objetivo y su conversión en símbolos para ser procesados por una computadora sino, la actuación de la máquina en el entorno. Varela incluye el paradigma enactivo en las ciencias cognitivas pero dado que el enactivismo está más cerca de un pensamiento sistémico-cibernético y su complejidad, perfectamente encaja en las ciencias de la complejidad.

Modelo corpóreo

Se basa en que un agente inteligente necesita un cuerpo para tener experiencias directas con su entorno, en lugar de que un programador proporcione descripciones abstractas de dicho entorno, codificado mediante un lenguaje de representación del conocimiento. Sin un cuerpo esta representación abstracta no tiene contenido semántico. El método corpóreo ha dado lugar a la llamada robótica del desarrollo.

Paradigma basado en datos o máquinas superinteligentes,

Se acepta que la forma de pensar de los humanos es totalmente diferente a la de las máquinas (IA débil) y que el método es crear programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano (no sigue la medida humana). Por supuesto, esto nos lleva a máquinas carentes de sentimientos (al menos como los humanos), tan inteligentes como los humanos o quizás más, pero dentro de su propio contexto digital.

Modelo basado en datos

El progreso tecnológico y el almacenamiento de grandes bases de datos ha posibilitado, que el procesamiento orientado a los datos del mundo real sea factible, dado el surgimiento de hardware cada vez más potente, barato y confiable, además la capacidad de internet para recopilar grandes cantidades de datos y la disponibilidad de almacenamiento para procesar esos datos. La IA basada en datos (IA BD) son, en general, algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina, estamos ante programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano.

Tendencias en las investigaciones de la IA (ver el estudio AI100)

El aprendizaje automático a gran escala se refiere al diseño de algoritmos de aprendizaje, así como escalar algoritmos existentes, para trabajar con conjuntos de datos extremadamente grandes.

El aprendizaje profundo, una clase de procedimientos de aprendizaje, ha facilitado el reconocimiento de objetos en imágenes, etiquetado de video y reconocimiento de actividades, y está haciendo avances significativos en otras áreas de percepción, como el procesamiento de audio, habla y lenguaje natural.

El aprendizaje por refuerzo es un marco que cambia el enfoque de la máquina aprender del reconocimiento de patrones a la toma de decisiones secuenciales impulsada por la experiencia promete llevar las aplicaciones de IA hacia adelante para tomar medidas en el mundo real. Si bien se ha limitado en gran medida a la academia en las últimas décadas, ahora está viendo algunos éxitos prácticos del mundo real.

La robótica se preocupa por cómo entrenar a un robot para que interactúe con el mundo a su alrededor de manera generalizable y predecible, cómo facilitar la manipulación de objetos en entornos interactivos y cómo interactuar con las personas. Avances en la robótica dependerá de avances proporcionales para mejorar la fiabilidad y la generalidad de la visión por computadora y otras formas de percepción de la máquina.

La visión por computadora es actualmente la forma más prominente de percepción de la máquina. Ha sido la subárea de IA más transformada por el auge del aprendizaje profundo. Por primera vez, las computadoras pueden realizar algunas tareas de visión mejor que las personas. La investigación actual se centra en el subtitulado automático de imágenes y videos.

Procesamiento de lenguaje natural, a menudo junto con reconocimiento automático de voz se está convirtiendo rápidamente en una mercancía para idiomas ampliamente hablados con grandes conjuntos de datos. La investigación ahora está cambiando para desarrollar sistemas refinados y que sean capaces de interactuar con las personas a través del diálogo, no solo reaccionar a las solicitudes estilizadas. Grandes pasos, también se han realizado en traducción automática entre diferentes idiomas, con más intercambios de persona a persona en tiempo real en el horizonte cercano.

Los sistemas colaborativos, investigan modelos y algoritmos para ayudar a desarrollar sistemas autónomos que pueden trabajar en colaboración con otros sistemas y con humanos.

La investigación de crowdsourcing y computación humana investiga métodos para aumentar los sistemas informáticos haciendo llamadas automatizadas a la experiencia humana para resolver problemas que las computadoras solas no pueden resolver bien.

La teoría de juegos algorítmicos y la elección social computacional llaman la atención a las dimensiones de computación económica y social de la IA, como la forma en que los sistemas pueden manejar incentivos potencialmente desalineados, incluidos los participantes humanos interesados o empresas y los agentes automatizados basados ​​en IA que los representan.

La investigación de Internet de las cosas (IoT) se dedica a la idea de que una amplia gama de dispositivos, incluidos electro domésticos, vehículos, edificios y cámaras, pueden interconectarse para recopilar y compartir su abundante información sensorial para usar con fines inteligentes.

La computación neuromórfica es un conjunto de tecnologías que buscan imitar redes neuronales biológicas para mejorar la eficiencia del hardware y la solidez de sistemas informáticos, a menudo reemplazando el énfasis anterior en módulos separados en entrada /salida, procesamiento de instrucciones y memoria

Conclusión

Como hemos visto, todos los modelos excepto el BD tratan de emular las competencias de la mente o del cerebro humano. En el caso del modelo BD estamos hablando del surgimiento de una inteligencia no humana en el sentido literal. Ya que el modelo BD no tiene nada que ver con la forma de pensar del ser humano es un algoritmo de fuerza bruta basado en la velocidad del hardware. Ahora de acuerdo al paradigma basado en datos, según crezcan los datos las máquinas tendrán más acceso a la información y a su procesamiento (dada su creciente velocidad) y con ello a aumentar exponencialmente su inteligencia, lo que lleva a una posible singularidad tecnológica, fuera de la medida humana.

La IA actual es dependiente, depende de las personas que le suministran información del medio, mientras la IA enactiva recoge la información directamente del medio. Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las máquinas actúan en su entorno (digital) y aprenden de él por lo que adquieren una inteligencia ajena a la humana. También, la IA actual es individualista, resuelve los problemas por si misma sin cooperación, en resumen, podemos decir que la IA actual es específica, individualista y dependiente (incorpórea)

Hoy se habla de sistemas híbridos que combinen el paradigma cognitivo (simbolista y conexionista) con el basado en datos, yo en cambio me inclino por el desarrollo de un sistema que integre el paradigma enactivo con el colectivo: una IA enactiva/colaborativa que sea consciente y cooperativa; capaz de desarrollarse y evolucionar junto a los humanos.

Características y tipos de inteligencia artificial

tipos-ia3En este artículo continuaremos con algunas de las definiciones dadas en el estudio AI100

Inteligencia Atificial (IA) siguiendo la forma de pensar humana

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado “la IA estrecha o específica”; la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, limitadas a un dominio de aplicación.  Debido a las dificultades en la solución de problemas complejos, en los últimos años, cada vez más los investigadores han reconocido la necesidad -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y a la necesidad de hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general.

Habíamos visto que para López Mantaras, el objetivo de la IA lograr una inteligencia artificial general similar a la humana. Decíamos que la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no, estamos hablando que la IA sigue la forma de pensar humana.

La medida humana

Al respecto el estudio AI100, dice lo siguiente: “En particular, la caracterización de la inteligencia como espectro no otorga un estatus especial al cerebro humano, pero hasta la fecha, la inteligencia humana no tiene rival en lo biológico y mundos artificiales para su gran versatilidad… Esto hace que la inteligencia humana sea una opción natural para evaluar el progreso de la IA”.

IA que no sigue la forma de pensar humana

Recientemente ha ido surgiendo una forma de resolver los problemas basados en la velocidad de procesamiento de las máquinas, lo cual le permite el procesamiento de una gran cantidad de datos.

Definición operacional

Siguiendo al estudio AI100: “La IA también se puede definir por lo que hacen los investigadores de IA. Este informe ve a la IA, principalmente, como una rama de la informática que estudia las propiedades de inteligencia sintetizando inteligencia. Aunque el advenimiento de la IA ha dependido en el rápido progreso de los recursos informáticos de hardware, el enfoque aquí del software refleja una tendencia en la comunidad de IA. Más recientemente, sin embargo, el progreso en la construcción de hardware a medida para la informática basada en redes neuronales ha creado un acoplamiento más estrecho entre hardware y software en el avance de la IA”.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas inteligentes desde una IA débil que tiene como meta que las maquinas, cada vez más veloces y capaces de procesar más datos, llegan a superar a la inteligencia humana. Las cuales se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos. Lo cual nos conduce a la construcción de una IA desde y para las transnacionales con fines comerciales como una IA “no consciente” cada vez más lejos de la medida humana.

IA consciente de los humanos.

“La IA debe pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables” (Estudio AI100)

Tendencias de las investigaciones en Inteligencia Artificial

Volviendo al estudio AI100. “Las tecnologías de IA, ya impregna nuestras vidas. A medida que se convierten en una fuerza central en la sociedad, deben pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables. Varios factores han impulsado la revolución de la IA, el principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basados en la web, el aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas, son redes entrenadas usando un método llamado retro propagación. Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos. Nuevas plataformas y mercados para datos, productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA”.

Definiciones de Super IA, IA avanzada e IA (especifica)

Hoy se utiliza mucho la definición de una inteligencia artificial general mientras otros hablan de una IA avanzada.

La Inteligencia Artificial General

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado” la IA estrecha”, la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Volviendo a la definición de IA de López Mantaras

El objetivo de la IA avanzada es lograr una inteligencia artificial general similar a la humana. Donde la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no.

IA general

  • IA fuerte (capaz de tener conciencia)
  • IA débil

IA especifica

  • IA débil

Llamaremos a la IA general como “inteligencia artificial avanzada” y para la IA estrecha o específica, la llamaremos solamente IA. Mientras la IA general-fuerte capaz de superar a la mente humana y llevarnos a una singularidad tecnológica como Super IA

Mientras la IA avanzada (general), se puede aplicar a cualquier dominio, estamos hablando de una IA multitarea que se pueda aplicar a diferentes dominios. La IA (estrecha), solo se aplica a un dominio

Las computadoras son capaces de realizar tareas específicas mejor que los humanos, y es que los grandes logros de la IA se han con IA la débil y especifica. Hoy estamos ante nuevos éxitos de la IA especializada

Ya no es un secreto que todos los esfuerzos de la IA se han centrado en construir IA especializada, con grandes éxitos en el último decenio gracias a la conjunción de dos elementos:

  • La disponibilidad de grandes cantidades de datos (orientada a BD)
  • El acceso a la computación de grandes prestaciones para poder analizarlos (velocidad del hardware)

La IA avanzada, son estados mentales potenciales que los humanos en su vida diaria nunca desarrollan, quedan latentes. Por tanto, las IA especificas están más acorde con las necesidades de la vida. El que la IA sea general no quiere decir que se vaya a resolver el problema del sentido común, sigue sin comprenderse la semántica, y es que construir una IA avanzada de carácter general parece una misión imposible, tal vez los correcto sea una IA avanzada por medio de la colaboración entre inteligencias especificas abiertas al entorno.

Con respecto al sentido común López Mantaras dice lo siguiente: “En los 60 años de IA se ha probado que lo que parece más difícil ha resultado más fácil (jugar ajedrez) y lo que parece más fácil ha resultado lo más difícil y se debe a la falla del conocimiento de sentido común. El sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad” Y propone como solución al sentido común el desarrollo de una IA encarnada (robótica del desarrollo).

IA corpórea vs IA Basada en Datos

Habíamos visto que en el informe AI100 se proponía que en el desarrollo de la IA se debe pasar de construir sistemas inteligentes simples (no consciente de los humanos) a construir sistemas inteligentes que sean conscientes de los humanos y confiables.

Los sistemas digitales, se caracterizan por manipular símbolos (paradigma simbolista) y son cerrados, la información se la suministran los especialistas, no tienen contacto con el medio exterior. Son sistemas que procesan información, da lo mismo que sean datos, información o conocimientos, en el fondo son una representación de símbolos que son procesados por una computadora donde la información debe ser introducida manualmente. Por lo que la IA es un sistema cerrado (autista) y para que sea una IA avanzada debe estar abierta al entorno, o sea un sistema autónomo capaz de aprender e interactuar con su entorno (digital)

En muchos casos, se sigue hablando de una IA avanzada que depende de los humanos como suministradores de información. Por otra parte, se ignora la interacción entre personas y sistemas autónomos ya que se considera a los sistemas autónomos como entidades independientes que se desarrollan desde y por sí mismo (ver artículo de Moravec).

La inteligencia artificial basada en datos

Con el surgimiento de la IA basada en datos, se irá perdiendo la medida humana donde el referente ya no será la mente ni el cerebro sino la propia máquina y su velocidad para procesar los datos.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas superinteligentes desde una IA débil que tiene como meta que las máquinas, cada vez más veloces y capaces de procesar más datos llegan a superar a la inteligencia humana. Estas se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos.

La IA basada en datos son algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina (son posibles gracias a las prestaciones cada vez mayor de las máquinas), lo que daría lugar a una singularidad tecnológica producto del procesamiento de grandes cantidades de datos, por lo que estaríamos hablando de máquinas superinteligentes y de una IA débil en lugar de una super IA como una IA fuerte.

Inteligencia artificial corpórea o enactiva

Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las inteligencias avanzadas actúan en su entorno (virtual) y aprenden de él, por lo que adquieren una inteligencia ajena a la humana. La IA actual (convencional) está separada de su entorno por lo que no puede valerse por sí misma (sistema autista). Por lo que podemos hablar de una IA autónoma encarnada en el entorno humano (corpórea o enactiva) o de una IA no encarnada que responde a un ambiente digital

Francisco Varela define la inteligencia artificial enactiva como: “Una IA en la que las maquinas sean inteligentes en el sentido de desarrollarse hacia un sentido común compartido con los seres humanos, como pueden hacerlo los animales, no veo otro camino que hacerla pasar (a la IA) por un proceso de transformaciones evolutivas como se sugiere en la perspectiva”.

Podemos clasificar a la IA por sus características (tabla de comparación entre IA convencional e IA avanzada)

  1. Específica (se aplica a una tarea) o general (multitarea)
  2. Débil (no consciente de sí) o fuerte (autoconsciente)
  3. No autónoma o autónoma (aprende del entorno)
  4. Simbolista (resuelve las tareas de forma individual) o conexionista (resuelve las tareas de forma colectiva)
  5. No consciente de los humanos o consciente de los humanos
  6. No sigue la medida humana o a la medida humana
  7. No corpórea o corpórea

Debemos destacar que el objetivo principal de una IA avanzada siempre fue que fuera autoconsciente IA fuerte ahora se aspira a que la IA al menos sea consciente de los humanos y que en el futuro de forma emergente pueda convertirse en autoconsciente.

Ahora estamos en condiciones de definir la IA convencional que es la que se ha estado desarrollando hasta ahora

La IA convencional, el ejemplo clásico son los sistemas expertos:

  1. Específica, se desarrolla para un solo dominio
  2. Débil, no es autoconsciente
  3. No autónoma, depende que le suministren la información
  4. Simbolista, se basa en reglas de producción
  5. No es consciente de los humanos
  6. Se asume que de alguna forma represente la forma de pensar humana
  7. No corpórea

También podríamos tratar de definir las características de la IA avanzada (ideal)

Un primer acercamiento a una IA avanzada ideal

  1. General
  2. Fuerte
  3. Autónoma
  4. Integra el simbolismo con el conexionismo
  5. Consciente de los humanos y es capaz de colaborar
  6. Sigue la medida humana
  7. Corpórea (encarnada en el mundo y capaz de evolucionar)

Actualmente el patrón de una IA avanzada no es el mismo y difiere para cada tipo de IA. En realidad, en la IA se asumen muchas cosas que crean grandes expectativas, de ahí la confusión y los desacuerdos que siempre han existido

Tipos de IA avanzadas

IA avanzada cognitiva: Se cumple, bastante bien, para los puntos de una IA ideal, pero no es capaz de colaborar ni es corpórea

IA avanzada conexionista cumple con todos los parámetros excepto que no es corpórea

IA avanzada operativa (orientada a los datos), actualmente es la línea de IA avanzada que ha tenido más impacto sobre todo en la economía de las transnacionales de la información, hasta el momento se puede decir que no es colaborativa, no sigue la medida humana (son algoritmos que aprovechan las prestaciones de la máquina y su acceso a grandes bases de datos) y es no corpórea

IA avanzada enactiva como proyecto será capaz de cumplir con todos los puntos de la IA avanzada ideal

De momento no vamos a profundizar en la superinteligencias, recuerden que son inteligencias que aspiran a superar la medida humana (trascienden las capacidades humanas) y asumen un carácter tecno-religioso, por lo que solo mencionaremos su posible impacto futuro.

Superinteligencia producto de una singularidad tecnológica, aunque se inspira en una IA avanzada preferentemente cognitiva, todo indica que, de surgir, será producto de una IA avanzada operativa, por lo que en lugar de hablar de una superinteligencia artificial estaríamos hablando de una máquina superinteligente que, para bien o para mal, tendrá muy poco que ver con los humanos.

Superinteligencia producto de una singularidad distribuida (cerebro global) se inspira en la IA avanzada conexionista que producto de las conexiones (en principio lógicas) con las personas se ira conformando un cerebro global (metasistema, también, de momento exógeno) por lo que surgirá un superorganismo global. De producirse todo indica que pasará de una conexión lógica (metasistema exógeno) a una conexión física entre personas y maquinas lo cual conduciría a una metasistema endógeno y estaríamos ante una variante del transhumanismo: la fusión física entre humanos y tecnologías.

 (En próximos artículos volveremos sobre estos temas)

Imagen: Futuro eléctrico