¿Qué es la inteligencia artificial?

Durante esta serie de artículos que publicaremos estaremos haciendo alusión al estudio cien años sobre IA (AI100) y al excelente artículo de López Mantaras sobre el futuro de la IA. Comenzaremos por el estudio AI100, el cual llega a la conclusión de que no existe una definición precisa de la IA.

 En el estudio (AI100) en uno de sus párrafos se afirma lo siguiente

Una imagen precisa y sofisticada de IA, una que compite con su popular representación: se ve obstaculizada al principio por la dificultad de precisar una definición de inteligencia artificial. En los enfoques que el Panel de Estudio consideró, ninguno sugiere que actualmente haya una IA de “propósito general”.

Luego, más adelante, en el informe se trata de definir la IA

Curiosamente, la falta de una definición precisa y universalmente aceptada de IA probablemente ha ayudado al campo a crecer, florecer y avanzar a un ritmo cada vez más acelerado. Los practicantes, investigadores y desarrolladores de IA son guiados por un rudo sentido de dirección y un imperativo para “seguir adelante”. Aun así, queda una definición importante y Nils J. Nilsson ha proporcionado una útil: “La inteligencia artificial es esa actividad dedicada a hacer que las máquinas sean inteligentes, y la inteligencia es esa calidad que permite que una entidad funcione de manera apropiada y con previsión en su entorno”.

En esta definición, personalmente, me deja ciertas lagunas:

1ro. Que las máquinas sean inteligentes, ¿nos estamos refiriendo a una inteligencia general (multitarea) o una inteligencia especifica

2do. Que funcione de manera apropiada y con previsión en su entorno ¿a qué entorno se refiere, cuando las IA hasta la fecha han sido desarrolladas ajenas a su entorno, de ahí que muchos le llamen sistemas autistas.

Por su parte López Mantaras en su articulo El futuro de la IA: hacia inteligencias artificiales realmente inteligentes, da la siguiente definición de IA., dice lo siguiente:

El objetivo último de la IA, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es comparable a otros grandes objetivos científicos como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. A lo largo de los últimos siglos, este afán por construir máquinas inteligentes nos ha conducido a inventar modelos o metáforas del cerebro humano…Actualmente el modelo dominante es el modelo computacional basado en el ordenador digital y, por consiguiente, es el modelo que se contempla en este artículo.

Definición con la cual, a pesar de su restricción, me siento identificado, pero, para comprender esta definición necesitamos saber a qué le llama inteligencia de tipo general, lo cual veremos en el próximo artículo, ahora vamos a hacer un poco de historia y con ello aclarar los conceptos de IA fuerte e IA débil (similar a la humana).

Algo de historia (ver Inteligencia artificial el futuro del hombre)

La Inteligencia Artificial (IA) surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en sí misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora. Lo que dio origen a la metáfora de la computadora como modelo de los procesos mentales, que insiste en la semejanza entre el hardware y el cerebro. De hecho, la realización y el perfeccionamiento de las computadoras numéricas partieron de analogías con el sistema nervioso. El propio John von Neumann solía hablar de “órganos” para referirse a los componentes de la computadora. Se hizo popular la definición de la computadora como un “cerebro electrónico”. Con la llegada de los primeros lenguajes de programación evolucionados y posteriormente con la aparición de la Inteligencia Artificial, las comparaciones con el hardware empezaron a tener menos aceptación.

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte, la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil (ver La inteligencia artificial, algunos conceptos).

  • IA fuerte: Construir programas que emulen el comportamiento inteligente de los humanos como: el pensamiento, el aprendizaje, la visión, la resolución de problemas, la creatividad, etc. Ya que estos modos de comportamiento se pueden explicar algorítmicamente en términos de estados mentales.
  • IA débil: Construir máquinas capaces de resolver problemas que requieran de inteligencia. Para ello se construyen programas que tengan un comportamiento inteligente sin importar si emula o no a la inteligencia humana.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia, … El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Paradigma simbolista.

Para algunos, los humanos y las computadoras son dos especies de un mismo género: los sistemas de procesamiento de la información. Aceptar a la mente humana como una forma de procesamiento de la información trae como consecuencia que se produzcan dos fenómenos inversos:

  • La generalización de los sistemas procesadores de información.
  • La simplificación de la mente humana (reduccionismo).

El problema radica en la generalización que se le quiere dar a los sistemas de procesamiento de la información. Hay palabras que, para los creadores de teorías, toman un significado especial (trascendental) y se convierten en un “símbolo” cargado de significados adicionales, en muchos casos abiertos a nuevas manipulaciones, que se adaptan a la interpretación del contexto de la teoría, como es el caso del término “procesamiento de la información”.

Veamos algunos apuntes a la definición de Lopez Mantaras

Paradigma simbólico (hipótesis): la naturaleza del sustrato (circuito electrónico o redes neuronales) carece de importancia siempre y cuando dicho sustrato permite procesar símbolos.

Lo anterior se trata de una hipótesis, por tanto, no se puede ni aceptar ni rechazarla a priori.

La IA es el campo dedicado a verificar esta hipótesis: verificar si una computadora convencionalmente programada es capaz o no de tener conducta inteligente de tipo general.

Sistema simbólico físico (SSF): Sistema capaz de manipular símbolos, generar nuevos símbolos, crear y modificar relaciones entre símbolos, almacenar símbolos, etc. Los símbolos son físicos y tienen un sustrato físico-electrónico.

Sustrato de los símbolos:

  • Físico-electrónico (computador)
  • Físico-biológico (seres humanos)

Computadora: los símbolos se realizan mediante circuitos electrónicos digitales

Seres humanos: los símbolos se realizan mediante redes de neuronas.

Para concluir con Mantaras, podemos decir que tanto las computadoras como los seres humanos son capaces de procesar símbolos (en general, procesar información)

La metáfora del computador

La metáfora del computador surge casi desde los inicios de la computación. ¿A qué se debe esto? Antes, las máquinas solo sustituían cualidades físicas de los humanos tales como: fuerza, traslación, precisión. Piensen en los medios de transporte, las grúas, los microscopios, etc. Con las computadoras se pretende que estas realicen los cálculos, al igual que los hace la mente para resolver los problemas técnicos. De ahí que una primera metáfora fue llamarle “cerebros electrónicos”. Metáfora que cayó en desuso. Por otra más sutil y trascendente: la computadora puede sustituir al hombre en todas sus actividades ya que ambos son “sistemas basados en el procesamiento de la información”.

La metáfora reduce el concepto de inteligencia a procesamiento de la información lo cual hace que se pueda hablar de inteligencia en la máquina, pero también a nivel social, redefine el concepto de inteligencia en términos computacionales, crea una cultura social y una pedagogía orientada a la formación del pensamiento algorítmico en los jóvenes científicos. Ya que, si se parte de la idea de que todo es algoritmizable, entonces, la limitación no está en la máquina, sino en la incapacidad del hombre para hacer los algoritmos. El hombre debe aprender a hacer algoritmos para la máquina. Lo que nos puede llevar a la conclusión de que el hombre sólo sabe lo que es capaz de algoritimizar, por lo que, algoritmizar; se entiende como comprender.

De lo anterior se desprende, por ejemplo, que, para yo entender un fenómeno, debo ser capaz primero de construir una serie de conceptos que me permitan una descripción algorítmica de ese fenómeno. Es evidente que el fenómeno en sí, se pierde entre tanta formalización. Al final, que nos queda, una representación algorítmica de una interpretación matemática –entiéndase formalizada–de un fenómeno.

La simplificación de la mente humana (reduccionismo).

El reduccionismo afirma que se pueden explicar los fenómenos reduciéndolos a un nivel más elemental. Por ejemplo: la conducta humana puede reducirse a estudios neurofisiológicos (incluso sobre animales), el estudio del cerebro puede reducirse a la biología celular, etc. La IA es reduccionista, ya que trata de reducir los procesos de la mente (que son complejos) a sencillos procesamientos de la información. Siguiendo la metáfora del computador, la mente es un sistema de procesamiento de la información que cumple con las leyes de la manipulación de símbolos.

La generalización de los sistemas procesadores de información.

Cuando hablamos de la generalización de los sistemas procesadores de la información, por ejemplo: estamos considerando que cuando un sistema es capaz de vencer al campeón del mundo en ajedrez se ha logrado igualar o superar la inteligencia humana, lo cual es falso en realidad estamos ante una IA especifica que solo puede jugar ajedrez. Estamos asumiendo que un caso particular como jugar ajedrez por una máquina tenga un carácter general

Podemos decir que el gran problema a la hora de definir la IA ha sido, precisamente darles un carácter general a los sistemas de IA que estaban desarrollando, en realidad se asumía que una IA capaz de resolver un problema específico, sería capaz de resolver cualquier tipo de tarea, solo había que agregarle los algoritmos adecuados, o sea, un programa capaz de jugar ajedrez, se podría, sin mucho esfuerzo, adaptarlo para que jugara a las damas. En la práctica no resultó así, cada programa requiere de su propia representación del problema y, hasta el momento, no es posible convertir una IA específica, aplicada a un dominio, en una IA general multitarea (sin mencionar el sentido común que puede cambiar de un dominio a otro), de ahí el fracaso de construir un solucionador general de problemas o del proyecto de quinta generación japonés.

En el próximo artículo hablaremos sobre las características de la IA. También seguiremos haciendo referencia al estudio AI100