Breve recorrido temático por la inteligencia artificial

Heurística

En sus inicios la inteligencia artificial (IA) se fundamentó en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria). También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva.

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus comienzos la inteligencia artificial (IA), intentó salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportaron las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

Mundo de bloques

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Sistemas expertos

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA. Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellas ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.En la década de los 80, se pensaba que la humanidad se encontraba “…ante un reto de imprevisibles consecuencias”, pues se avecinaban cambios que trastocarían muchos paradigmas que rigen el mundo. Los investigadores de la Inteligencia Artificial se hacían preguntas como:

  • ¿Qué será de los matemáticos cuando los Sistemas Expertos sean capaces de deducir todos los teoremas que se deriven de una cierta axiomática?
  • ¿Qué harán los abogados cuando haya una herramienta capaz de preguntar a sus clientes y de darles consejo sin posibilidad de error y utilizando toda la legislación y jurisprudencia?
  • ¿Qué será de los médicos cuando existan bases del saber capaces de almacenar los conocimientos y la experiencia de cientos de especialistas en una materia?.

En octubre de 1981 se sentaron las bases para el desarrollo de las computadoras de 5ta generación en una conferencia Internacional en Tokio, Japón. En este proyecto se adoptó el lenguaje PROLOG como lenguaje fundamental que sería soportado por el hardware a construir.

Inteligencia artificial fuerte y débil

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora. Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Nuevos enfoques de la IA

.Actualmente, la ciencia deja de encerrarse en sí misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran

Nuevas tendencias en la IA:

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Inteligencia artificial general

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG). La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana.

¿Qué es la inteligencia artificial general (IA general)?

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligencia
  • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.

Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte

La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teorice en tres campos

  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.

El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:

  • Lógica matemáticaTeoría de la probabilidad (tratamiento de la incertidumbre)
  • Sistema de producción (estrategias para las reglas)
  • Base de conocimientos (representación del conocimiento)
  • Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
  • Robótica (sistemas de planificación)
  • Redes neuronales
  • Computación evolutiva (algoritmos genéticos)
  • Sistema multi-agente (agentes inteligentes)

La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible..

Máquinas inteligentes

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir qué es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

Imagen: Terabito

Superinteligencia: Caminos, peligros, estrategias

Nick Bostrom

Disponible en Amazon

El futuro no nos necesita. Máquinas inteligentes

Bill Joy, confundador de Sun Microsysten

En el artículo “Porque el futuro no nos necesita” de Bill Joy, se habla de un futuro sin los humanos tal como existen hoy. ¿Será posible? Para aclarar esto y dada la importancia de articulo lo analizaremos desde tres enfoques que estan inmerso en el texto de Bill Joy. Además, para mayor claridad lo dividiremos en tres articulos: las máquinas inteligentes, los riesgos existenciales y las cosmovisiones.

Aunque el articulo fue escrito por Bill Joy en el 2000, no ha perdido vigencia

 

Las máquinas inteligentes

“Diseñando software y microprocesadores, nunca había tenido la sensación de que estaba diseñando una máquina inteligente. El software y el hardware son tan frágiles, y la capacidad de las máquinas de ”pensar” se muestra tan ausente que, incluso como posibilidad, siempre me pareció muy alejada en el futuro. Pero ahora, con la perspectiva de un poder de procesamiento de nivel humano (*) en unos 30 años, una idea nueva surge sola: que podría estar trabajando para crear herramientas que van a permitir la creación de la tecnología que podría reemplazar a nuestra especie”. Bill Joy

(*) Lo que define, actualmente, a las máquinas inteligentes no son los programas que la hacen funcionar si no el poder de procesamiento: mayor velocidad de cálculo, mayor capacidad de memoria, mayor conectividad, mayo a acceso a diferentes recursos, mayor presencia en todos los aspectos de la vida, etc.

Después del paradigma cibernético con su intento de construir una mente mecánica le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifrara los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, era obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Entre las críticas al surgimiento de una inteligencia artificial, está la de Roger Penrose quien establece diferencias entre el funcionamiento de un ordenador, que es capaz solamente de un razonamiento algorítmico basado en secuencias lógicas, y el funcionamiento del cerebro humano, que es capaz de estar abierto a la improvisación y a lo inesperado, a lo caótico, es decir, a lo creativo.

Los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

En cambio, los expertos en computación tradicional no pueden creer que las computadoras relativamente simples, en las que se ejecutan sus programas, se almacenen sus bases de datos, sus gráficos; que requiere de un sistema operativo y opera sobre algoritmos numéricos; puedan ser también el sustrato donde se puedan ejecutar los complejos procesos de la mente humana.

Inteligencia artificial (IA) fuerte y débil

Desde sus inicios podemos hablar de dos enfoques de la IA, de una parte la IA fuerte y de la otra una memos categórica a la hora de interpretar los hechos, la IA débil.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio,  donde el cerebro se considera un soporte más.

En cambio, la IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

¿Será posible que las máquinas sean más inteligentes que los humanos?

“¿Qué tan pronto podría ser construido ese robot inteligente? Los avances anunciados en el poder de procesamiento de las computadoras parecen hacerlo posible para el 2030(*). Y una vez que ya existe un robot inteligente, queda un pequeño paso hacia una especie robot –hacia un robot inteligente que puede hacer copias evolucionadas de sí mismo”. Bill Joy

(*) Ya en los 50s se pronosticaba que para los 80s se construirían máquinas con inteligencia humana

Para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Entonces… ¿Que está sucediendo ahora? Porque la IA y sobre todo las máquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

Pero antes debemos decir que sigue pendiente el problema si las máquinas serán conscientes o no, interrogante, que ha perdurado hasta nuestros días: ¿si se reproducía la mente humana en una máquina, esta no sería consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia:

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas que se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, más memorias, dotadas de mejores algoritmos podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos..
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Entonces… ¿Existirán máquinas más inteligentes que los  humanos para el 2030? ¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores, así, hasta superar a los humanos en todas sus facetas.

Para terminar, diremos que hoy son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, Ray Kurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Microsoft, Google, Facebook, etc., trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Apple y Sun por solo citar dos nombres, lo que nos hace pensar que la preocupación de Bill Joy no está mall encaminada

Imgen: Ecured

Bibliografía (Grupo Facebook Enfoque sistémico-cibernético. La era tecnológica

 

Pioneros del enfoque sistémico-cibernético y el pensamiento complejo. La cibernética (2)

A Norbert Wiener siempre le preocupó como sería la relación entre humanos y tecnologías y cuál sería el destino de los seres humanos. Él siempre entendió a la cibernética como una nueva forma de pensar y de un nuevo paradigma que rompe con el paradigma mecanicista y determinista, idea desarrollado posteriormente por Edgar Morin, quien partiendo de los conceptos de la cibernética, la teoría de sistemas y la de la  información, elaboró los tres principios que sustentan el pensamiento complejo:

  • Principio Dialógico
  • Principio de Recursividad
  • Principio Hologramático

Para la cibernética, la complejidad es vista como la evolución de cómo los cambios que se producen en los sistemas artificiales (maquinas autónomas) y su interacción (simbiosis) con los sistemas vivos. En cambio la teoría de sistemas de Bertalanffy se centra en los sistemas vivos. Por eso cuando en la cibernética se habla de maquinas se refiere a maquinas autónomas a diferencia de la inteligencia artificial que cuando habla de maquinas se refiere a maquinas inteligentes. Mientras la preocupación de la cibernética son las maquinas que se auto-regulan y se auto-organizan, para la inteligencia artificial su tema de estudia es como construir una maquina inteligente que iguale o supere la inteligencia humana.

Mientras las maquinas cibernética se sustenta sobre la idea de maquinas autónomas que están en interacción con el entorno, son sistemas abiertos informacionalmente. La IA se basa en maquinas inteligentes basadas en el procesamiento de información (programas que se ejecutan y manipulan bases de conocimientos, introducidos por el programador, por lo que son sistemas cerrados y no interactúan con el entorno.

Es significativo el hecho de que la IA ve la evolución como maquinas inteligentes que alcanzan a igualar y superar la de los humanos y que serán capaces a su vez de autoprogramarse y construir máquinas  más inteligentes. Es obvio que estamos ante una retroalimentación positiva: maquinas inteligentes que a su vez construyen maquinas más inteligentes y así infinitamente. Esta es la idea central de la singularidad tecnológica.

En cambio la cibernética, tiene como fundamento para la evolución, la retroalimentación negativa, o sea la regulación del sistema para lograr su adaptación al entorno, no crece infinitamente sino que se va ajustando por medio de la interacción no solo con el entorno sino también con los sistemas vivos y con otras máquinas (sistemas artificiales)

Una idea interesante es que para la cibernética los sistemas por una parte son abiertos informacionalmente están en interacción con el entrono  y por otra  parte son sistemas cerrados organizacionalmente, lo cual le permite conservar su orden interno y funcionar como un sistema en equilibrio. Cuando se rompe el orden interno el sistema se desorganiza y deja de funcionar como tal (las maquinas autónomas son a la vez dependientes e independientes del entorno). O sea su gestión organizativa se realiza hacia dentro (cerrado) para evitar el caos y el desorden mientras su gestión de la información es abierta, procesa la información del exterior y se reajusta al entorno por medio de la retroalimentación.

Por naturaleza los sistemas tienden hacía el equilibrio del sistema y a controlar los desordenes de manera neguentrópica, a través de una retroalimentación negativa con el fin de mantener la organización. En este proceso se dan adaptación y cambio del sistema, pero siempre hacia el equilibrio como respuesta a las amenazas tanto internas como externas.

Podemos sacar la conclusión que las maquinas cibernéticas son sistemas autónomos que están en interacción, no solo con el ambiente sino también con los sistemas vivos, lo cual ira produciendo una sinergia entre las maquinas autónomas y los humanos y con ello una transformación de la cual emergen nuevas organizaciones acorde con los propósito del sistema como un todo.

Hoy estamos ante una sobre-abundancia de información. Se genera tanta información (retroalimentación positiva) que es imposible consumirla o procesarla

Ante la información creciente

  • Se pude mantener el orden – Constreñir
  • Se puede cambiar el orden ante el desorden (sobre información) – Emergencia (como nueva forma de organización)

 Definición de auto-organización

La auto-organización es la habilidad de un sistema de implementar su orden por medio de las interacciones de sus componentes.

Auto-organización

  • Vincula tanto a la forma como a la estructura (mecanismo)
  • Genera orden desde el orden (constriñe)
  • Orden desde el desorden (emergencia)
  • Fundamenta su dependencia/independencia (relación maquina/entorno)

Carlos Gershenson, en el curso Pensamiento sistémico, nos dice: Podemos relacionar al auto-organización con la retroalimentación negativa. ya que esta reduce cambios, lo cual implica un mayor orden. De esta manera, es posible usar la auto-organización para guiar el comportamiento de sistemas que se encuentran en entornos dinámicos y cambiantes. ya que se pueden regular las interacciones de los componentes y así lograr una adaptación a cambios que son difíciles de predecir. Y en otra parte, refiriéndose a la emergencia dice: Los componentes de un sistema pueden producir información nueva al interactuar. Podemos llamar a esta información emergente ya que no estaba antes en sus componentes sino que surge a partir de sus interacciones

Con respecto a la complejidad, Gershenson plantea lo siguiente: Hay docenas de definiciones y medidas de complejidad. Muchas de ellas ven a la complejidad como un balance entre el orden y el caos, entre la estabilidad y el cambio. Por ejemplo los sistemas vivos requieren de cierta estructura pero también de cierto cambio. Si hubiese solo estructura, en otras palabras una auto-organización muy elevada no sería posible la evolución, la adaptación y el aprendizaje. En el otro extremo si hubiese cambio constante, en otras palabras una emergencia muy elevada no se podrían mantener los patrones que caracterizan a la vida. La vida requiere de un balance entre la estabilidad o auto organización y la variabilidad o emergencia. En otra parte del curso afirma que: Un sistema requiere de una complejidad equivalente a la complejidad de su entorno para lograr su sustentabilidad. Si la complejidad del entorno es mayor a la complejidad del sistema los cambios en el sistema, estarán determinados principalmente por los cambios en el entorno

Con respecto a la relación de complejidad de un sistema con su entorno, podemos decir  que en el mundo actual la complejidad del sistema social es muy superior a la complejidad del sistema ecológico por lo cual el sistema socio-económico está produciendo enormes cambios en el ecosistema en muchos casos de carácter destructivo, de ahí que Morin hable de una auto-eco-organización, ya que no es solo la auto organización del sistema social, se necesita de una auto-organización global entre los sistemas social, biológico, sicológico y ecológico

Propósito

Sistemas tienen como propósito es mantener y controlar en la medida en que se actualice y la organización se mantiene y se controla en la medida que se mantiene su propósito. Es la retroalimentación la que permite al sistema (organismo) comportarse de acuerdo a su propósito, por ejemplo, mantener la temperatura agradable, lo cual permite al sistema la continuidad y el control de su propósito

Tendremos que la ley del mercado es un sistema de equilibrio para la economía desde las ganancias, pero, a su vez, responde al equilibrio como ley universal, de ahí que se coloque el sistema de equilibrio del mercado por encima de los otros sistemas, incluso, cuando en muchos casos el equilibrio del mercado perjudica el equilibrio social y el equilibrio ecológico.

Si las máquinas se usan principalmente en el equilibrio del mercado este va a aumentar los desequilibrios en los otros sistemas. Y si no aceptamos un equilibrio universal que acepte a todos los sistemas y los pone en equilibrio crearemos una desigualdad capaz de destruir el planeta y a la propia humanidad.

El mismo principio se cumple con la temperatura corporal, con la economía del mercado bajo la oferta y la demanda. Si se aumenta el salario (mayor demanda) entonces aumentan los precios.

Si aumenta el salaria entonces aumenta la demanda (se compra mas). Esto lleva a dos reacciones

  • Aumentar la oferta (más productos). Retroalimentación positiva
  • Aumentan los precios (se regula el sistema). Retroalimentación negativa

En el primer caso, como la producción, casi siempre, se obtiene por el consumo de recursos naturales, nos lleva.

Aumentar la oferta implica disminuir los recursos naturales (y a la degradación del medio ambiente).

Todos los sistemas para lograr el equilibrio deben mantener un propósito, el propósito es parte de la condición de los sistemas y los humanos como sistema social tienen sus propósitos. Del equilibrio del sistema surge un propósito que luego mantiene ese equilibrio. El propósito, está presente en todos los sistemas: ecológico, social, biológico, sicológico aunque no sea de manera consciente, solo los humanos son conscientes de sus propósitos

Podemos concluir que la complejidad es vista como la emergencia de nuevos ordenes en un entorno que tiende al desorden. La entropía es el grado de desorganización del sistema y la emergencia cuando se genera orden del desorden.

No quiero terminar sin hablar de algunos problemas que serán temas de próximos artículos.

Hoy existe una gran preocupación por el crecimiento exponencial del conocimiento sin la sabiduría para manejarse con él (Los riesgos existenciales de una singularidad tecnológica)

 

Veamos el lado positivo de las tecnologías

  • Las tecnologías ordenan el sistema. Evitan el caos y el desorden ante el crecimiento de la información.
  • Las herramientas tecnológicas con su intervención (aplicación) permiten introducir sinergia al sistema
  • La tecnología está dirigida a aumentar mayor circulación de información y espacio para crear y reforzar los espacios de aprendizaje. Ej. Los portales, los diccionarios, los mapas de conocimientos, etc.
  • Las herramientas tecnológicas se orientan a almacenar el conocimiento tácito, especialmente lo que se ha llamado la “sabiduría documentada” (como la Wiki) y lecciones aprendidas.

El bioeticista Potter define la sabiduría como: El conocimiento de cómo usar el conocimiento para la supervivencia humana y para mejorar la condición humana

Al respecto Edgar Morin advierte: Las amenazas más graves que enfrenta la humanidad están ligadas al progreso ciego e incontrolado del conocimiento (armas termonucleares, manipulaciones de todo orden, desarreglos ecológicos, etc.).

Otra de las preocupaciones es el surgimiento de maquinas inteligentes (gracias a la inteligencia artificial) capaces de superar la inteligencia humana (Riesgos potenciales de la inteligencia artificial).

 

Tendremos lo siguiente

  1. Máquinas inteligentes que se autoconstruyen (se hace cada vez más inteligentes)
  2. Máquinas beneficiosas (amigables), robustas (construir maquinas alineadas con los intereses humanos)
  3. Máquinas autónomas que se auto-organizan (se desarrollan en interacción con los humanos)

De esto y otros temas hablaremos en próximos artículos.

Imagen: Galería de fotos