Inteligencia artificial, el futuro del hombre. La singularidad tecnológica

Vernor_Vinge_small

Vernor Vinge, matemático y escritor de ciencia ficción


“¿Estamos tomando la inteligencia artificial suficientemente en serio?”
Stephen Hawking

La idea de un mundo fuera de control donde surge una inteligencia superior a los humanos e independiente de los intereses humanos al estilo de Kurzweil y Moravec, sin dudas, es demasiado peligrosa (por no decir descabellada). Ahora dado el desarrollo acelerado de las tecnologías, estas nos van a superar en muchos aspectos (conscientes o no) por lo que algunos ven como única solución una fusión entre humanos y tecnologías (Cyborg). Y es que todo indica que la aceleración de las tecnologías y su propio progreso, nos llevara a una simbiosis entre humanos y tecnologías.

¿Estamos preparados para el surgimiento de una inteligncia artificial superior a la humana?

Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “IA el futuro del hombre”.

Singularidad tecnológica

Antecedentes para una singularidad tecnológica

En los últimos tiempos se ha puesto de moda el retorno al hardware. La IA que al principio se basó en la idea del software; el cual, para muchos, avanzaba demasiado lento y se desarrollaba sobre un “mundo de juguetes”, fue perdiendo partidarios por otra idea más ambiciosa: construir máquinas cada vez más potentes que lleguen a alcanzar las capacidades del cerebro; en velocidad, memoria, poder de representación. Así, hasta que la computadora llegue a ser más inteligente que el hombre.

La superación de la mente gracias a la rapidez de la máquina, su hardware, está dando lugar a una transformación del término inteligencia:
Pueden surgir máquinas inteligentes que no sean una copia del cerebro.
La inteligencia de la máquina estará dada por su velocidad de procesamiento.

El problema consiste en si creemos que las tecnologías siempre serán una infraestructura controlada por los humano o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y de su creciente inteligencia (a lo cual no se le ve limites), se puede aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos.

Durante los primeros años la Inteligencia Artificial (IA) se ha fundamentado en el desarrollo de programas que fuesen capaces de realizar actividades propias de la mente humana, tales como demostrar teoremas, jugar a las damas, al ajedrez, darle soluciones a problemas poco estructurados basados en la heurística o en campos donde se requería de conocimientos, los sistemas expertos. Con el tiempo, se demostró, que esta vía para lograr una inteligencia no humana, era demasiado lenta y no cumplía con las expectativas –ya se había predicho el surgimiento de una inteligencia no humana a principio de la década de los 80; por lo que, a finales de esa década y principio de los 90, muchos investigadores comenzaron a desesperarse, y no fueron pocos los que abandonaron sus laboratorios por líneas de trabajo más prometedoras.

Sentimiento de fracaso que invadió tanto a la IA débil como a la IA fuerte. Para la débil cuyo objetivo era crear sistemas informáticos que realizasen actividades que requerían de inteligencia tales como los sistemas expertos, en los cuales se cifraron grandes esperanzas tanto investigativas como comerciales, se esperaba que el mercado estuviera abarrotado de sistemas expertos, incluso los metódicos japoneses, para no ser menos, se lanzaron en su famoso proyecto de 5ta. Generación, que también quedó como otro intento más. Por su parte la IA fuerte, cuyo propósito es reproducir en la máquina la extensa variedad, sutileza y profundidad de la inteligencia humana, no logró cumplir con sus metas, de en menos de 20 años haber reproducido la mente humana, y estaban atascados en modelos muy elementales de la inteligencia, como el mundo de bloques y en sistemas cerrados que eran incapaces de mostrar iniciativa o fallaban estrepitosamente ante cualquier problema que requiriera de sentido común.

Entonces… ¿Qué está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. ¿Cuál es el nuevo enfoque?

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Mega hertzios (Mhz) a las actuales que ya sobrepasan los 3 Giga hertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Estas máquinas superveloces, podrán efectuar un billón de operaciones por segundos, por lo que –según Moravec– estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Idea que se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes

También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.

Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más “inteligente”, y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?

Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; media máquina, medio humano, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa “cosa” llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana.

Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un “despertar” como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de “emergencia”, esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia “emergente” donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de “conocimientos” hasta llegar a despertar como una entidad inteligente.

Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a “pensar”? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.

En futurología, la Singularidad Tecnológica (algunas veces llamada simplemente Singularidad) es un posible acontecimiento futuro en el que, según se predice, el progreso tecnológico y el cambio social se acelerarán con el desarrollo de una inteligencia sobrehumana de tal manera que ningún ser humano anterior a dicho acontecimiento podría comprenderlo o predecirlo.

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.

A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:
La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Postulados para el surgimiento de una superinteligencia artificial
Nos acercamos a una singularidad tecnológica donde las tecnologías se convertirán en una superestructura y participarán de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no (Ecured), por supuesto, que esto no tiene porque suceder. Están los que piensan que la solución es ir cuanto antes a una singularidad tecnológica y los que piensan todo lo contrario y proponen la prohibición de la mayoría de las tecnologías emergentes, también, están los que creen que la singularidad tecnológica no pasa de ser una tecno-utopía y nunca sucederá.

La idea central para que surja una singularidad tecnológica es el surgimiento de una inteligencia suprahumana. Vinge, utiliza el término de máquina ultra inteligente y la define como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Destaco esto último, que superara la evolución natural, por lo que estamos asumiendo que el futuro (después de la singularidad) surgirá una evolución superior a la actual.

Sabemos, que en la actualidad, la humanidad no se rige totalmente por la evolución natural sino por una evolución socio-cultural, por suerte ya no se cumple la ley de la supervivencia al pie de la letra como en época del hombre de las cavernas y parece como si la ley del mercado hubiese sustituido a la ley de la selva, y la lucha pasó de los territorios a los mercados. Tampoco se utilizan los mismos métodos, las agresiones militares se han ido transformando en agresiones económicas (sin abandonar las acciones militares). En fin, la lucha por el poder, con otros métodos, sigue siendo la misma.

Volviendo al tema, estamos hablando de una superinteligencia capaz de superar a la inteligencia humana en todos los aspectos, yo no estaría tan seguro de que podría superar a los humanos en todos los aspectos, y que esta inteligencia artificial sería a su vez capaz de autoprogramarse y desarrollar programas cada vez más inteligentes y surgiría así una explosión de inteligencia. Esta es la idea de una singularidad tecnológica basada en el surgimiento de una superinteligencia artifical. No olviden que los defensores de una singularidad parten de la idea de que el cerebro humano no tiene ningún cambio significativo durante milenios (a diferencia de las máquinas que se asume que pueden autoconstruirse en versiones cada vez más potentes).

La singularidad se sustenta sobre la idea que las maquinas son cada vez más veloces y que esta velocidad crece de forma exponencial y parten que esa velocidad de cálculo superará a la del cerebro.
Un primer postulado es que se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la maquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la maquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.
Un segundo postulado, es la emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.
Un tercer postulado es que las maquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Caminos hacia la singularidad

Cuando se habla de singularidad tecnológica se piensa solo en el surgimiento de una super inteligencia artificial y se subestiman el resto de las tendencias y peor aún existe gran confusión sobre que es la singularidad tecnológica y que es el transhumanismo, y más aun, existen diferentes posiciones dentro de los defensores de una singularidad tecnológica, porque no es lo mismo la singularidad que defiende Moravec, que la singularidad que defiende Kurzweil.

Hace algunos años propuse una clasificación de la singularidad tecnológica siguiendo la idea de Vinge, quien, en mi opinión tiene la concepción más clara y abarcadora de la singularidad, tanto la de Kurzweil como la de Moravec, resultan un poco confusas. En cambio Vinge separa las singularidades (vías para alcanzarlas) en cuatro tendencias de acuerdo al tipo de superinteligencia que podía surgir, a las que yo llamé: superinteligencia artificial, superinteligencia hibrida, superinteligencia colectiva y superinteligencia biológica.

También, siguiendo a Vinge, trate de ampliar la idea de una singularidad tecnológica como el momento en que las tecnologías se convertían en una superestructura capaz de compartir las decisiones del planeta con los humanos. Pero siempre me quedaba algo confusa la relación entre las diferentes superinteligencias y si estas podían coexistir entre sí (eso no le queda claro a nadie), y lo más lógico dado nuestra actitud ante los problemas actuales que todo lo queremos resolver por medio de amenazas y sanciones, actitud que nos está arrastrando a un enfrentamiento mundial de consecuencias impredecibles. Por eso no sería nada extraño que las superinteligencias también se enfrentaran aludiendo nuevas causas y justificando el predominio del más fuerte.
La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.

Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030.

  • Superinteligencia artificial: Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  • Superinteligencia colectiva (o global): Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  • Superinteligencia hibrida: Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  • Superinteligencia biologica: La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia “emergente” que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.

Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las maquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el “original” en todo caso igualarlo.

La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más “creativa”, no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).

Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: “La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)”.

Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos “equivalentes humanos” podrían ser usados nada más que para procesamiento digital de señales. Y agrega: “para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)”.

La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.

La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma a la que yo denomino como superinteligencia artificial.

La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida.

En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, siguiendo las ideas de Pierre Levy, prefiero llamarla superinteligencia colectiva.

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica.

Últimamente prefiero hablar de una simbiosis entre humanos y tecnologías, lo cual me aclara muchos de los conceptos que hasta ahora me parecían algo confusos, antes de seguir hablando de la simbiosis, prefiero aclarar algunos conceptos y confusiones entre singularidad tecnológica y transhumanismo. Son muchos los que hablan de transhumanismo, humano mejorado y singularidad tecnológica como si fuera lo mismo. En realidad hay intenciones muy diferentes entre uno y otro, y también aspiraciones y consecuencias diferentes.

Para los transhumanista la esencia de sus postulados radican en alcanzar la superhumanidad, ellos buscan, por medio de las tecnologías, superar sus límites humanos y lograr ser más inteligentes, más fuertes, más bellos, saludables, etc. La singularidad tecnológica se sostiene sobre la idea de que las máquinas sean cada vez más inteligentes hasta igualar a los humanos y luego superarlos. Según Moravec, esto es un proceso inevitable, ya que la evolución de las máquinas (progreso tecnológico) es superior a la evolución humana y ve a las máquinas como las herederas naturales del planeta. En cambio, Kurzweil, ve las ventajas que esto reportará para los humanos, ya que esa superinteligencia artificial, muy superior a la humana, será capaz de resolver los grandes problemas que los humanos no han podido resolver, y está convencido de que la inmortalidad será posible.

Critica a la singularidad

Según sus defensores la singularidad debe acontecer antes del 2030. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos. Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa poshumana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes. Aunque, para muchos, resulta ingenuo, creer que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora.

¿Hay alguna razón que nos pueda llevar a pensar que será así? Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

Comencemos por la artificial. ¿Estará el hombre dispuesto a construir una inteligencia no humana que lo supere? “Si no trabajamos en las tecnologías inteligentes alguien lo hará”. O sea que las necesidades del mercado y la competencia que esta genera, nos llevará inevitablemente a el desarrollo de inteligencias artificiales (IA) superior a la humana. Y no hemos mencionado la carrera armamentista, que tampoco se detendrá.

La única preocupación, radica, en que estas ideas no se lleven a cabo, con la prontitud requerida, debido a las acciones que puedan desplegar los llamados “luditas” o “bioluditas”. Que son aquellos que proponen la prohibición de aquellas tecnologías que puedan significar un riesgo para la humanidad. Sin dudas una IA superior a la humana es un peligro para los humanos, si aceptamos que vivimos en una sociedad basada en la competencia y en la lucha por el poder. Otros afirman que las ventajas son tantas que vale la pena correr los riesgos, pero algunos piensan que nos adentraremos en una aventura cuyas consecuencias son impredecibles.

Entre las críticas al surgimiento de una inteligencia artificial, está la de Roger Penrose quien establece diferencias entre el funcionamiento de un ordenador, que es capaz solamente de un razonamiento algorítmico basado en secuencias lógicas, y el funcionamiento del cerebro humano, que es capaz de estar abierto a la imp Los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

En cambio, los expertos en computación tradicional no pueden creer que las computadoras relativamente simples, en las que se ejecutan sus programas, se almacenen sus bases de datos, sus gráficos; que requiere de un sistema operativo y opera sobre algoritmos numéricos; puedan ser también el sustrato donde se puedan ejecutar los complejos procesos de la mente humana.

La idea de la fusión responde al sueño de los transhumanistas de lograr un humano mejorado. El transhumanismo es un movimiento tecnológico, que, según Nick Bostrom, afirma la posibilidad y el deseo de mejorar, en modo fundamental, la condición humana a través de la razón aplicada, especialmente por medio del desarrollo y la puesta a disposición de tecnologías para eliminar el envejecimiento y potenciar grandemente las capacidades humanas, intelectuales, físicas y psicológicas.

La definición de una superinteligencia colectiva nos lleva a tomar la posición de los que creen que podrá surgir una supeinteligencia no humana y, de alguna forma, a estar de acuerdo con los presupuestos transhumanistas. Y surge de la idea del cerebro global, que además de tener como soporte la metáfora del cerebro, también parte la creencia de una inteligencia colectiva. Tal como la define Pierre Levy, una forma de inteligencia universalmente distribuida, constantemente realizada, coordinada en tiempo real, y resultando en la movilización efectiva de habilidades que de forma cooperada pueden conformar una inteligencia; como sucede con las sociedades de las hormigas.

Pienso que el surgimiento de una superinteligencia superior al humano, fíjense que digo superior al humano y no a la humanidad, será un proceso inevitable, el problema radica en tomar las decisiones correcta y en aprender a manejarnos con una inteligencia; capaz de integrarse y colaborar con los humanos, en lugar de ser una amenaza que inevitablemente nos irá desplazando.

Otra de las proyecciones del transhumanismo es la carga de la mente, la transferencia de la conciencia humana o de la personalidad en otro sustrato, por ejemplo; a una supercomputadora. Idea que parece extraída de la ciencia ficción y que hoy en día parece irrealizable. Para los defensores de la singularidad tecnológica esta es una de sus predicciones futuras favoritas, ellos parten de una visión mecanicista del hombre, según la cual el cerebro y sus funciones se pueden reducir a un sistema de procesamiento de información y han formulado la hipótesis de una existencia post-biológica y aspiran realizar un escaneo de la matriz sináptica de un individuo y reproducirla dentro de una computadora, lo que permitiría emigrar cuerpo biológico a un substrato puramente digital y con ello obtener varias copias de la matriz sináptica del cerebro, y así, alcanzar periodos de vida ilimitado. Para su realización afirman que se requiere del uso de una Nanotecnología ya madura, aunque, hay, también, otras formas menos extremas de fusionar la mente humana con la computadora y hoy día se están desarrollando interfaces del tipo neuro/chip. Esta tecnología está en sus pasos iníciales y sueñan en un futuro poder conectarse en forma directa al ciberespacio.

Son muy pocos los que analizan la posibilidad de sociedades en las cuales hombres y máquinas vivan de forma cooperativa y que dadas sus diferencias, que son evidentes, puedan complementarse y realizar las tareas para la cual cada uno está mejor capacitado. Por otra parte, se ignoran las posibilidades de desarrollo del cerebro, el que, al igual que la máquina no se utiliza en toda su potencia y esta capacidades podrían ser estimuladas y ampliadas. En cambio son muchos los que creen que las máquinas vendrán a sustituir a una humanidad decadente y sin futuro, y piensan que solo las máquinas estarán a la altura del mundo posmoderno o posindustrial que se avecina.

 

Inteligencia artificial, el futuro del hombre

IA - futuro del hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”

Puedes comprar Inteligencia artificial, el futuro del hombre (versión kindle)

Breve recorrido temático por la inteligencia artificial

Heurística

En sus inicios la inteligencia artificial (IA) se fundamentó en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria). También se elaboraron programas para juegos que van desde los tan complejos como el ajedrez, pasando por el de damas, hasta los más sencillos como el tic tac toe. Este último, dada la velocidad actual de las computadoras es posible resolverlo a través de una exploración exhaustiva.

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Desde sus comienzos la inteligencia artificial (IA), intentó salirse del esquema cibernético demasiado abarcador y, precisamente, se trazó como línea de investigación, propósitos más concretos, como el de reproducir la inteligencia en una computadora. Quizás por inercia, influidos, aun, por la cibernética, muchos de los investigadores siguieron trabajando en líneas más generales como el demostrador general de problemas (GPS en inglés) o los primeros intentos con las redes neuronales (que no soportaron las críticas de Minsky). Todas estas líneas se fueron abandonadas y sustituidas por investigaciones más concretas, en realidad se quería que la inteligencia artificial (IA) fuera una ciencia exacta, de ahí el uso del aparato matemática y la creación de laboratorios de IA.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia.

Mundo de bloques

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Sistemas expertos

Además de estas tareas de la vida diaria, mucha gente puede también realizar tareas más especializadas en las cuales es necesaria una cuidadosa adquisición de experiencia. Son tareas como el diseño en ingeniería, los descubrimientos científicos, los diagnósticos médicos y la planificación financiera. Los programas que pueden resolver problemas sobre dominios también están bajo la tutela de la IA. Otro campo importante donde la IA ha tenido éxito es en la simulación de las formas de trabajar, de abordar y de resolver los problemas en aquellas ramas de la actividad humana donde la experiencia y la experticidad juegan un papel predominante, dando lugar a los denominados Sistemas Expertos.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico.

Todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.En la década de los 80, se pensaba que la humanidad se encontraba “…ante un reto de imprevisibles consecuencias”, pues se avecinaban cambios que trastocarían muchos paradigmas que rigen el mundo. Los investigadores de la Inteligencia Artificial se hacían preguntas como:

  • ¿Qué será de los matemáticos cuando los Sistemas Expertos sean capaces de deducir todos los teoremas que se deriven de una cierta axiomática?
  • ¿Qué harán los abogados cuando haya una herramienta capaz de preguntar a sus clientes y de darles consejo sin posibilidad de error y utilizando toda la legislación y jurisprudencia?
  • ¿Qué será de los médicos cuando existan bases del saber capaces de almacenar los conocimientos y la experiencia de cientos de especialistas en una materia?.

En octubre de 1981 se sentaron las bases para el desarrollo de las computadoras de 5ta generación en una conferencia Internacional en Tokio, Japón. En este proyecto se adoptó el lenguaje PROLOG como lenguaje fundamental que sería soportado por el hardware a construir.

Inteligencia artificial fuerte y débil

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora. Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

La IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas.

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Nuevos enfoques de la IA

.Actualmente, la ciencia deja de encerrarse en sí misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran

Nuevas tendencias en la IA:

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupo, los que se apoyaban en la lógica para la representación de los conocimientos, un ejemplo de ello el lenguaje Prolog y los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos. Con el tiempo surgió un nuevo paradigma: el conexionista el cual más que representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente.

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Otro de los problemas era el aprendizaje automático, como lograr que la maquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Hoy Rodney Brooks, investigador del MIT, tiene deambulando por su oficina pequeñas arañas cibernéticas, cuyo único objetivo es aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones. Lo interesante en Google, es que esta combinando las ideas de las redes neuronales con las del aprendizaje profundo y para ello ha contratado a varios expertos en las dos ramas los que tiene trabajando en la creación de un buscador inteligente, lo que justifica porque el desinterés de Google en la web semántica, evidentemente su proyecto es otro.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Inteligencia artificial general

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG). La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana.

¿Qué es la inteligencia artificial general (IA general)?

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligencia
  • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.

Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte

La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teorice en tres campos

  • Una teoría de la inteligencia,
  • Un modelo formal de la teoría,
  • Una implementación computacional del modelo.

El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:

  • Lógica matemáticaTeoría de la probabilidad (tratamiento de la incertidumbre)
  • Sistema de producción (estrategias para las reglas)
  • Base de conocimientos (representación del conocimiento)
  • Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
  • Robótica (sistemas de planificación)
  • Redes neuronales
  • Computación evolutiva (algoritmos genéticos)
  • Sistema multi-agente (agentes inteligentes)

La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible..

Máquinas inteligentes

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir qué es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Superinteligencia artificial

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de Ray Kurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

Imagen: Terabito

Superinteligencia: Caminos, peligros, estrategias

Nick Bostrom

Disponible en Amazon

Cuales son las vías para el desarrollo de una inteligencia artificial

IAavanzada

En el artículo Crisis de la inteligencia artificial decíamos lo siguiente:

La Inteligencia Artificial se ha visto siempre como una ciencia teórica, desligada de la realidad, mientras para otros son métodos que permiten investigar el cerebro. Pero, en realidad, ¿cuáles han sido sus logros? ¿Cómo ha influido en la comprensión de la mente humana?

La IA parece irreconciliable si la analizamos a través de sus tres vertientes:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías.

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias.

Cada uno de estos métodos niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial.

De acuerdo a estos enfoques surgen tres áreas de investigación y desarrollo de la Inteligencia Artificial.

Ciencia cognoscitiva – Estudio de la mente
Máquinas inteligentes – Sistemas informáticos
Ingeniería del conocimiento – Sistemas comerciales

Estudio de la mente:

Se considera una ciencia natural que investiga sobre la mente que trata de comprender los mecanismos de la creatividad del ser humano apoyándose en las computadoras como soporte del pensamiento de este grupo se desprenden dos grandes ideas que han llenado de promesas las investigaciones de la IA: la IA fuerte y la IA débil.

La Inteligencia Artificial fuerte:

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Sistemas informáticos:

A este grupo no les preocupa tanto las cuestiones filosóficas, aunque su afiliación esta dentro de una IA débil. Para ellos la meta es construir máquinas más perfectas, aprendiendo a representar y manipular el conocimiento sobre el mundo real mediante una computadora y no les preocupa en lo más mínimo si la forma de pensar de las máquinas está de algún modo relacionada con la forma humana de pensar.

Para estos investigadores la máquina es el tema de su investigación, la cual es vista como un todo (soft y hard) y se pretende que esta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. Y se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma.

Las mayores aportaciones al campo de la IA se debe a este grupo en temas tan importantes como: la robótica, las tecnologías del conocimiento, la IA distribuida, máquinas para lisp, etc.

Sistemas comerciales:

Se elaboran aplicaciones para resolver problemas que antes eran competencia sólo de los humanos. Son los especialistas de computación que se dedican a abordar a través de algoritmos tareas poco estructuradas con fines prácticos, casi siempre utilizando estructuras de datos complejas.

Se puede ver como rama de la ingeniería dedicada a crear productos comerciales, sobre todo sistemas especializados. Por ejemplo los sistemas expertos

Cada enfoque crea una filosofía de trabajo que hace incompatible la comunicación entre cada grupo de investigadores, desde sus “creencias” entre MENTE, MAQUINA Y USUARIO. Incluso hasta la forma de ver la máquina cambió para cada uno.

Ahora veremos otra clasificación de la IA desde un enfoque más reciente

Orientación de las investigaciones en IA

  • Sociales: centrada en los impactos sociales de la IA (desde lo intelectual para lo social)
  • Economicista: centrada en el crecimiento del mercado potenciado por la IA (desde lo económico para lo económico)
  • Intelectualista: centrada en el reto intelectual de construir una IA (desde lo intelectual para lo intelectual)
  • Colaboracionista: centrada en la colaboración.

Intelectual: La IA como ciencia que permita construir una inteligencia (no humana) que iguale y supere a la humana. Se construye a nivel de laboratorio en un centro de investigación.

Social: El impacto de la IA, riesgos y beneficios. Las consecuencias que tendrá sobre la humanidad.

  1. El impacto de la IA sobre el individuo: nos hará más inteligentes y sabios, facilitará el perfeccionamiento individual, aumentarán las facultades humanas.
  2. El impacto sobre la sociedad: Eliminará las injusticias, mayor acceso a la educación, la salud al alcance de todos, permitirá un monitoreo constante del estado de salud de cada individuo.
  3. El impacto económico: no habrá pobreza, se alcanzará la prosperidad, los ricos serán más ricos (aumentará la brecha entre ricos y pobres), las grandes transnacionales controlarán la economía mundial, se eliminaran trabajos y surgirán otros, existirán nuevas oportunidades de negocio
  4. El impacto en la ecología: Por una parte se podrá alcanzar una mayor sostenibilidad en el planeta, mayor protección de los recursos, lograr el equilibrio en el ecosistema por la otra se aumentara la degradación del planeta.

Clasificación de la IA

  1. IA clásica o simbolista. Programas (heurística)
  2. IA estrecha. Sistemas expertos (aplicación)
  3. IA emergente o conexionista. Super IA (aceleración del hardware). Redes neuronales. Era actual
  4. IA general. Retorno a la IA clásica (ciencia cognitiva)

IA evolucionista. Ciencias de la complejidad con el entorno y de la auto-organización que se produce (transdisciplinar). Próxima era

IA clásica, una IA basada en programas

IA estrecha ante el fracaso de la IA clásica, la IA abandona sus grandes objetivos y se dedica a objetivos más modestos como los sistemas expertos (IA estrecha)

IA emergente. Una IA basada en la velocidad en la mejora de sus componentes. Se basa en programas que aprovechan la velocidad del hardware (más y mejores dispositivos). Donde los programas se van ajustando a las capacidades de los dispositivos.

IA evolutiva parte de la interacción entre personas y máquinas

Investigación y desarrollo para una inteligencia artificial

  • Centro de investigación académicos (academias, universidades). IA construida en laboratorios
  • IA propietaria. Como servicio propiedad de las empresas de las tecnologías de la información
  • Instituciones patrocinadas (ONG. IA beneficiosa En este caso cabe preguntarse ¿por quién? Un patrocinador altruista o uno que busca solo ganancias.
  • Comunidades libres. Software comunitario (software libre). IA libre
  • Centros financiados por empresas privadas (PyMES). IA comercial (producto)
  • Institutos gubernamentales. Centros financiados por el estado, educación, salud, militares, etc. IA gubernamental.

 Tipos de inteligencias sobrehumanas (era tecnológica).

  • Superinteligencia artificial (visión tecnologista) – Singularidad tecnológica (Kurzweil)
  • Inteligencia artificial avanzada propietaria (visión economicista) – Singularidad tecno-liberal (Google)
  • Inteligencia artificial avanzada beneficiosa (visión racionalista) – Transhumanismo democrático (Bostrom)
  • Ampliación de la inteligencia colectiva Colectiva (visión transdisciplinar) – Autoorganización sistémico-cibernético (Malone)
  • Superinteligencia Global (visión social) – Singularidad distribuida (Heylighen)
  • Superinteligencia Transhumana (visión transhumanista) – Transhumanismo liberal (Nuevas transnacionales)

Visiones desde el impacto de las tecnologías

  • Racionalistas: crear una IA alineada que resuelva todos los problemas, incluido la inmortalidad
  • Transhumanista: la creencia que uno de invertir en tecnologías de extensión de vida
  • Transdisciplinar: ampliación inteligencia producto de la interacción entre humanos y tecnologías.

Por último mencionaremos las vías para el desarrollo de la inteligencia artificial desde la visión racionalista

Vías para crear una inteligencia artificial (IA) capaz de igualar o de superar a los humanos

  • Super Inteligencia Artificial (tecnoutopía)
  • IA avanzada beneficiosa / IA avanzada propietaria (cosmovisión/social)
  • IA general (ciencias cognitivas)
  • IA estrecha (IA aplicada / SE)

Superinteligencia artificial

Acelera las tecnologías inteligentes. Singularidad tecnológica (imperativo tecnológico)

Carácter utópico/filosófico: Tecnoutopía, tiene un carácter religioso inspirado en el cristianismo, alcanzar el paraíso en la tierra por medio de las tecnologías.

  • Super Inteligencia Artificial (Poshumano): Acelera las tecnologías inteligentes. Singularidad tecnológica (cosmovisión tecnocentrista). Construcción de un prototipo inicial que por medio del aprendizaje automático es capaz de autoprogramarse y que da lugar al inicio de la singularidad. Enfoque analítico-reduccionista. La super IA surge a partir de un punto (emergencia) de forma abrupta (aceleración) sin la participación de los humanos, aunque en sus inicios se construye  en un laboratorio, pero luego escapa al control humano.

Podemos decir que la línea trascendente es la parte mística de cada visión, la aspiración de trascender las limitaciones humanas aquí el ideal es recargar la mente en un soporte digital, llámese nube, matriz, red, mundo virtual, etc. Donde la mente pueda desarrollarse infinitamente.

Inteligencias artificiales avanzadas

Carácter social (cosmovisivo): Construir una IA avanzada tiene un alcance cosmovisivo pero orientado a los problemas sociales, como reacción a los peligros  (y beneficios) de una Super IA

  • IA avanzada beneficiosa: Alineada con los intereses humanos. Cosmovisión tecno-democrática (centros patrocinados). Los peligros de una super IA
  • IA avanzada propietaria: Orientada al mercado (imperativo económico) – Cosmovisión tecno-liberal. Los beneficios de una super IA (sobre todo económicos): IBM (Watson), Google, Microsoft, Facebook, Aple, etc.

Construir una IA avanzada robusta y beneficiosa, se ha convertido en el tema principal de los centros de investigación. Es el ideal de casi todas las cosmovisiones que por medio de las tecnologías buscan mejorar a la sociedad y a los individuos.

Inteligencia artificial general

Carácter científico (intelectual): Construir una IA avanzada, son las investigaciones para el desarrollo de inteligencia artificial como parte de las ciencias cognitivas, retorno a la IA clásica

Inteligencia artificial estrecha

Carácter técnico: (a corto plazo). No tienen un carácter general ni de alcance cosmovisivo,  son aplicaciones puntuales que busca la implementación de la IA en la vida cotidiana.

Construir una IA avanzada con fines productivos (IA estrecha)

  • IA aplicada (sistemas expertos). IA estrecha
  • IA comercial (producto). IA como producto que se comercializa – Ingeniería informática orientada al mercado (empresas privadas)
  • IA para el bien. IA para lograr el mayor beneficio a nivel social – Ingeniería informática orientada a la sociedad (centros financiados)

Los riesgos de la IA

  • El desempleo
  • No estar preparado para la era tecnológica
  • No todas las vías conducen al mismo escenario
  • Propuestas de desarrollo para cada vía

Existe una gran confusión con el logro de una IA. Hay que tener en cuenta las líneas cosmovisiva  (IA consciente), científica (ingeniería de la IA) y la comercial (IA privativa). No es lo mismo una IA comercial que una IA propietaria.

En la era poscapitalista se necesitará cada vez de más inteligencia:

  • Las transnacionales necesitan ser más inteligentes que los competidores (IA propietaria / Transhumanismo liberal)
  • Los militares más inteligentes que sus enemigos
  • Los gobernantes más inteligentes que los opositores.

La IA como ciencia trata de encontrar la solución desde si misma (su tema de investigación) sin inmiscuirse en los problemas sociales. Lo cual no sucede con la línea de investigación cosmovisiva.

Con el surgimiento de IA conscientes, estamos ante un problema que surgirá ante la relación de los humanos con  las inteligencias que alcancen a ser autoconsciente y que de alguna forma cambia el destino de la humanidad y tendremos que elegir entre competir (subordinarlas a nosotros o someternos a ellas) o colaborar (convertirla en un aliado)

Pienso que una IA beneficiosa debería ser una forma de ampliar la inteligencia humana y es que, el primer beneficio de una IA robusta o alineada debe ser ampliar la inteligencia de todos los humanos, ya que la humanidad ante la creciente complejidad del mundo necesita de más inteligencia y sobre todo de más sabiduría para enfrentar los nuevos desafíos de un mundo que se hace cada vez más complejo.

Inteligencia artificial, el futuro del hombre

IA - futuro del hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”

Disponible en Amazon (kindle)

Ver libros de tapa blanda sobre inteligencia artificial

Ejemplos de sistemas expertos

Minientrada

compoente-seVeremos dos ejemplos que han sido paradigmas de sistemas expertos dentro de la inteligencia artificial.

DENDRAL: Reducción de grandes espacios de búsqueda mediante factorización (heurística).

Ayudar a los químicos a inferir la estructura de los componentes químicos a partir de los datos del espectro de masa.

Se partió de la técnica de generar y probar la cual depende de la forma en la que se desarrolla el espacio de estados y de predecir que ramas conducirán a la solución, hasta que profundidad se debe explorar una rama sin que se pierda una posible solución.

Fue el pionero en el cambio de enfoque hacia las estructuras de control dependientes del dominio.

MYCIN. El manejo de evidencia incierta.

Sistema para el diagnostico de infecciones bacterianas.

Se basa en conocimientos indefinidos y datos imprecisos en vez de los manejos del espacio del problema.

DENDRAL

El paradigma de búsqueda de solución en espacios de estados. El cual se basa en una búsqueda a través de una red de nodos, donde cada uno representa un posible estado del problema, donde casi siempre una búsqueda exhaustiva de todo el espacio es imposible (explosión combinatoria). Un método es controlar la búsqueda en el espacio de estado basándose en la relación que hay entre los estados.

Una técnica muy conocida es la de “generar y probar”. Comenzando por algún estado inicial, se utiliza un generador para producir un conjunto de estados descendentes, se aplica entonces a ese conjunto una serie de pruebas de validez para reducirlo a un tamaño más manejable. Estas pruebas adoptan normalmente la forma de restricciones, también es posible incorporar estas restricciones al generador reduciendo el número de estados descendientes a probar. El método “generar y probar” solo funciona, si cuando un estado se declara invalido, todos sus estados descendientes lo son.

DENDRAL, fue el primer sistema basado en conocimientos que utilizo el método de “generar y probar” para las conexiones de las estructuras de compuestos de química orgánica. El proyecto comenzó en 1965 con el objetivo de proporcionar un soporte en la computadora a los químicos, profesionales que no eran expertos en determinadas técnicas analíticas y tubo tal éxito que inspiro a la creación del área de los sistemas expertos en la IA.

La tarea de la aplicación.

DENDRAL: es un sistema diseñado para ayudar a los químicos a determinar la estructura de algún compuesto desconocido, con especial énfasis en el uso de los datos provenientes de un espectrómetro de masas.

El programa de planificación de DENDRAL

En la práctica hizo falta un programa de planificación para producir las restricciones a la hora de generar. El ciclo completo es PLANFICAR – GENERAR – PROBAR.

Con el planificador se evita la generación superflua y simplifica la fase de prueba.

Semejante a MYCIN, DENDRAL no pretende simular los procesos interpretativos que utilizan los químicos. No obstante si pretende complementar los métodos de estos.

Con la planificaron se infiere una lista con las estructuras necesarias(1) y con las prohibidas (2) las cuales ayudaran, mas tarde a limitar las estructuras proporcionadas por el generador .

(1) Lista correcta (2) Lista incorrecta

Ejemplo de regla:

R1: Si hay dos picos de las unidades de masa X1 y X2, de modo que
X1 + X2 = M + 28
X1 – 28 es un pico alto
X2 – 28 es un pico alto
Al menos, o X1 es alto o X2 es alto
Entonces CETONA

R2: Si se satisface las condiciones para ser una CETONA
43 es un pico alto
58 es un pico alto
M – 43 es un pico bajo
M – 15 es bajo o, posiblemente 0
Entonces METIL-CETONA.

Encadenando hacia delante si se aplica la regla R1 el PLANIFICADOR puede considerar aquellas reglas que tenga en sus condiciones el grupo CETONA.

R3: Si es CETONA y…  Entonces ETIL-CETONA.

O sea encadena con las reglas R2 y R3 de acuerdo con su espectro de masa y la correcta la incluye en la lista correcta y la otra en la lista incorrecta. Lo cual permite al planificador determinar la posición de un grupo funcional y registrar la información adicional para que sea utilizada más tarde por el generador.

Generador de estructura: es un programa que genera el espacio de búsqueda con las posibles estructuras químicas.

MYCIN

El sistema experto MYCIN opera sobre una Base de Conocimientos (BC), bien organizada sobre las enfermedades infecciosas, donde el conocimiento es inexacto por lo que el punto central son las técnicas para expresar medidas de opinión, llamadas factores de certeza.

La estructura de control es simple y está basada en un sistema de producción.
1) Una colección de hechos.
2) Un conjunto de reglas de producción.
3) Un generador de inferencias con encadenamiento hacia delante o hacia a tras (o ambos), junto a una estructura de conocimiento que capacita a la estructura de control para disidir que reglas, de todas las posibles, debe tomar parte en el mecanismo de inferencia.
4) Un mecanismo que realice inferencias, a partir de evidencias inciertas o incompletas..

En MYCIN las agrupaciones de reglas dentro de un determinado contexto se definen en tiempo de generación. El generador de inferencias proporciona una búsqueda dirigida por objetivos o por datos. Fue el primero en tener en cuenta el conocimiento incierto

La existencia de una estructura de control dependiente del dominio, la hace específica. Por eso se han extraído de MYCIN las partes independientes del dominio para formar el MYCIN “vacio” o “hueco”, EMYCIN. El cual se ha empleado en otros dominios tales como PUFF (cuidado respiratorio intensivo), SACON (calculo de estructuras de ingeniería), GRAVIDA (consejos para el embarazo), CLOT (desordenes de la sangre) y VM (manejo de la ventilación).

Hechos.
(contexto)(parámetro)(valor)

El contexto es alguna entidad del mundo real. Ejemplo: un paciente.
Un parámetro es un atributo del contexto. Ejemplo: la edad.
El valor es una particularización del parámetro. Ejemplo: 25 años.
A cada terna se le asocia un factor de certeza (FC).
FC toma valores en el intervalo (-1, 1) donde -1 es la negación, 0 la ignorancia absoluta y 1 total certidumbre.

Ejemplo:
Organismo 1 – Identidad pseudomonas .8 (La identidad del organismo 1 es, con un factor de certeza 0.8, pseudomonas).

Reglas de producción.

Si premisa entonces acción (FC).

En MYCIN las reglas se definen para poder encadenar hacia delante o hacia atrás. Las reglas se utilizan repetidamente utilizando el conocimiento dependiente del dominio para decidir que reglas se deben considerar, hasta que se dé un contenido a los hechos. En algunos casos, las reglas darán contenido a los hechos mediante preguntas al médico.

Ejemplo de reglas:

Si (no se sabe si el organismo fue capaz de desarrollarse en presencia del aire (aeróbicamente))
Y (el lugar de cultivo es la sangre)
O (el laboratorio ha intentado que el organismo se desarrolle sin la presencia del aire (anaeróbicamente)
Y (el organismo fue capaz de desarrollarse anaeróbicamente)
Entonces (hay evidencias de que el organismo es aerobio (.5) O anaerobio (.2).

Las premisas serán verdad si todos los hechos son verdad.

Factor de certeza.

En general:
Si (contexto-parametro-valor (FC1)) y/o (contexto-parametro-valor (FC2)) y/o…….
Entonces (contexto-parametro-valor (FC)).

Min(FC1, FC2,….) = RC*FC

Si la regla no venia arrastrando ningún valor de certeza entonces RC se colocara como su factor de certeza (FC) , si ya tenia con un valor IC. Se calculara el FC actual.

RC, IC>FC = IC + |RC| (1- |IC|) 0

RC, IC<FC = -(|IC| + |RC| (1- |IC|)) 0

IC + RC
<Fc = —————- RC . IC 0
1 – min(|IC|, |RC|)

La combinación de –1 y 1 se define como 1.

Este método del facto de certeza permite que el sistema se pueda enfrentar al razonamiento de juicios.

Estructura de control dependiente del dominio

El orden de las reglas no es significativo se aplican todas las reglas relevantes hasta que una determinada consigue un objetivo con certeza, en cuyo caso el resto de las reglas se ignora. La relevancia de una regla se define por la estructura del control dependiente del dominio, la cual se organiza como un árbol de contexto donde se organizan los hechos de la BC en una jerarquía, y se utiliza para definir el flujo de la consulta. Las reglas se agrupan en conjuntos de reglas definidas por el conjunto de tipos de contexto de aplicación de las mismas (una regla siempre se refiere a un determinado tipo de contexto).

Obtención de información a partir del usuario.

Las preguntas se hacen o bien cuando fallan las reglas o bien cuando la información ha de provenir del usuario (ejemplo: datos de laboratorio). Se puede reelaborar una pregunta y permite diferentes conjunto de preguntas para usuarios con experiencia y sin ella, y se basa en la propiedad de “preguntar – primero”, el sistema siempre procura primero obtener el valor de un parámetro a partir del usuario.

El diseñador debe proporcionar un medio aceptable de comunicación con el usuario, MYCIN no fue totalmente satisfactorio en ese aspecto, lo cual se resolvió en ONCOCIN.

Facilidades de explicación

MYCIN como muchos otros SE tienen la facilidad de explicar y justificar su funcionamiento, lo cual es útil para funciones educativas. En cualquier momento el usuario puede preguntarle “como” o “porque” , tomo tal decisión. Esto es a través de reglas

Ejemplo:
Si “está nublado” entonces “va a llover”
“Si “va a llover” entonces “coger la capa”

Ahora se le puede pregunta al sistema:
Porque “coger la capa”?
Porque “está nublado” y “va a llover”.

Los SE son el resultado de una serie de consultas entre los constructores del sistema y expertos en el dominio de conocimiento de interés. Este proceso es laborioso y propenso a errores. Los expertos saben normalmente, más de lo que piensan y no siempre pueden expresar fácilmente sus procesos de razonamiento

Ahora veremos un ejemplo muy sencillo de sistema experto

Como ya sabemos los Sistemas Expertos, constan de:
1. Una base de hechos (BH).
2. Una base de conocimientos (BC).
3. Una máquina o motor de inferencias (MI).

Programa de ejemplo (TINAS)

¿Conocen el problema de las tinas?

Se tienen dos tinas, una de 3 gls y otra de 4 gls, ambas vacías y una pila o llave de agua, para ir llenándolas. Se quiere dejar dos galones en la tina de 4 gls, ejecutando las acciones de llenar una tina, vaciar una tina en la otra y botar el contenido de una tina.

(La tina es un recipiente para contener agua)

Aquí les va el programa en Python.

Programa TINAS

#Base de hechos

x=0

y=0

#Maquina de inferencia

for i in range(1,15):

if y==2:

print “Solucion satisfactoria: Hay dos galones en la tina de 4”

break

#Base de conocimientos
#Regla 1:
if x==0 and y==0:

x=3

y=0

print “Llenar la tina de 3 galoes (3,0)”

#Regla 2:
elif x==0 and y==0:

x=0

y=4

print “Lenar la tina de 4 galones (0,4)”

#Regla 3:
elif x==3 and y==0:

x=0

y=3

print “Vaciar la tina de 3 gls en la de 4 gls (0,3)”

#Regla 4:
elif x==0 and y==4:

x=3

y=1

print “Vaciar la tina de 4gls en la tina de 3gls (3,1)”

#Regla 5:
elif x==0 and y==3:

x=3

y=3

print “Llenar la tina de 3gls (3,3)”

#Regla 6:
elif x==3 and y==1:

x=0

y=1

print “Botar el contenido de la tina de 3gls (0,1)”

#Regla 7:
elif x==3 and y==3:

x=2

y=4

print “Vaciar la tina de 3gls en la de 4gls (2,4)”

#Regla 8:
elif x==0 and y==1:

x=1

y=0

print  “Vaciar la tina de 4gls en la de 3gls (1,0)”

#Regla 9:
elif x==2 and y==4:

x=2

y=0

print “Botar el contenido de la tina de 4gls ((2,0)”

#Regla 10:
elif x==1 and y==0:

x=1

y=4

print “Llenar la tina de 4gls (1,4)”

#Regla 11:
elif x==2 and y==0:

X=0

y=2

print “Vaciar la tina de 3gls en la de 4gls (0,2)”

#Regla 12:
elif x==1 and y==4:

x=3

y=2

print “Vaciar la tina de 4gls en la de 3gls”

#No hay solución

else: print “Solucion no encontrada”

Resultado

(se comenzó llenando la tina de 3 galones)

Llenar la tina de 3 gls (3,0)

Vaciar la tina de 3 gls en la de 4 gls (0,3)

Llenar la tina de 3gls (3,3)

Vaciar la tina de 3gls en la de 4gls (2,4)

Botar el contenido de la tina de 4gls ((2,0)

Vaciar la tina de 3gls en la de 4gls (0,2)

Solucion satisfactoria: Hay dos galones en la tina de 4

Observen que el programa consta de una base de hechos, una máquina de inferencia y una base de conocimientos, compuesta por 12 reglas. Noten que las reglas impares se refieren a comenzar llenando la tina de 3 gls y las reglas pares son para el llenado de la tina de 4 gls.

La máquina de inferencia, lo único que hace es recorrer todas las reglas y en caso de que se llegue a la solución detiene el proceso.

La base de hechos inicializa los hechos (pone en cero las variables) y prepara las condiciones para la interfaz con el usuario.

Es bueno destacar que la base de conocimientos (BC) y la máquina de inferencias (MI) están separadas lógicamente (usted puede seguir agregando reglas sin que esto afecte la ejecución del programa), pero físicamente están unidas dentro del mismo programa. En la practica la BC y la MI deben estar separadas lógica y físicamente.

Sistemas Expertos

Sistema-Experto

Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada.

Disponible en Amazon (kindle)

Ver colección de libros sobre Python

 

Introducción a los sistemas expertos

Sistema-Experto
Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos (Inteligencia artificial, el futuro del hombre), etc.

No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial los “Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada, la idea no es sustituir a los expertos, sino que estos sistemas sirvan de apoyo a los especialistas en un “dominio” de aplicación específico.

Estos sistemas expertos son en lo esencial sistemas de computación basados en conocimientos cuyos componentes representan un enfoque cualitativo de la programación. Muchas personas pueden creer que un Sistema Experto (SE) es un sistema compuesto por subsistemas y a su vez estos por otros subsistemas hasta llegar a los programas, y que los SE se miden por la cantidad de programas que contienen (Características de los sistemas expertos). Sin embargo la cantidad no es lo que prima en los SE, si no la cualidad del mismo, esta cualidad está dada por la separación de las reglas que describen el problema (Base de Conocimientos), del programa de control que es quien selecciona las reglas adecuadas (Motor de inferencias).

Podemos decir que un Sistema Experto es una Base de Conocimientos (BC), una Base de Hechos (BH) y un Motor (o Máquina) de Inferencias (MI). Por otra parte estos sistemas no se miden por la cantidad de instrucciones o programas sino por la cantidad de reglas que hay contenida en su Base de Conocimientos (¿Cuáles son los componentes de un sistema experto?)

Para desarrollar los sistemas expertos primero es necesario abordar un área de interés, dentro de esta área se seleccionan a los expertos, que son los especialistas capaces de resolver los problemas en dicha área. Por ejemplo el área de interés de las empresas de proyectos, son precisamente los proyectos y un especialista podría ser un arquitecto, un ingeniero civil, etc. Ahora bien, casi siempre estos especialistas, son expertos en un dominio específico y es sobre este dominio, donde poseen su mayor experiencia (Dominio de Experticidad), por ejemplo un Ing. civil especializado en cimientos.

Una vez seleccionado al experto o a los expertos y estos estén de acuerdo en dar sus conocimientos, comienza a jugar su papel el “Ingeniero de Conocimientos”, que es el encargado de extraerle los conocimientos al experto y darle una representación adecuada, ya sea en forma de reglas u otro tipo de representación, conformando así la base de conocimientos del sistema experto.

Formas de representación de los conocimientos:
Reglas de producción
Redes semánticas
Marcos (Frames).

La forma de representación más usada es por reglas de producción, también llamadas reglas de inferencias. Casi todos los sistemas expertos están basados en este tipo de representación, ahora nos ocuparemos de los sistemas basados en reglas (Conceptos básicos sobre sistemas expertos).

Las reglas de producción son del tipo:
SI Premisa ENTONCES Conclusión (SI A ENTONCES B).

Donde tanto las premisas como la conclusión, no son más que una cadena de hechos conectados por “Y” o por “O”, de forma general sería:

SI Hecho1 Y/O Hecho2 Y/O… HechoN ENTONCES Hecho1 Y/O … HechoN

Los hechos son afirmaciones que sirven para representar conceptos, datos, objetos, etc. Y el conjunto de hechos que describen el problema es la base de hechos.

Ejemplo de hechos:
Juan es un estudiante
Juan tiene 8 años
el perro es blanco
a María le gusta el cine
Pedro prefiere la película
la edad de Luis es de 25 años
Pedro tiene un salario de 200 pesos

Una regla es una combinación de hechos que permite representar conocimientos y sacar inferencias de los mismos.

Ejemplo de reglas:

R1: SI Juan es estudiante Y Juan tiene 8 años Entonces Juan estudia en la primaria.

R2: SI el perro es blanco Y el perro se llama Dinky ENTONCES el perro es de Juan.

R3: SI a María le gusta la película Y Juan prefiere la pelota ENTONCES hacen falta dos televisores

Observe como partiendo de hechos conocidos que describen algún conocimiento se pueden inferir nuevos hechos (nuevos conocimientos), por otra parte la regla #2 (R2), no tiene porque ser totalmente cierta, existe la posibilidad de que el perro sea de Juan, quizás se puede afirmar, si fuéramos a cuantificar esa posibilidad, que el perro pertenece a Juan con una certeza de un 80%, y por último la regla #3 (R3) es dependiente del contexto, ya que aquí se supone que ambos viven juntos y que los programas de TV coinciden (El conocimiento incierto en los sistemas expertos)

La Base de Conocimientos (BC). Son el conjunto de reglas que permiten representar los conocimientos del dominio de experto donde cada regla aisladamente tiene significado propio. Normalmente los conocimientos son de tipo declarativo por lo cual la BC casi siempre es una descripción de los conocimientos del experto, por lo tanto requiere de algún mecanismo que obtenga las inferencias adecuadas para resolver el problema, alguien que seleccione las reglas y las vaya ejecutando, ese alguien es el motor de inferencias.

El Motor de Inferencias (MI) es un programa de control cuya función es seleccionar las reglas posibles a satisfacer el problema, para ello se vale de ciertas estrategias de control sistemáticas o de estrategias heurísticas (.

Estrategias de control sistemático:
Encadenamiento hacia adelante o hacia atrás.
Búsqueda en profundidad o a lo ancho.
Régimen de control irrevocable o por tentativa.

Estas estrategias son de forma sistemática las cuales deben llevar a la solución del problema. Podemos decir que el control sistemático es un programa de control hecho de forma “algorítmica” que aplican una heurística de propósito general cuya función es una exploración exhaustiva y metódica de la base de conocimientos (Sistema experto. La búsqueda de solución).

Estos mecanismos de control son muy generales y a veces resultan ineficientes ya que siguen una secuencia de búsqueda demasiado rígida, para resolver esto se idearon las estrategias de control heurísticas.

Las estrategias de control heurísticas son programas de control que utilizan una heurística más específica y su función es una selección más restringida orientada por las necesidades del problema. Estas estrategias actúan sobre el control sistemático y en ciertos casos toma el control y dirige la búsqueda hacia ciertos criterios rompiendo así el control sistemático, una vez logrado su objetivo le devuelve el control nuevamente al sistemático.

Estrategias de control heurísticas:
Orden de las reglas.
Mayor credibilidad en las reglas.
Menor número de cláusulas no instanciadas.
Mayor número de conclusiones en las reglas.

Podemos decir que un sistema experto, es un sistema informático que utiliza técnicas apropiadas para la representación de conocimientos y la manipulación de este, de forma tal que exhiba el comportamiento de un avezado especialista en un determinado dominio del saber.

 

Sistemas Expertos

Sistema-Experto

Durante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada.

Disponible en Amazon (kindle)

Ver colección de libros sobre sistemas expertos

¿Estamos preparados para el surgimiento de una inteligencia artificial superior a la humana?

Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “Inteligencia artificial, el futuro del hombre”.

Singularidad tecnologica

Idea de una singularidad tecnologica se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes

También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.

Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más “inteligente”, y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?

Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; medio máquina, medio humana, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa “cosa” llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana: “La Singularidad está cerca. Cuando los humanos trascendamos la biología”.

.

Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un “despertar” como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de “emergencia”, esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia “emergente” donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de “conocimientos” hasta llegar a despertar como una entidad inteligente.

Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a “pensar”? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?
Mientras los filósofos y sociólogos parecen haber llegado a un callejón sin salida y hablan del fin del romanticismo social y de la muerte de las verdades absolutas. Los nuevos cibernéticos proponen una nueva “ideología” que vendrá a salvar al mundo: la ideología de las máquinas como herederas del hombre o de la convergencia entre humanos y computadoras, donde se plante la fusión entre el árbol evolutivo de los seres vivos y el de las máquinas.

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.

El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma:
Tendrá superinteligencia cualquier intelecto que se comporta de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:

  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico

Esta definición deja abierta la forma como se implementa esa superinteligencia Artificial: una computadora digital

  • Colectiva: una red de computadoras
  • Biológica: cultivo de tejidos corticales
  • Hibrida: fusión entre computadoras y humanos

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.
A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Caminos hacia la singularidad

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.

Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030 (Los caminos hacia la singularidad tecnológica).

  1. Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  2. Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  3. Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  4. La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia “emergente” que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.

Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las máquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el “original” en todo caso igualarlo.

La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más “creativa”, no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).

Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: “La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)”.

Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos “equivalentes humanos” podrían ser usados nada más que para procesamiento digital de señales. Y agrega: “para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)”.

La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.
La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma y dará a lugar a una superinteligencia artificial y la incluyo dentro de una visión racionalista

La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida y la considero como parte de la vision transhumanista

En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, prefiero utilizar superinteligencia global, la cual la incluyo dentro de la visión transdisciplinar.

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica y se puede incluir dentro de la visión transhumanista.

Las visiones que sustentan a las superinteligencias

Cuando en los 80s se hablaba de una IA que igualará la inteligencia humana se pensaba en los programas que la hacían funcionar, hoy se piensa en la cantidad, la velocidad, la capacidad y la integración de los dispositivos del hardware. En un futuro, se pensara en los procesos evolutivos que se producen producto de la interacción de las máquinas con el entorno y en la auto organización que se irá alcanzando. Ha sido la singularidad tecnológica la que ha retomado la idea de una inteligencia artificial que iguala y luego supera a los humanos y ante los peligros de una super IA ha surgido un nuevo tema de investigación, el desarrollo de una IA avanzada beneficiosa que responda a los intereses humanos.

Hoy el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar. No obstante los riesgos, cada vez se propaga más, en los jóvenes, la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista. Se asume que la única posibilidad de construir una inteligencia artificial es desde la visión tecnologista-racionalista y se ignoran otras visiones.

En el paradigma mecanicista todo está determinado y en el neo mecanicista (al existir la emergencia) ya todo no esta tan definido y no es el programa y su representación en símbolos sino la velocidad, su aceleración y las conexiones que se producen, lo cual lleva a Moravec a pensar que las super IAs se producirán independientemente de los humanos, una vez que el hardware logre igualar o superar al cerebro humano, entonces, las máquinas podrán autoprogramarse y hacerse cada vez más inteligentes.

Estamos ante el surgimiento de la era de las tecnologias, que ha traído como consecuencia la aspiración a construir una inteligencia sobrehumana desde tres grandes visiones: visión racionalista, visión transhumanista y la visión transdisciplinar. La racionalista y la transhumanista forman parte del paradigma mecanicista (y neo-mecanicista). La visión transdisciplinar la defino como parte del paradigma de la complejidad y de las nuevas tendencias que están surgiendo dentro de la IA, principalmente, de las investigaciones de la ciencia de la complejidad y de otras líneas de investigación como la inteligencia colectiva y el cerebro global así como de la cosmovisión de la complejidad.

Visión racionalista se soporta sobre la idea de que es posible construir una superinteligencia superior a la humana, como ya vimos en la singularidad tecnolgica, la misma se va construyendo fuera del contexto humano aunque si, en muchos casos en un contexto virtual o digital (la IA se está construyendo en la nube) en este caso la IA nace y crece en un mundo digital, que al final será el destino de la humanidad (la poshumanidad). Esta es la vision predominante y es defendida por Kurzweil, Moravec, Mimsky, entre otros.

Alternativas a la visión racionalista-tecnologista

  • Vision transhumanista. Ante el surgimiento de una super IA, la mejor opción es mejorar a los humanos por medio de las tecnologias. La fusión entre humanos y tecnologias para convertirse en superhumano capaz de enfrenta a la super IA
  • Vision sostenible o bioconservadora. Tener bajo control la construccion de la que no debe pasar de ser una aplicacion (infraestructura) que se subordina totalmente a los humanos y caso de riesgo se debe prohibir.
  • Visión transdisciplinar (de la complejidad). La IA se integra al entorno humano e interactúa de forma colaborativa con las personas de forma abierta, donde tanto humanos como tecnologías deben mejorarse buscando ser cada vez más inteligentes y sabios.

Siempre he dicho que me inclino por la vision transdisciplinar y las diferentes vias que existe para lograr una inteligencia artificial avanzada siendo mi interes el desarrollo de una inteligencia artificial colaborativa que busca la colaboración entre humanos e inteligencias artificiales y que dada su interacción se vayan haciendo más inteligentes donde la IA se construye de forma abierta y es capaz de aprender de la relación con las personas y en la que ambos no solo superan la inteligencia  humana sino que alcanzan juntos la sabiduria, que tanta falta le hace a la humanidad.

Libro recomendado: Inteligencia artificial, el futuro del hombre

 

¿Qué es la inteligencia artificial general?

Ben Goertzel uno de los artifices de la inteligencia artificial general

La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte  dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.

Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.

Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

¿Por qué Inteligencia Artificial General?

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG).

La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana (Ver el libro: Artificial General Intelligence )

El evento principal donde se discute el tema de una IA general son las conferencias AGI que desempeña un papel importante en este resurgimiento de la investigación en inteligencia artificial en el sentido más profundo del término original de la “inteligencia artificial”. Las conferencias buscan alentar la investigación interdisciplinaria sobre la base de diferentes concepciones de la inteligencia, y la exploración de diferentes enfoques.

Los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Un poco de historia

Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).

Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI)

Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.

Una vez hecha la aclaración de términos comencemos con el artículo, que es una selección actualizada de otros artículos publicados en este sitio.

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Qué es la IA general

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
    • Asume un punto de vista holístico o integral de la inteligencia
    • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.

Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).

La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teórica en tres campos

  • Una teoría de la inteligencia,
    • Un modelo formal de la teoría,
    • Una implementación computacional del modelo.

El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)

La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible.

 

 

Bill Joy y la necesidad de una cosmovision del futuro

Fritjof Capara, el mejor representante de una cosmovisión de la complejidad

“Si pudiéramos ponernos de acuerdo, como especie, sobre lo que queremos, adónde fuimos encaminados, y por qué, entonces podríamos hacer mucho menos peligroso nuestro futuro –entonces podríamos entender a qué podemos y deberíamos negarnos” (Bill Joy).

Si no estamos de acuerdo con el mundo actual, es que de alguna forma tenemos una idea de cómo debería ser (es porque estamos consciente de que algo no funciona bien y que tenemos alguna idea de cómo podría funcionar mejor).Bill Joy en su artículo“Porqué el futuro no nos necesita” de alguna forma nos deja ver su idea de los problemas actuales y hacia dondedeberíamos ir y de alguna manera nos trasmite su cosmovisión sobre el futuro.

Tener una valoración realista del futuro no es fácil o estamos influenciados por las tecnoutopías y su visión tecnocentrista o estamos influidos por la sostenibilidad y su visión ecocentrista. En ambos casos sobrevaloraremos una y descartaremos la otra. Necesitamos de una valoración realista del futuro que nos espera. Aunque todo indica que vamos hacia un futuro poshumano dentro una cosmovisión tecno-liberal.

Las cosmovisiones

 Para Bill Joy: El sueño de la robótica es, primero, que las máquinas inteligentes puedan hacerel trabajo por nosotros, permitiéndonos tener vidas de ocio, devolviéndonos al Edén.Sin embargo, en su historia de estas ideas, Darwing among the Machines, GeorgeDyson [Reading, Addison-Wesley, 1997] advierte: ”En el juego de la vida y la evolución hay tres jugadores en la mesa: seres humanos, naturaleza y máquinas. Estoyfirmemente del lado de la naturaleza. Pero la naturaleza, sospecho, está del lado delas máquinas’.’

Estamos ante la relación humanos – naturaleza – tecnologías. ¿De parte de quien estamos?

Para ello partimos de las cosmovisiones originarias

  • Las leyes de la naturaleza
  • La obediencia a un dios todo poderoso
  • La razón humana como la fuerza motriz

Y llegamos a las cosmovisiones actuales  basada en larelación humanos – naturaleza – tecnologías (se agregan las cosmovisiones mercocentristas y sociocentristas)

  • Humanos (cosmovisión antropocentrista) àcosmovisión mercocentrista (por su carácter individualista) / cosmovisión sociocentrista (por su carácter socialista)

El ser humano no pudo aceptar la responsabilidad de ser el centro del universo y tuvo que apoyarse en alguna fuerza externa que lo apuntalara, en el mercocentrismo en la ley del mercado y el sociocentrismo en el control del estado.

  • Naturaleza (cosmovisión cosmocentrista) àcosmovisión ecocentrista

El ecocentrismo vino en defensa de la naturaleza ante la explotación despiadada de los recursos naturales y el deterioro del planeta debido tanto al mercocentrismo como al sociocentrismo.

  • Tecnologías (cosmovisión teocentrista) àcosmovisión tecnocentrista

Las tecnologías vienen a sustituir la cosmovisión teocentrista de un dios todo poderoso que es el dueño del destino de la humanidad por las tecnologías como las nuevas dueñas del destino humano.

Hoy nuevas cosmovisiones parecen resurgir del antropocentrismo:

  • Eco-antropocentrismo – Desarrollo sostenible
  • Tecno-antropocentrismo – Transhumanismo
  • Neo-antropocentrismo – Cosmovisión de la complejidad

Todo indica que el futuro apuesta por alguna forma de integración entre humanos y tecnologías, sin dudas vamos a la sinergia humanos-tecnologías.

Veamos lo que dice Bill Joy respecto a las cosmovisiones, aunque no las defina como tal.

A lo que Bill Joy dice: “En el despertar de nuestras sociedades, los hombres veían su paso por la Tierrasólo como un laberinto de dolor, al final del cual se erguía una puerta que conducía,a través de la muerte, a la compañía de dioses y a la Eternidad”(cosmovisión teocéntrica).Y agrega: “Con los hebreos ydespués los griegos, algunos hombres se animaron a liberarse de las demandasteológicas y soñar una Ciudad ideal donde la Libertad florecería(cosmovisión antropocéntrica). Otros, percibiendola evolución de la sociedad de mercado, comprendieron que la libertad de algunosconllevaría la alienación de otros, y persiguieron la Igualdad” (cosmovisiones merco-céntricas y socio-céntricas).

De acuerdo a lo que decíamos arriba sobre como las cosmovisiones fueron sucediéndose unas a otras.

“Ciertamente, necesitamos encontrar desafíos consistentes y suficientes camposde libertad en nuestras vidas si vamos a ser felices en lo que sea que nos espera. Pero creo que debemos encontrar vías de escape alternativas para nuestras fuerzas creativas, más allá de la cultura del crecimiento económico perpetuo (cosmovisión mercocentrista); este crecimientoha sido una gran bendición por varios cientos de años, pero no nos ha dado unafelicidad carente de impurezas, y ahora debemos elegir entre perseguir un crecimientoirrestricto y sin dirección a través de la ciencia y la tecnología y los claros peligros que acompañan a esto” (Bill Joy).

Es que el ser humano abandonó el antropocentrismo al carecer de una fuerza interior que lo guiara y al final recurrió a fuerzas externas a las cuales le entregó, nuevamente, el control de su vida: merco-centrismo (la ley del mercado), socio centrismo (control del estado), tecno centrismo (subordinamiento a las tecnologías).

“Esto cristalizó el problema que me producía el sueño de Kurzweil. Un acercamiento tecnológico a la Eternidad –semi-inmortalidad a través de la robótica– quizás nosea la utopía más deseable, y su búsqueda conlleva grandes peligros (cosmovisióntecnocéntrica). Quizás debamosrepensar nuestras elecciones utópicas” (Bill Joy)

Aunque Bill Joy no especificó las cosmovisiones yo las  incluyo entre paréntesis, para su mejor comprensión.

Ahora que: ¿qué alternativas tenemos? (ver “El gran desafío de la humanidad“)

 “Jacques me ayudó a entender cómo estas tres diferentes metas utópicas (cosmovisiónteocéntrica, cosmovisiónantropocéntrica y cosmovisionesmercocéntrica y sociocéntrica) hoycoexisten en tensión en nuestra sociedad. Sigue adelante para describir una cuarta utopía, Fraternidad, cuya base es el altruismo. La Fraternidad en sí asocia la felicidadindividual a la felicidad de los otros, haciéndose cargo de la promesa de autosustentamiento” (Bill Joy) (cosmovisión neo-antropocéntrica).

Escenarios futuros y sus cosmovisiones

1.-Probables. Asumen posiciones más realistas (caráctersocioeconómico o individual)

  • Tecno-liberalismo – Tecno mercocentrismo. Ley del mercado (capitalismo tecnológico)
  • Tecno-democracia – Tecno antropocentrismo. Transhumanismo racional de carácterdemocrático (social democracia tecnológica)
  • Eco-social – Eco sociocentrismo o Eco-antropocentrismo. Desarrollo sostenible (socialismo ecológico).

2.-Utopicos. Asumen posiciones místicas (carácter religioso)

  • Tecnologismo – Tecno centrismo (tecno-religión). Superinteligencias: artificiales, globales, hibridas y biológicas
  • Ecologismo – Ecocentrismo (cosmo-religión)
  • De la complejidad – Neo-antropocentrismo (holismo). Siguiendo a Morin se producirá una metamorfosis de la humanidad.

De seguir el mundo su curso y mantenerse dentro del paradigma actual (mecanicista) los escenarios más probables serán los siguientes.

Escenario tecno-liberal: Todo indica que el escenario más probable es el tecno-liberal,o sea una forma de poscapitalismo de carácter tecnológico donde la ley del mercado lleva a los humanos a ser cada vez más eficientes para tener mayores ganancias, por lo que inevitablemente se inclinaran hacia el transhumanismo (el ideal del superhumano), donde las tecnologías se fusionarán con los humanos en aras de una economía y de un humano eficiente. Las maquinas se irán integrando a la economía capitalista y responderán a los intereses del mercado y según se hagan más inteligente se convertirán en otro competidor.

Escenario eco-social: Su eterno rival el socialismo, un poco para oponerse al capitalismo tecnológico se integraran al ecologismo y asumirá la posición de un socialismo ecológico como su variante principal.Las tecnologías siempre deben estar en función de los intereses humanos y regulados por estos. Deben priorizarse las tecnologías renovables y prohibirse aquellas que representan algún tipo de riesgo (principio de precaución)

Escenario tecno-democracia: Una versión menos radical que las anteriores sería una tecno social democracia, que apostara por un transhumanismo democrático, guiado por la razón donde el ser humano siempre sabe lo que lo conviene (tecno-antropocentrismo) y que los riesgos serán evitados. El humano se irá mejorando por medio de las tecnologías, mejoras moderadas: mejorar la salud, la inteligencia, la belleza, etc.,sin deteriorar el planeta, ni aumentar las desigualdades.

Otros escenarios menos probables, ya que implican un cambio del paradigma actual (lo cual no es imposible), a los que le damos un carácter de utópico.

Escenario tecnologista: Solo las tecnologías nos pueden salvar, las que se convertirán en una superinteligencia: robots y programas, que serán capaces de reconstruir a los humanos y al planeta.

Escenario ecologista, El progreso humano es independiente de las tecnologías, estas más bien lo que hace es alejarlo de su espiritualidad. Las tecnologías deben ser limitadas o prohibidas, el ser humano debe retornar a la religión, a la naturaleza o a una sociedad más simple y abandonar su modo de vida actual consumista, hedonista e irresponsable (ecocentrismo).

Escenario de la complejidad: La cosmovisión de la complejidad, es la única cosmovisión que tiene una visión transdisciplinar en la que cada enfoque es independiente y ha sido desarrollado por especialistas de diferentes ramas, pero desde una misma cosmovisión (la complejidad). Su fuerza radica en la interrelación entre sus diferentes enfoques, en su diversidad y su profunda comprensión de los problemas contemporáneos y de la solución específica a los problemas desde una cosmovisión integral (sistémica) que mantiene en constante interacción entre los diferentes enfoques.

Bill Joy habla de repensar nuestras elecciones utópicas y la alternativa que tenemos de una nueva utopía basada en la fraternidad y el altruismo (y no en la razón como sucedió con el antropocentrismo), estamos pensando en un nuevo antropocentrismo (cosmovisión de la complejidad) que nos lleve a la colaboración en lugar de a la competencia y el control actual, que permite el desarrollo de los verdaderos valores humanos que deje atrás al individualismo y al racionalismo (paradigma mecanicista) y que nos lleve a una nueva forma de pensar, de ver al mundo y vernos a nosotros mismos.

Los críticos de Bill Joy se concentran en las cosas a las que él se opone y lo tildan de neo-ludita en lugar de analizar las alternativas que ofrece como cosmovisión, y no se dan cuenta de que se está construyendo una cosmovisión compartida, hoy una utopía pero mientras más personas crean en ella ira dejando de ser una utopía. Se hace necesario sentar las bases de esa nueva utopía, En lugar de buscar diferencias y contradicciones debemos buscar los puntos que nos unen y no integran en la búsqueda de soluciones. Tenemos que desarrollar una nueva cosmovisiónque se sustente en el paradigma de la complejidad, de alcance transdisciplinar; que permita desarrollar no solo las facultades físicas (tangibles) sino también las facultades ocultas en lo más profundo del SER. Sin dudas es una utopía y solo una inquebrantable fe en el potencial humano, en su grandeza espiritual y en un fuerte compromiso consigo mismo como especie en evolución, podrá lograr que sigamos existiendo y progresando como seres humanos.

 

 

Libros publicados hasta la fecha

Estos son todos los libros que tengo publicados hasta la fecha

Inteligencia artificial, el futuro del hombre

IA_futuro_del_hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”. Leer más

 

El gran desafío de la humanidad

El libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.

Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Leer más

Zaida, cuentos de ciencia ficción

Zaida-33

Zaida es una selección de cuentos cortos de ciencia ficción donde los temas van desde mundos virtuales, en el que cada personaje busca la felicidad que no encuentra en su vida real, o la desdicha de un paria o la crítica a una sociedad de consumo. No escapa a una sátira sobre las leyes de la robótica o al humor de contagio, un ser traumatizado lleno de complejos y de odio hacia la humanidad. Así como la reflexión sobre dos vidas párelas que transcurren al mismo tiempo entre dos personas con estatus social totalmente diferente, donde las comodidades de una casa inteligente contrastan con la vida miserable de un ser sin esperanza. Leer más

 

Crisis en el siglo XXI

Crisis_en_el_siglo_xxi

Una de las mayores amenazas que enfrenta la humanidad consiste en la degradación del planeta y los efectos que se están produciendo por las acciones humanas dada su actitud irresponsable con la naturaleza. El libro comienza con el cuestionamiento realizado por Bucky Fuller: “El desafío: Si el éxito o el fracaso del planeta y de los seres humanos depende de cómo soy y lo que hago… ¿Cómo sería yo? ¿Qué haría yo?”.

A lo largo del libro en sus cuatro capitulo se reflexiona sobre los desafíos que enfrentamos y las crisis que se han producido y que se tornarán cada vez más compleja durante el siglo XXI. Leer más.

Cosmovisión poética

Cosmovision

Es una obra donde la melancolía se funde con el universo, donde las tardes cuentan su historia y la luz brota de un alma solitaria azotada a veces por la lluvia, otras por el frió del olvido o por las sombras que amenazan una existencia agonizante.
Siempre desde la nostálgica visión de un mundo que se desconfigura que se vuelve cada vez más ajeno y distante, ante un alma que crea su propia visión y busca abrirse a la naturaleza y compartir su dolor con las estrellas.
Un alma a la que nada consuela y que vaga por el mundo componiendo sueños que viajan con el viento que levantan olas y que arrastran desamores, angustia y una infinita tristeza que se pierde más allá del crepúsculo. Leer más.

 

Sistemas Expertos

Sistemas ExpertosDurante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada. Leer más.

 

El futuro no nos necesita: Riesgos existenciales (2)

van_rensselaer_potter

Van R Potter el padre de la Bioética

“Las tecnologías del siglo XXI –genética, nanotecnología, y robótica (GNR)– son tan poderosas que pueden impulsar casos enteramente nuevos de accidentes y abusos. Todavía más peligroso: por primera vez estos accidentes y abusos están al alcance de individuos o grupos reducidos. No requerirán gran infraestructura ni materiales con complicaciones. El conocimiento bastará para poder usarlas” (Bill Joy)

 

Queremos construir una inteligencia artificial (IA) alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las máquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

¿Cuáles son los intereses humanos? 

  • La destrucción (por negligencia) del planeta.
  • Las guerras por disimiles fines, pero guerras al fin.
  • La lucha por la hegemonía.
  • El control de los recursos del planeta.
  • Los conflictos territoriales.
  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

En realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA sobrehumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?

  • Lo hará más rico y poderoso (IA como producto o servicio)
  • Lo hará más inteligente y sabio (IA como colaborador)
  • Lo hará inmortal (IA como rediseñadora de los humanos)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses. Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

Las posiciones ante el desarrollo de una IA avanzada

  1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir, el tiempo suficiente, para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo). Visión tecnologista
  2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos. Visión economicista
  3. Construir una IA alineada con los intereses sociales (¿de cada tipo de sociedad?), que esté bajo control de las instituciones: científicas, económicas, políticas. Por lo que siempre estará subordinada a los humanos. Visión social.
  4. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos. Visión transhumanista
  5. Prohibir la IA ante el peligro que destruya a la naturaleza. Visión ecologista
  6. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser más inteligentes y sabios. Visión transdisciplinar

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Con respecto a la inteligencia artificial la preocupación no es por la IA en si misma sino la necesidad de cambiar nuestra mentalidad ante los problemas que enfrenta el mundo actual y que puede desencadenar la destrucción humana. El mensaje consiste en tomar conciencia de los peligros que enfrenta la humanidad

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es un progreso verdaderamente humano

Estamos ante la falta de sabiduría humana para manejarnos con las nuevos conocimientos  (Van R, Potter) y con las nuevas tecnologías

Que significa la falta de sabiduría, sus consecuencias
• Aumento de la desigualdad
• Buscar ganancias a toda costa
• Usar todas las tecnologías en ell ser humano (de forma indiscriminada)
• Fallas en la educación moral

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no y cómo relacionarnos con las super inteligencias artificiales (Inteligencia artificial, el futuro del hombre)

Ahora en bien, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

¿Se puede construir una IA alineada con los intereses humanos?

“Las tecnologías nucleares, biológicas y químicas (NBQ) usadas en las armas de destrucción masiva del siglo XX eran y son más que nada militares, desarrolladas en laboratorios de gobiernos. En abierto contraste, las tecnologías GNR del siglo XXI tienen usos comerciales manifiestos y están siendo desarrolladas casi exclusivamente por empresas corporativas” (Bill Joy).

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en artículos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero, ¿las consecuencias justifican los enormes beneficios potenciales que surgirán?

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. El peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro una transnacional no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre el mercado

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.