¿Estamos preparados para el surgimiento de una inteligencia artificial superior a la humana?

Han pasado 25 años desde que Vinge anunció el surgimiento de una singularidad tecnológica y las superinteligencias, acontecimiento que debería surgir antes del 2030. La pregunta es: ¿Estamos preparados para el surgimiento de una inteligencia superior a la humana. Para dar comienzo a este tema, comenzaremos por publicar las idea sobre la singularidad tecnológica expuestas en el libro: “Inteligencia artificial, el futuro del hombre”.

Singularidad tecnologica

Idea de una singularidad tecnologica se sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes

También se asume que con respecto al software la máquina, también, ha mejorado mucho; en la IA débil ya las maquinas pueden diagnosticar células sanguíneas, guiar misiles de crucero y, por fin, pueden vencer a cualquier jugador de ajedrez. Con respecto al hardware se están investigando tecnologías de circuito que serán un millón de veces más potente que el cerebro humano, aunque para muchos el proyecto más interesante es el de la ingeniería inversa del cerebro humano: escanear el cerebro desde su interior gracias a billones de minúsculos escáner de alta resolución o nanobots que pasarán a través de los capilares.

Los defensores de las máquinas inteligentes van mucho más lejos y sugieren que las propias máquinas construirán computadoras cada vez más inteligentes, ellos parten de la base de un hardware cada vez más potente, aceptan que mientras más capacidad de procesamiento tenga, será más “inteligente”, y quién niega que una máquina inteligente no sea capaz de aumentar las capacidades de las próximas generaciones construyendo máquinas cada vez mejores y así infinitamente, sin que el hombre participe en este proceso. ¿No sería esto el fin de la humanidad?

Hasta hoy se pensaba que la evolución de los seres humanos continuaría siendo un largo proceso evolutivo, que a través de mutaciones nos llevaría a individuos mejores –o peores–. Para otros, este proceso se había detenido y los humanos continuarían siendo los mismos por los siglos de los siglos. Lo interesante es que la discusión no termina ahí, nuevas ideas están surgiendo alrededor del futuro de la humanidad, una de estas teorías es la sustitución del hombre por alguna entidad superinteligente; medio máquina, medio humana, capaz de continuar con el ritmo acelerado de desarrollo industrial, para el cual esa “cosa” llamada humano ha quedado obsoleta. Estas ideas no resultarían tan interesantes de no ser por el hecho de que sus defensores afirman que estamos en la antesala de una nueva era poshumana: “La Singularidad está cerca. Cuando los humanos trascendamos la biología”.

.

Muchos de estos autores ven a las máquinas como inteligencias fragmentadas, que pueden estar conectadas a una red como sistema cooperativo, y que esta conexión las lleve a una forma de organización altamente eficiente, que le permita un “despertar” como una gran inteligencia (sistemas emergentes). Parten del concepto, que en la formación del mundo, como sistema evolutivo, ha tenido gran influencia la noción de “emergencia”, esto es que la integración de elementos que están en un nivel inferior producirá la transformación a un nivel superior, que poseerá nuevas propiedades. El concepto de emergencia plantea cierta indeterminación en el papel de las ciencias relacionadas con el hombre como las psicológicas, sociales y cognoscitivas. En nuestros días se ha puesto nuevamente de moda el concepto de inteligencia “emergente” donde las máquinas producto de su velocidad de procesamiento llegaran a ser capaces de manipular tal cantidad de información con lo cual alcanzarán un nivel creciente de “conocimientos” hasta llegar a despertar como una entidad inteligente.

Conclusión que extraen de la comparación de la evolución de las máquinas con la de los animales: ya que los humanos fueron el producto de una larga evolución desde los organismos unicelulares pasando por los mamíferos hasta llegar al homo sapiens. ¿A partir de qué momento surgió la inteligencia? ¿Por qué no aceptar que las máquinas también son organismos en evolución que puedan llegar a “pensar”? Si aceptamos a la conciencia como la forma de la materia altamente organizada, ¿quién puede negar que las máquinas sean una nueva forma de la materia altamente organizada y que en su proceso evolutivo alcancen niveles de inteligencia incluso superiores a los del hombre?
Mientras los filósofos y sociólogos parecen haber llegado a un callejón sin salida y hablan del fin del romanticismo social y de la muerte de las verdades absolutas. Los nuevos cibernéticos proponen una nueva “ideología” que vendrá a salvar al mundo: la ideología de las máquinas como herederas del hombre o de la convergencia entre humanos y computadoras, donde se plante la fusión entre el árbol evolutivo de los seres vivos y el de las máquinas.

Presupuestos para una singularidad tecnológica

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsará el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a es, a este evento, al que le da el nombre de singularidad.

El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma:
Tendrá superinteligencia cualquier intelecto que se comporta de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:

  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico

Esta definición deja abierta la forma como se implementa esa superinteligencia Artificial: una computadora digital

  • Colectiva: una red de computadoras
  • Biológica: cultivo de tejidos corticales
  • Hibrida: fusión entre computadoras y humanos

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.
A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las maquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y maquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Caminos hacia la singularidad

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. Existen diferentes interpretaciones de la Singularidad de Vinge (la de Kurzweil es una de ellas), así como las vías para alcanzarla, algunas más próximas y evidentes, y otras más lejanas y complejas.

Para Vernor Vinge, la causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana. Y afirma que la ciencia puede lograr esta revolución de diferentes modos, y esta es otra razón para tener confianza en que el evento va a ocurrir. Según su criterio debería ocurrir entre el 2005 y el 2030 (Los caminos hacia la singularidad tecnológica).

  1. Pueden desarrollarse computadoras “conscientes” con una inteligencia equivalente a la humana o superior. (Hoy existe mucha controversia sobre si podremos crear el equivalente a un humano en una máquina, pero si la respuesta es “sí”, entonces quedan pocas dudas de que en seguida podremos construir entidades aún más inteligentes.).
  2. Las grandes redes de computadoras con sus usuarios asociados, pueden despertar como entidades superinteligentes.
  3. Las interconexiones entre humanos y computadoras pueden llegar a tal nivel de profundidad que los que la usen actúen como superinteligencias.
  4. La ciencia biológica puede lograr métodos que mejore el intelecto humano natural.

Las tres primeras dependen de mejoras en el soporte físico (hardware) de las computadoras, el cual ha seguido una curva de crecimiento increíble en las últimas décadas. Por lo que le da más importancia al hardware de la computadora que a sus programas y se concentra en la creación de máquinas inteligentes independientes de si emulan la mente humana (IA débil). Es más, lo dice rotundamente, cuando afirma que existen otros caminos diferentes a la IA para llegar a la superhumanidad y a esta otra aproximación él le llama amplificación de la inteligencia, la cual se está sucediendo de una forma natural, cada vez que se mejora nuestra capacidad para acceder a la información y para comunicarnos. Esto nos lleva a la conclusión de una inteligencia “emergente” que podrá surgir de un momento a otro. Por lo que se desprende que para Vingen la inteligencia en las computadoras va a surgir de forma espontánea y que estará basada principalmente en la velocidad de las computadoras, idea ya antes formulada por Moravec.

Las máquinas inteligentes (concebidas dentro de la IA débil) permiten una serie de conclusiones que serían imposibles dentro de las concepciones de la IA fuerte. Una de las ideas más importantes es la emergencia, las máquinas pueden seguir su propio esquema evolutivo de entidades cada vez más inteligentes hasta llegar a superar la inteligencia humana, sin necesidad de copiar a la mente humana. Si tratáramos de copiar a la mente humana como propone la IA fuerte, esta estaría limitada por la propia inteligencia del hombre, jamás podría ser más inteligente que el “original” en todo caso igualarlo.

La idea de la singularidad como se sustenta sobre la base del hardware, asume que las máquinas superaran al hombre por su rapidez a la hora de pensar, pero no se tiene en cuenta la flexibilidad del cerebro. La idea es muy sencilla, siempre todas las expectativas se han basado en alguna interpretación parcial de algún logro y ahora está en la palestra la posibilidad de que las máquinas de jugar ajedrez superan al hombre, y esto no es porque la máquina pueda ser más “creativa”, no, esto se basa en la velocidad de la computadora (hard) para analizar las posibles variantes y de encontrar la mejor respuesta (claro que esto es heurística pura) y hace rato que la inteligencia artificial desechó la heurística como único método de lograr máquinas inteligentes (Vinge le llama superinteligencia débil a la que se basa únicamente en la rapidez de pensamiento).

Por otra parte, Vingen, considera que el poder y la influencia de Internet están siendo muy poco considerados: “La total anarquía de la red mundial es una evidencia de su potencial. A medida que crecen la conectividad, el ancho de banda, el tamaño de la capacidad de archivo y la velocidad de proceso (su habilidad para comunicarse en anchos de banda variables, incluyendo algunos mucho más elevados que la voz o los mensajes escritos). ¿Qué pasará cuando partes de un ego pueden ser copiadas y unidas a otras, cuando la autoconsciencia puede aumentar o disminuir para aproximarse a la naturaleza del problema bajo consideración? Es algo parecido a una biosfera recapitulada como un procesador de datos, pero un millón de veces más rápida y con millones de humanos como agentes inteligentes (nosotros mismos)”.

Vingen también propone una inteligencia superhumana fuerte, la cual podría parecerse a una Sociedad de la Mente (idea de Minsky) con varios componentes muy calificados, donde algunos de esos “equivalentes humanos” podrían ser usados nada más que para procesamiento digital de señales. Y agrega: “para aquellos que no hayan cambiado (los que decidan seguir siendo humanos) el logro será un trato benigno, quizás dándoles la apariencia de ser los dueños de unos semidioses esclavos (las máquinas superinteligentes)”.

La singularidad tecnológica fue propuesta por Vernor Vinge en 1993, desde entonces ha llovido bastante, y se hace necesario revisar algunos conceptos sobre la singularidad tecnológica y su clasificación como posibles superinteligencias.
La primera vía. El surgimiento de una superinteligencia basada en la idea de que las máquinas dado el crecimiento veloz que tiene el hardware (ley de Moore) tendrán cada vez más capacidad de memoria y más velocidad de procesamiento de la información y llegará un momento en que igualará y luego superará la velocidad del cerebro, este es el principio básico del que partió Vinge, para el surgimiento de una singularidad tecnológica; donde se maneja el concepto de una inteligencia que emerge de forma espontánea y adquiere consciencia de sí misma. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma y dará a lugar a una superinteligencia artificial y la incluyo dentro de una visión racionalista

La segunda proviene de la idea del Ciborg donde se fusiona el organismo humano con los mecanismos cibernéticos. Y es que, la idea de crear una inteligencia artificial partiendo de cero, para muchos resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Resulta obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una inteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas y con ello trascender la condición humana y superar sus límites biológicos y con ello el surgimiento de una nueva inteligencia poshumana, a la que nombro como superinteligencia hibrida y la considero como parte de la vision transhumanista

En tercer lugar la que más se aplica actualmente, y la menos divulgada como posible superinteligencia y surge de las redes cada vez más complejas que se irán conformando debido a la relación entre humanos, y entre humanos y maquinas, en la que Internet está jugando un papel importante dada las aplicaciones en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que está teniendo la Web social y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs, que se podrían ir auto organizando por medio de la Web semántica, conduciéndonos a una superestructura tecnológica de la cual emergerá una superinteligencia, como consecuencia de las complejas conexiones lógicas (y no física), que será producto de la cooperación entre humanos y máquinas. Muchos la conocen como cerebro global, prefiero utilizar superinteligencia global, la cual la incluyo dentro de la visión transdisciplinar.

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, Inteligencia Artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la hibrida, aquí respetando a Vinge, la defino como superinteligencia biológica y se puede incluir dentro de la visión transhumanista.

Las visiones que sustentan a las superinteligencias

Cuando en los 80s se hablaba de una IA que igualará la inteligencia humana se pensaba en los programas que la hacían funcionar, hoy se piensa en la cantidad, la velocidad, la capacidad y la integración de los dispositivos del hardware. En un futuro, se pensara en los procesos evolutivos que se producen producto de la interacción de las máquinas con el entorno y en la auto organización que se irá alcanzando. Ha sido la singularidad tecnológica la que ha retomado la idea de una inteligencia artificial que iguala y luego supera a los humanos y ante los peligros de una super IA ha surgido un nuevo tema de investigación, el desarrollo de una IA avanzada beneficiosa que responda a los intereses humanos.

Hoy el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar. No obstante los riesgos, cada vez se propaga más, en los jóvenes, la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista. Se asume que la única posibilidad de construir una inteligencia artificial es desde la visión tecnologista-racionalista y se ignoran otras visiones.

En el paradigma mecanicista todo está determinado y en el neo mecanicista (al existir la emergencia) ya todo no esta tan definido y no es el programa y su representación en símbolos sino la velocidad, su aceleración y las conexiones que se producen, lo cual lleva a Moravec a pensar que las super IAs se producirán independientemente de los humanos, una vez que el hardware logre igualar o superar al cerebro humano, entonces, las máquinas podrán autoprogramarse y hacerse cada vez más inteligentes.

Estamos ante el surgimiento de la era de las tecnologias, que ha traído como consecuencia la aspiración a construir una inteligencia sobrehumana desde tres grandes visiones: visión racionalista, visión transhumanista y la visión transdisciplinar. La racionalista y la transhumanista forman parte del paradigma mecanicista (y neo-mecanicista). La visión transdisciplinar la defino como parte del paradigma de la complejidad y de las nuevas tendencias que están surgiendo dentro de la IA, principalmente, de las investigaciones de la ciencia de la complejidad y de otras líneas de investigación como la inteligencia colectiva y el cerebro global así como de la cosmovisión de la complejidad.

Visión racionalista se soporta sobre la idea de que es posible construir una superinteligencia superior a la humana, como ya vimos en la singularidad tecnolgica, la misma se va construyendo fuera del contexto humano aunque si, en muchos casos en un contexto virtual o digital (la IA se está construyendo en la nube) en este caso la IA nace y crece en un mundo digital, que al final será el destino de la humanidad (la poshumanidad). Esta es la vision predominante y es defendida por Kurzweil, Moravec, Mimsky, entre otros.

Alternativas a la visión racionalista-tecnologista

  • Vision transhumanista. Ante el surgimiento de una super IA, la mejor opción es mejorar a los humanos por medio de las tecnologias. La fusión entre humanos y tecnologias para convertirse en superhumano capaz de enfrenta a la super IA
  • Vision sostenible o bioconservadora. Tener bajo control la construccion de la que no debe pasar de ser una aplicacion (infraestructura) que se subordina totalmente a los humanos y caso de riesgo se debe prohibir.
  • Visión transdisciplinar (de la complejidad). La IA se integra al entorno humano e interactúa de forma colaborativa con las personas de forma abierta, donde tanto humanos como tecnologías deben mejorarse buscando ser cada vez más inteligentes y sabios.

Siempre he dicho que me inclino por la vision transdisciplinar y las diferentes vias que existe para lograr una inteligencia artificial avanzada siendo mi interes el desarrollo de una inteligencia artificial colaborativa que busca la colaboración entre humanos e inteligencias artificiales y que dada su interacción se vayan haciendo más inteligentes donde la IA se construye de forma abierta y es capaz de aprender de la relación con las personas y en la que ambos no solo superan la inteligencia  humana sino que alcanzan juntos la sabiduria, que tanta falta le hace a la humanidad.

Libro recomendado: Inteligencia artificial, el futuro del hombre

 

Publicado en Cosmovisión compleja, Inteligencia Artificial, Singularidad tecnológica | Etiquetado , , , , , , , | Deja un comentario

¿Qué es la inteligencia artificial general?

Ben Goertzel uno de los artifices de la inteligencia artificial general

La Inteligencia Artificial General (AGI, en inglés) es un intento de retomar la idea de una inteligencia artificial fuerte  dado los nuevos conceptos que ha ido surgiendo en la actualidad, sobre todo las idea del surgimiento de una superinteligencia artificial y de una posible singularidad tecnológica, siendo Ray Kurzweil el punto de referencia de este movimiento.

Haciendo historia, la Inteligencia Artificial (IA) luego de la euforia de sus primeros años, y ante los fracasos de sus pronósticos, siendo el proyecto de quinta generación japonés, uno de los más connotados, se sumergió en una profunda crisis, al extremo que muchos científicos abandonaron su línea de investigación y otros como Minsky, uno de los padres de la IA junto a Mc Carthy, se mostraba molestó ante la falta de apoyo cada vez mayor que estaba sufriendo las investigaciones en la IA.

En su momento los Sistemas Expertos (SE) se convirtieron en la gran esperanza, aunque no fue muy acogida por los teóricos de la IA (algunos le llamaron los hijos bastardos de la IA) si conto con el apoyo financiero y logístico para su despegue y fueron muchos los que pasaron a engrosar las filas de investigadores de este nueva aplicación. De nuevo las expectativas se fueron por encima de la realidad y nuevamente el sentimiento de fracaso invadió a los científicos.

Parecía cuestión de tiempo, que la IA fuera a pasar a un segundo plano y perdiera su influencia como una de las líneas más promisorias dentro de las tecnologías de la información. Para beneplácito de muchos la IA, al igual que la Cibernética está cogiendo un segundo aire

Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte. Es bueno aclarar que para comprender a la IA hay que verla desde tres enfoques: IA fuerte, IA débil y la IA comercial.

La IA fuerte, como ya dijimos en el artículo anterior, está convencida de que la mente humana se puede reproducir en una computadora, la IA débil, se dedica a desarrollar programas que sean capaces de resolver actividades consideradas inteligentes, y no les preocupa que la máquina, como tal, pueda considerarse inteligente; a la IA comercial solo le interesa aplicar las técnicas de la IA en elaborar sistemas que puedan ser comercializados y no le importa si estos simulan o no la inteligencia.

Podemos decir que muchas técnicas, salidas de los laboratorios de la IA, se están aplicando, hoy, en muchos sistemas que ni siquiera se menciona su relación con la inteligencia artificial.

Es bueno destacar que la inteligencia artificial general toma elementos de la IA fuerte y la IA débil, evitando el excesivo optimismo de algunos defensores de la inteligencia artificial fuerte.

¿Por qué Inteligencia Artificial General?

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado ” la IA estrecha”,  la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad  -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto. Cada vez más, hay una llamada a hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general (IAG).

La investigación difiere de la investigación en IA ordinaria haciendo hincapié en la versatilidad y la integridad de la inteligencia, y llevando a cabo la práctica de la ingeniería de acuerdo con un esquema de un sistema comparable, en cierto sentido,  a la mente humana (Ver el libro: Artificial General Intelligence )

El evento principal donde se discute el tema de una IA general son las conferencias AGI que desempeña un papel importante en este resurgimiento de la investigación en inteligencia artificial en el sentido más profundo del término original de la “inteligencia artificial”. Las conferencias buscan alentar la investigación interdisciplinaria sobre la base de diferentes concepciones de la inteligencia, y la exploración de diferentes enfoques.

Los organizadores se plantean la necesidad de volver a los objetivos originales de la IA, mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a una transición a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Un poco de historia

Hoy se habla de inteligencia artificial fuerte (IA fuerte), inteligencia artificial débil (IA débil), super inteligencia artificial (Super IA), inteligencia artificial estrecha (la IA clásica) y la nueva inteligencia artificial general (IA general). Cuando se habla de inteligencia artificial general se hace referencia a una IA de propósito general como una continuidad a la IA clásica (la que fue renombrada como IA estrecha).

Todos vienen del inglés: Strong Artificial Intelligence, Weak Artificial Intelligence, Super Artificial Intelligence, Narrow Artificial Intelligence y Artificial General Intelligence (AGI)

Aun no existe un acuerdo sobre la traducción de la AGI, yo prefiero llamarla Inteligencia Artificial general (IA general), otros nombre son inteligencia general artificial o general inteligencia artificial.

Una vez hecha la aclaración de términos comencemos con el artículo, que es una selección actualizada de otros artículos publicados en este sitio.

En los primeros años de la IA luego del paradigma cibernético con su intento de construir una mente mecánica, le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos, ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifraran los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, es obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

También surgieron los primeros desacuerdos entre los investigadores quienes no se ponían de acuerdo, en, si esa representación simbólica, se basaba en la lógica (la sintaxis, cálculo de predicados) o en la semántica (estructuras semánticas, guiones). Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero, métodos a parte, ambos compartían un sueño: descubrir los programas que hacen funcionar la mente.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Ahora, para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Qué es la IA general

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
    • Asume un punto de vista holístico o integral de la inteligencia
    • Cree que ha llegado el tiempo para construir una IA que sea comparable a la inteligencia humana.

Lo que nos acerca a la idea original de la IA que debido a sus tropiezos se fue separando de esos objetivos. Y retoma la idea de una IA fuerte (ver artículo anterior).

La IA general al igual que la llamada IA estrecha, se propone convertirse en una ciencia exacta y define su línea teórica en tres campos

  • Una teoría de la inteligencia,
    • Un modelo formal de la teoría,
    • Una implementación computacional del modelo.

El último punto me recuerda los laboratorios de IA donde se experimentaba con el mundo de bloques.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)

La IA general, levanta cierto escepticismo, algunos creen que es más de lo mismo y se preguntan ¿Por qué ahora si? ¿Quién sabe?, tal vez se pueda aprender de los errores anteriores o a lo mejor las condiciones tecnológicas han cambiado tanto, que ahora si es posible.

 

 

Publicado en Inteligencia Artificial | Etiquetado , , , , , | Deja un comentario

Bill Joy y la necesidad de una cosmovision del futuro

Fritjof Capara, el mejor representante de una cosmovisión de la complejidad

“Si pudiéramos ponernos de acuerdo, como especie, sobre lo que queremos, adónde fuimos encaminados, y por qué, entonces podríamos hacer mucho menos peligroso nuestro futuro –entonces podríamos entender a qué podemos y deberíamos negarnos” (Bill Joy).

Si no estamos de acuerdo con el mundo actual, es que de alguna forma tenemos una idea de cómo debería ser (es porque estamos consciente de que algo no funciona bien y que tenemos alguna idea de cómo podría funcionar mejor).Bill Joy en su artículo“Porqué el futuro no nos necesita” de alguna forma nos deja ver su idea de los problemas actuales y hacia dondedeberíamos ir y de alguna manera nos trasmite su cosmovisión sobre el futuro.

Tener una valoración realista del futuro no es fácil o estamos influenciados por las tecnoutopías y su visión tecnocentrista o estamos influidos por la sostenibilidad y su visión ecocentrista. En ambos casos sobrevaloraremos una y descartaremos la otra. Necesitamos de una valoración realista del futuro que nos espera. Aunque todo indica que vamos hacia un futuro poshumano dentro una cosmovisión tecno-liberal.

Las cosmovisiones

 Para Bill Joy: El sueño de la robótica es, primero, que las máquinas inteligentes puedan hacerel trabajo por nosotros, permitiéndonos tener vidas de ocio, devolviéndonos al Edén.Sin embargo, en su historia de estas ideas, Darwing among the Machines, GeorgeDyson [Reading, Addison-Wesley, 1997] advierte: ”En el juego de la vida y la evolución hay tres jugadores en la mesa: seres humanos, naturaleza y máquinas. Estoyfirmemente del lado de la naturaleza. Pero la naturaleza, sospecho, está del lado delas máquinas’.’

Estamos ante la relación humanos – naturaleza – tecnologías. ¿De parte de quien estamos?

Para ello partimos de las cosmovisiones originarias

  • Las leyes de la naturaleza
  • La obediencia a un dios todo poderoso
  • La razón humana como la fuerza motriz

Y llegamos a las cosmovisiones actuales  basada en larelación humanos – naturaleza – tecnologías (se agregan las cosmovisiones mercocentristas y sociocentristas)

  • Humanos (cosmovisión antropocentrista) àcosmovisión mercocentrista (por su carácter individualista) / cosmovisión sociocentrista (por su carácter socialista)

El ser humano no pudo aceptar la responsabilidad de ser el centro del universo y tuvo que apoyarse en alguna fuerza externa que lo apuntalara, en el mercocentrismo en la ley del mercado y el sociocentrismo en el control del estado.

  • Naturaleza (cosmovisión cosmocentrista) àcosmovisión ecocentrista

El ecocentrismo vino en defensa de la naturaleza ante la explotación despiadada de los recursos naturales y el deterioro del planeta debido tanto al mercocentrismo como al sociocentrismo.

  • Tecnologías (cosmovisión teocentrista) àcosmovisión tecnocentrista

Las tecnologías vienen a sustituir la cosmovisión teocentrista de un dios todo poderoso que es el dueño del destino de la humanidad por las tecnologías como las nuevas dueñas del destino humano.

Hoy nuevas cosmovisiones parecen resurgir del antropocentrismo:

  • Eco-antropocentrismo – Desarrollo sostenible
  • Tecno-antropocentrismo – Transhumanismo
  • Neo-antropocentrismo – Cosmovisión de la complejidad

Todo indica que el futuro apuesta por alguna forma de integración entre humanos y tecnologías, sin dudas vamos a la sinergia humanos-tecnologías.

Veamos lo que dice Bill Joy respecto a las cosmovisiones, aunque no las defina como tal.

A lo que Bill Joy dice: “En el despertar de nuestras sociedades, los hombres veían su paso por la Tierrasólo como un laberinto de dolor, al final del cual se erguía una puerta que conducía,a través de la muerte, a la compañía de dioses y a la Eternidad”(cosmovisión teocéntrica).Y agrega: “Con los hebreos ydespués los griegos, algunos hombres se animaron a liberarse de las demandasteológicas y soñar una Ciudad ideal donde la Libertad florecería(cosmovisión antropocéntrica). Otros, percibiendola evolución de la sociedad de mercado, comprendieron que la libertad de algunosconllevaría la alienación de otros, y persiguieron la Igualdad” (cosmovisiones merco-céntricas y socio-céntricas).

De acuerdo a lo que decíamos arriba sobre como las cosmovisiones fueron sucediéndose unas a otras.

“Ciertamente, necesitamos encontrar desafíos consistentes y suficientes camposde libertad en nuestras vidas si vamos a ser felices en lo que sea que nos espera. Pero creo que debemos encontrar vías de escape alternativas para nuestras fuerzas creativas, más allá de la cultura del crecimiento económico perpetuo (cosmovisión mercocentrista); este crecimientoha sido una gran bendición por varios cientos de años, pero no nos ha dado unafelicidad carente de impurezas, y ahora debemos elegir entre perseguir un crecimientoirrestricto y sin dirección a través de la ciencia y la tecnología y los claros peligros que acompañan a esto” (Bill Joy).

Es que el ser humano abandonó el antropocentrismo al carecer de una fuerza interior que lo guiara y al final recurrió a fuerzas externas a las cuales le entregó, nuevamente, el control de su vida: merco-centrismo (la ley del mercado), socio centrismo (control del estado), tecno centrismo (subordinamiento a las tecnologías).

“Esto cristalizó el problema que me producía el sueño de Kurzweil. Un acercamiento tecnológico a la Eternidad –semi-inmortalidad a través de la robótica– quizás nosea la utopía más deseable, y su búsqueda conlleva grandes peligros (cosmovisióntecnocéntrica). Quizás debamosrepensar nuestras elecciones utópicas” (Bill Joy)

Aunque Bill Joy no especificó las cosmovisiones yo las  incluyo entre paréntesis, para su mejor comprensión.

Ahora que: ¿qué alternativas tenemos? (ver “El gran desafío de la humanidad“)

 “Jacques me ayudó a entender cómo estas tres diferentes metas utópicas (cosmovisiónteocéntrica, cosmovisiónantropocéntrica y cosmovisionesmercocéntrica y sociocéntrica) hoycoexisten en tensión en nuestra sociedad. Sigue adelante para describir una cuarta utopía, Fraternidad, cuya base es el altruismo. La Fraternidad en sí asocia la felicidadindividual a la felicidad de los otros, haciéndose cargo de la promesa de autosustentamiento” (Bill Joy) (cosmovisión neo-antropocéntrica).

Escenarios futuros y sus cosmovisiones

1.-Probables. Asumen posiciones más realistas (caráctersocioeconómico o individual)

  • Tecno-liberalismo – Tecno mercocentrismo. Ley del mercado (capitalismo tecnológico)
  • Tecno-democracia – Tecno antropocentrismo. Transhumanismo racional de carácterdemocrático (social democracia tecnológica)
  • Eco-social – Eco sociocentrismo o Eco-antropocentrismo. Desarrollo sostenible (socialismo ecológico).

2.-Utopicos. Asumen posiciones místicas (carácter religioso)

  • Tecnologismo – Tecno centrismo (tecno-religión). Superinteligencias: artificiales, globales, hibridas y biológicas
  • Ecologismo – Ecocentrismo (cosmo-religión)
  • De la complejidad – Neo-antropocentrismo (holismo). Siguiendo a Morin se producirá una metamorfosis de la humanidad.

De seguir el mundo su curso y mantenerse dentro del paradigma actual (mecanicista) los escenarios más probables serán los siguientes.

Escenario tecno-liberal: Todo indica que el escenario más probable es el tecno-liberal,o sea una forma de poscapitalismo de carácter tecnológico donde la ley del mercado lleva a los humanos a ser cada vez más eficientes para tener mayores ganancias, por lo que inevitablemente se inclinaran hacia el transhumanismo (el ideal del superhumano), donde las tecnologías se fusionarán con los humanos en aras de una economía y de un humano eficiente. Las maquinas se irán integrando a la economía capitalista y responderán a los intereses del mercado y según se hagan más inteligente se convertirán en otro competidor.

Escenario eco-social: Su eterno rival el socialismo, un poco para oponerse al capitalismo tecnológico se integraran al ecologismo y asumirá la posición de un socialismo ecológico como su variante principal.Las tecnologías siempre deben estar en función de los intereses humanos y regulados por estos. Deben priorizarse las tecnologías renovables y prohibirse aquellas que representan algún tipo de riesgo (principio de precaución)

Escenario tecno-democracia: Una versión menos radical que las anteriores sería una tecno social democracia, que apostara por un transhumanismo democrático, guiado por la razón donde el ser humano siempre sabe lo que lo conviene (tecno-antropocentrismo) y que los riesgos serán evitados. El humano se irá mejorando por medio de las tecnologías, mejoras moderadas: mejorar la salud, la inteligencia, la belleza, etc.,sin deteriorar el planeta, ni aumentar las desigualdades.

Otros escenarios menos probables, ya que implican un cambio del paradigma actual (lo cual no es imposible), a los que le damos un carácter de utópico.

Escenario tecnologista: Solo las tecnologías nos pueden salvar, las que se convertirán en una superinteligencia: robots y programas, que serán capaces de reconstruir a los humanos y al planeta.

Escenario ecologista, El progreso humano es independiente de las tecnologías, estas más bien lo que hace es alejarlo de su espiritualidad. Las tecnologías deben ser limitadas o prohibidas, el ser humano debe retornar a la religión, a la naturaleza o a una sociedad más simple y abandonar su modo de vida actual consumista, hedonista e irresponsable (ecocentrismo).

Escenario de la complejidad: La cosmovisión de la complejidad, es la única cosmovisión que tiene una visión transdisciplinar en la que cada enfoque es independiente y ha sido desarrollado por especialistas de diferentes ramas, pero desde una misma cosmovisión (la complejidad). Su fuerza radica en la interrelación entre sus diferentes enfoques, en su diversidad y su profunda comprensión de los problemas contemporáneos y de la solución específica a los problemas desde una cosmovisión integral (sistémica) que mantiene en constante interacción entre los diferentes enfoques.

Bill Joy habla de repensar nuestras elecciones utópicas y la alternativa que tenemos de una nueva utopía basada en la fraternidad y el altruismo (y no en la razón como sucedió con el antropocentrismo), estamos pensando en un nuevo antropocentrismo (cosmovisión de la complejidad) que nos lleve a la colaboración en lugar de a la competencia y el control actual, que permite el desarrollo de los verdaderos valores humanos que deje atrás al individualismo y al racionalismo (paradigma mecanicista) y que nos lleve a una nueva forma de pensar, de ver al mundo y vernos a nosotros mismos.

Los críticos de Bill Joy se concentran en las cosas a las que él se opone y lo tildan de neo-ludita en lugar de analizar las alternativas que ofrece como cosmovisión, y no se dan cuenta de que se está construyendo una cosmovisión compartida, hoy una utopía pero mientras más personas crean en ella ira dejando de ser una utopía. Se hace necesario sentar las bases de esa nueva utopía, En lugar de buscar diferencias y contradicciones debemos buscar los puntos que nos unen y no integran en la búsqueda de soluciones. Tenemos que desarrollar una nueva cosmovisiónque se sustente en el paradigma de la complejidad, de alcance transdisciplinar; que permita desarrollar no solo las facultades físicas (tangibles) sino también las facultades ocultas en lo más profundo del SER. Sin dudas es una utopía y solo una inquebrantable fe en el potencial humano, en su grandeza espiritual y en un fuerte compromiso consigo mismo como especie en evolución, podrá lograr que sigamos existiendo y progresando como seres humanos.

 

 

Publicado en Cosmovisión compleja, Desafíos éticos | Etiquetado , , , , , , , , , | Deja un comentario

Libros publicados hasta la fecha

Estos son todos los libros que tengo publicados hasta la fecha

Inteligencia artificial, el futuro del hombre

IA_futuro_del_hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”. Leer más

 

El gran desafío de la humanidad

El libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.

Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Leer más

Zaida, cuentos de ciencia ficción

Zaida-33

Zaida es una selección de cuentos cortos de ciencia ficción donde los temas van desde mundos virtuales, en el que cada personaje busca la felicidad que no encuentra en su vida real, o la desdicha de un paria o la crítica a una sociedad de consumo. No escapa a una sátira sobre las leyes de la robótica o al humor de contagio, un ser traumatizado lleno de complejos y de odio hacia la humanidad. Así como la reflexión sobre dos vidas párelas que transcurren al mismo tiempo entre dos personas con estatus social totalmente diferente, donde las comodidades de una casa inteligente contrastan con la vida miserable de un ser sin esperanza. Leer más

 

Crisis en el siglo XXI

Crisis_en_el_siglo_xxi

Una de las mayores amenazas que enfrenta la humanidad consiste en la degradación del planeta y los efectos que se están produciendo por las acciones humanas dada su actitud irresponsable con la naturaleza. El libro comienza con el cuestionamiento realizado por Bucky Fuller: “El desafío: Si el éxito o el fracaso del planeta y de los seres humanos depende de cómo soy y lo que hago… ¿Cómo sería yo? ¿Qué haría yo?”.

A lo largo del libro en sus cuatro capitulo se reflexiona sobre los desafíos que enfrentamos y las crisis que se han producido y que se tornarán cada vez más compleja durante el siglo XXI. Leer más.

Cosmovisión poética

Cosmovision

Es una obra donde la melancolía se funde con el universo, donde las tardes cuentan su historia y la luz brota de un alma solitaria azotada a veces por la lluvia, otras por el frió del olvido o por las sombras que amenazan una existencia agonizante.
Siempre desde la nostálgica visión de un mundo que se desconfigura que se vuelve cada vez más ajeno y distante, ante un alma que crea su propia visión y busca abrirse a la naturaleza y compartir su dolor con las estrellas.
Un alma a la que nada consuela y que vaga por el mundo componiendo sueños que viajan con el viento que levantan olas y que arrastran desamores, angustia y una infinita tristeza que se pierde más allá del crepúsculo. Leer más.

 

Sistemas Expertos

Sistemas ExpertosDurante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada. Leer más.

 

Publicado en General | Deja un comentario

El futuro no nos necesita: Riesgos existenciales (2)

van_rensselaer_potter

Van R Potter el padre de la Bioética

“Las tecnologías del siglo XXI –genética, nanotecnología, y robótica (GNR)– son tan poderosas que pueden impulsar casos enteramente nuevos de accidentes y abusos. Todavía más peligroso: por primera vez estos accidentes y abusos están al alcance de individuos o grupos reducidos. No requerirán gran infraestructura ni materiales con complicaciones. El conocimiento bastará para poder usarlas” (Bill Joy)

 

Queremos construir una inteligencia artificial (IA) alineada con los intereses humanos, una IA propiedad de las transnacionales, una IA propiedad del gobierno o de los militares, una IA en manos terroristas, de personas ambiciosas que buscan el poder, de fanáticos religiosos o una IA colaborativa con fines altruistas que nos haga más inteligentes y sabios

El problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y pos supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las máquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

¿Se agudizarán los problemas del presente?

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA (riesgos del presente)

Problemas actuales

  • Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • ¿Quién controlara la información y los procesos en su beneficio? ¿Qué hará con ella? ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA? (ver los conceptos de la IA propietaria)
  • Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.
  • Como hacer accesible los códigos de la IA. Actualmente ya está sucediendo en Google, Facebook, con excepción de Cuba que producto del bloqueo económico de los EEUU, no puede acceder a la información.
  • Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

¿Cuáles son los intereses humanos? 

  • La destrucción (por negligencia) del planeta.
  • Las guerras por disimiles fines, pero guerras al fin.
  • La lucha por la hegemonía.
  • El control de los recursos del planeta.
  • Los conflictos territoriales.
  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

En realidad la IA amistosa estará alineada con los intereses humanos de ser más ricos y poderosos. No podemos olvidar que vivimos bajo la filosofía del tener: más riqueza, más poder, más control, etc. Lo cual nos llevara a una IA sobrehumana ante la desesperación de la inteligencia natural infrahumana, que nada podrá hacer.

En el caso de la IA robusta que implicación tendrá para el ser humano. ¿Cómo este se beneficiara?

  • Lo hará más rico y poderoso (IA como producto o servicio)
  • Lo hará más inteligente y sabio (IA como colaborador)
  • Lo hará inmortal (IA como rediseñadora de los humanos)

Para el transhumanismo la IA estará alineada a los intereses humanos si apoya la conversión hacia el superhumano y será un peligro si llegara a tener sus propios intereses. Según se avance desde la era actual (sociocultural) a la era tecnológica el macho alfa ira convirtiéndose hacia el transhumanismo (superhumano)

La idea de la IA robusta carece de una visión de futuro y al no tener clara su ideología nos estará conduciendo a ciegas hacia el futuro y no tendremos otra opción que asumir la ideología predominante: el tecno-liberalismo. Por lo que vamos inevitablemente hacia un transhumanismo liberal, donde el ideal del macho alfa será sustituido por el del superhombre tecnológico.

Las posiciones ante el desarrollo de una IA avanzada

  1. Construir una IA que nos hará inmortal. Lleva al deseo de construir la IA cuanto antes. El riesgo es no poder vivir, el tiempo suficiente, para ser inmortal (existe la posibilidad de criogenizarse, pero no es lo mismo). Visión tecnologista
  2. Construir una IA que nos hará más rico y poderosos, lo que estará alineado con los intereses humanos. Visión economicista
  3. Construir una IA alineada con los intereses sociales (¿de cada tipo de sociedad?), que esté bajo control de las instituciones: científicas, económicas, políticas. Por lo que siempre estará subordinada a los humanos. Visión social.
  4. Una IA para producir las tecnologías necesarias para el mejoramiento del ser humanos. Visión transhumanista
  5. Prohibir la IA ante el peligro que destruya a la naturaleza. Visión ecologista
  6. Construir una IA colaborativa que nos facilite (dependiendo, en primer lugar, de nuestro propio esfuerzo) ser más inteligentes y sabios. Visión transdisciplinar

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Con respecto a la inteligencia artificial la preocupación no es por la IA en si misma sino la necesidad de cambiar nuestra mentalidad ante los problemas que enfrenta el mundo actual y que puede desencadenar la destrucción humana. El mensaje consiste en tomar conciencia de los peligros que enfrenta la humanidad

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.
  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.
  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es un progreso verdaderamente humano

Estamos ante la falta de sabiduría humana para manejarnos con las nuevos conocimientos  (Van R, Potter) y con las nuevas tecnologías

Que significa la falta de sabiduría, sus consecuencias
• Aumento de la desigualdad
• Buscar ganancias a toda costa
• Usar todas las tecnologías en ell ser humano (de forma indiscriminada)
• Fallas en la educación moral

Dilema tecnológico

El dilema de la superinteligencia consiste en: Si se debe desarrollar una inteligencia superior a los humanos o no y cómo relacionarnos con las super inteligencias artificiales (Inteligencia artificial, el futuro del hombre)

Ahora en bien, en caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá, entonces:
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Veamos algunas consideraciones a tener en cuenta
• La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.
• No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.
• La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar simbiosis exógena y colaborativa.
• Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

¿Se puede construir una IA alineada con los intereses humanos?

“Las tecnologías nucleares, biológicas y químicas (NBQ) usadas en las armas de destrucción masiva del siglo XX eran y son más que nada militares, desarrolladas en laboratorios de gobiernos. En abierto contraste, las tecnologías GNR del siglo XXI tienen usos comerciales manifiestos y están siendo desarrolladas casi exclusivamente por empresas corporativas” (Bill Joy).

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en “Crisis en el siglo XXI” analizábamos los riesgos y las propuestas a  los peligros para el futuro. También (en artículos anteriores), habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero, ¿las consecuencias justifican los enormes beneficios potenciales que surgirán?

Personalmente no me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. El peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro una transnacional no construirá una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre el mercado

En realidad, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen “vivitos y coleando”, y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a muchos, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

Publicado en Desafíos éticos, Riesgos existenciales | Etiquetado , , , , , , | Deja un comentario

El futuro no nos necesita: Riesgos existenciales (1)

Nick Bostrom, filosofo y padre del transhumanismo

El fin de la especie humana

 “Las especies biológicas casi nunca sobreviven a encuentros con competidores superiores…  Parte de la respuesta yace en nuestra actitud hacia lo nuevo –en nuestra disposición a familiarizarnos rápido y a aceptar sin cuestionar. Acostumbrados a vivir con adelantos científicos que se dan casi como una rutina, todavía tenemos que hacernos la idea de que las tecnologías más seductoras del siglo XXI –robótica, ingeniería genética, y nanotecnología– plantean una amenaza distinta que la de las tecnologías que han venido antes” (Bill Joy)

 

Hoy estamos ante el peligro de la reconstrucción del mundo natural por otro artificial. Donde existe una lucha por ver quién es  más rápido entre la degradación del planeta y la aceleración tecnología. La aceleración a toda  costa, como una medida desesperada para alcanzar la posthumanidad (vida eterna), nos va a conducir inevitablemente a una mayor degradación del planeta y con ello, al fin de la especie humana.

Las amenazas son los efectos que estamos sufriendo de las acciones humanas dado nuestro contexto actual de dominio que ha provocado el crecimiento acelerado de dos parámetros: la degradación del planeta y el desarrollo de la tecnología con fines hegemónicos (Los riesgos del futuro)

Dentro de las amenazas que enfrenta la humanidad esta las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras, el filósofo y tecnofuturista norteamericano Nick Bostrom, las llama riesgos existenciales.

Vamos a ver los algunos de los riesgos existenciales que menciona Nick Bostron (aquellos que tienen que ver con la acción humana,

  1. Mal uso de las tecnologías.
    2. Guerras nucleares.
    3. Pandemias.
    4. Aristocracia poshumana.
    5. Mala programación de una superinteligencia.
    6. Superintenligencia autónoma que asume los valores de poder.
    7. Criogenización y superpoblación.
    8. Control del estado, de instituciones, ONG, movimientos religiosos, etc. Que no permitan ciertas aplicaciones para el mejoramiento humano (transhumanidad).
    9. Dificultades tecnológicas. Que la transhumanidad no se pueda llevar a la práctica
    10. Agotamiento de los recursos naturales antes de que puedan ser creados artificialmente.

Uno de los riesgos que más se menciona es el del surgimiento de una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador.

Los riesgos de una IA superior a los humanos.

“Una de dos cosas puede ocurrir. Se le podría permitir a las máquinas tomar todas las decisiones por sí mismas sin supervisión humana, o bien se mantendría el control humano sobre las máquinas” (Bill Joy)

La era de las tecnologías

 Estamos en la era de la tecnología y son muchos los que los que abrazan posiciones tecnofuturistas y creen que la solución a todos los problemas humanos están en la Ciencia y la Tecnología y afirman que la solución, esta exclusivamente, en el desarrollo acelerado de la tecnología. Lo que quiere decir que debemos concentrar todos nuestros esfuerzos en desarrollar instrumentos, aparatos y máquinas cada vez más potente. La idea consiste en acelerar la tecnología para alcanzar una superinteligencia y luego fundirse con ella.

Ideología de los tecnofurusitas

  1. Se sustenta en una ideología que sustituye a la fe religiosa al prometer, curar a las enfermedades, eliminar a la vejez, alcanzar la vida eterna… Alcanzar el paraíso en la tierra. (Manuscrito transhumanista).
  2. Convencimiento de que el fin de la humanidad es inevitable y hay que intervenir y crear una nueva evolución artificial basada en la tecnológica. (La singularidad tecnológica).
  3. Convencimiento de que la tecnología por si sola es capaz de resolver todos los problemas actuales de contaminación, pobreza, desigualdades, guerras. (Informes sobre las tecnologías convergentes).

Para comprender el impacto de las tecnologías hay que estar claro en las posiciones que se asumen desde el presente, y las propuestas de cada una de ellas. Y aunque las tecnoutopías, los presupuestos tecnológicos transhumastas, parecen irrealizables en muchos casos, es una ley aceptada por todos que las tecnologías están en constante crecimiento y que no se vislumbra un límite para su desarrollo, y que cada vez somos más dependientes de las mismas. Ell problema está; en si las tecnologías entrarán en competencia con los seres humanos o si colaborarán con ellos. Y si aceptamos el surgimiento de algunas de las formas de superinteligencias antes mencionadas

Tendencias de la tecnología (degradación vs aceleración)

1) Ignorar la tecnología: Subestimar el impacto de la tecnología. Concentrarse solamente en la degradación del planeta sin tener en cuenta la aceleración tecnológica. Subestimar el desarrollo tecnológico seguir pensando que es sólo una herramienta y creer que la tecnología siempre estará bajo nuestro control, sin tener en cuenta los intereses mercantiles y hegemónicos que se mueven detrás de la tecnología así como ignorar la ideología transhumanista y su poderosa visión de futuro, el no tener en cuenta la campaña de promoción y posicionamiento en la mente humana, que se está llevando a cabo sobre la singularidad tecnológica y sobre todo ignorar el impacto social, económico, político y militar que tendrán las tecnologías convergentes (NBIC) sobre el futuro de la humanidad. Tal negligencia y falta de visión de futuro, llevara a una degradación cada vez mayor del planeta y a la extinción indirecta de la humanidad

2) Acelerar la tecnología: Aceptar a la tecnología como la salvadora del planeta y apostar todo a la aceleración tecnológica (singularidad) Lo cual nos llevara al transhumanismo, Pero dentro del contexto actual de poder, lo único que hará es que unos sean mas poderosos que otros, aumentando la desigualdad, ahora entre transhumanos y humanos. Dado su carácter ideológico los pobres también serán convertidos a obsoletas versiones de transhumanos. Priorizar la aceleración tecnológica por encima de la degradación del planeta lo cual conducirá a que la evolución natural sea sustituida por una evolución artificial que terminará en la autoextinción de la humanidad.

3) Cooperar con la tecnología: Buscar la integración armónica (no invasiva) de la tecnología en el contexto humano, basado en la cooperación (en lugar de la fusión) entre humanos y tecnologías. Se busca poner la aceleración tecnológica en función del desarrollo intelectual y espiritual de los humanos. Que vaya a las causas de la degradación y potencie la integración armónica de la tecnología a la naturaleza, la sociedad y el mejoramiento humano. Buscar alternativas que permitan lograr una sostenibilidad tecnológica (en lugar de una singularidad) basada en principios éticos universales que permitan formar generaciones cada vez mejores basadas en la manifestación plena del SER.

Yo defiendo la idea de una superinteligencia colectiva que se irá desarrollando producto de la cooperación entre humanos y máquinas y la idea que tenemos que aprender, desde el presente,  a manejarnos con las tecnologías del futuro, donde los transhumanistas ya nos llevan la delantera y parto de la idea de una actitud bioconservadora de corte progresista. Porque en realidad, el futuro mejor que proponen los transhumanstas, lo que hará será: aumentar las diferencias sociales, el deterioro del planeta, la competencia tecnológica y la falta de fe en sí mismo; lo que pondrá en peligro la supervivencia de la especie humana tal como la conocemos hoy.

El director del instituto, el filósofo sueco Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste “Son amenazas sobre las que no tenemos historial de supervivencia”. (conincide con Bill Joy)

El transhumanismo.

“Me parece a mí mucho más probable que una existencia robótica no fuera como una humana, de ninguna manera en que la entendemos, que los robots no serían de ninguna manera nuestros hijos, que por este camino nuestra humanidad seguramente se perdería” (Bill Joy).

 Presupuestos transhumanistas (transhumanismo democratico)

“Un segundo sueño de la robótica es que gradualmente nos reemplacemos a nosotros mismos con nuestra tecnología robótica, consiguiendo una casi inmortalidad mediante la descarga de nuestras conciencias. ¿Pero si nos descargamos en nuestra tecnología, qué posibilidades hay de que después del proceso sigamos siendo nosotros, o incluso humanos?”(Bill Joy)

El transhumanismo, Nick Bostrom (uno de sus artífices) lo define como “un movimiento cultural, intelectual y científico, que afirma el deber moral de mejorar la capacidad física y cognitiva de la especie humana y de aplicar las nuevas tecnologías al hombre, de manera que se puedan eliminar los aspectos no deseados y no necesarios de la condición humana como el sufrimiento, la enfermedad, el envejecimiento e incluso, el ser mortales”. El Transhumanismo se convierte así en un movimiento, una ideología, que tiene como credo filosófico “la superación de las limitaciones humanas a través de la razón, la ciencia y la tecnología” (Transhumanismo y fin de la humanidad)

Presupuestos tecnológicos.

Los presupuestos tecnológicos por medio de los cuales los transhumanistas aspiran a lograr sus propósitos, para ello cogen como referencia al proyecto norteamericano conocido como NBIC (convergencia de la Nanotecnología, la Biotecnología, la Infotecnología y la Cognotecnología) la cual esperan que produzca un impacto social sin precedentes en la historia de la humanidad. Se analizan por separado a tres de estas tecnologías.

Dentro de los presupuestos tecnológicos, la inteligencia artificial es la que más incidencia tiene y en la que más esperanzas se han cifrado, al dotar a los investigadores de una de las metáforas más poderosas e influyente para la comprensión del ser humano, al reducirlo a un ser material que puede considerado como un mecanismo (biomáquina) y que los estados mentales son complejos algoritmos que pueden ser reproducidos en una computadora. Siendo esta una de las tesis favorita de los transhumanistas.

Otro presupuesto tecnológico, se basa en el impacto de la  biotecnología. Se considera a  la eugenesia negativa: eliminación de los niños defectuosos y la eugenesia positiva y el sueño de construir el mejor hijo posible, así como la esperanza de alargar la vida, de eliminar las enfermedades, detener el envejecimiento y de crear una evolución artificial pro medio de la clonación.

En estas tecnologías cifran los transhumanistas sus esperanzas para mejorar la condición humana y son el tema de debate entre transhumanistas y bioconservadores.

¿Debemos aplicar todo el avance tecnológico? ¿Qué posición asumir?

Hoy las tecnologías se están convirtiendo en juguetes demasiado peligrosos en manos de los intereses humanos, dada la negligencia, el egoísmo y la ambición humana. ¿Qué sentido tiene construir una IA que nos supere? ¿Qué debemos hacer? El futuro de la humanidad depende de cómo enfrentemos estas preguntas. Y es que estamos ante la decadencia del modelo mundial actual, producto de nuestra actitud  egoísta y hegemónica (mente intelectual) que nos llevará al fin de la especie humana ya sea por la destrucción del planeta o por la confrontación, debemos pasar  un nuevo modelo basado en la sabiduría y la colaboración (mentalidad espiritual) como forma de lograr un verdadero progreso humano.

Seán O’Heigeartaigh, un genetista del instituto y experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. Siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

“Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom, quien no parece estar muy seguro de la tecno-utopía de una singularidad tecnológica, donde basta con acelerar a las tecnologías a toda costa y dice: “el avance en la tecnología ha rebasado nuestra capacidad de controlar las posibles consecuencias. Y agrega: “Estamos al nivel de los niños en términos de responsabilidad moral, pero con la capacidad tecnológica de adultos”. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.

Aceptando que surgirá una IA que llegará a superar a los humanos, estaremos ante el mayor impacto tecnológico que ha tenido la humanidad, tal vez, en toda su historia y no lo digo yo, Stephen Hawking, una de las mentes más privilegiadas, junto a otros expertos del tema, han dicho: “El éxito en la creación de IA sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos”.

 

 

Publicado en Inteligencia Artificial, Riesgos existenciales | Etiquetado , , , , , , , , | Deja un comentario

El futuro no nos necesita. Máquinas inteligentes

Bill Joy, confundador de Sun Microsysten

En el artículo “Porque el futuro no nos necesita” de Bill Joy, se habla de un futuro sin los humanos tal como existen hoy. ¿Será posible? Para aclarar esto y dada la importancia de articulo lo analizaremos desde tres enfoques que estan inmerso en el texto de Bill Joy. Además, para mayor claridad lo dividiremos en tres articulos: las máquinas inteligentes, los riesgos existenciales y las cosmovisiones.

Aunque el articulo fue escrito por Bill Joy en el 2000, no ha perdido vigencia

 

Las máquinas inteligentes

“Diseñando software y microprocesadores, nunca había tenido la sensación de que estaba diseñando una máquina inteligente. El software y el hardware son tan frágiles, y la capacidad de las máquinas de ”pensar” se muestra tan ausente que, incluso como posibilidad, siempre me pareció muy alejada en el futuro. Pero ahora, con la perspectiva de un poder de procesamiento de nivel humano (*) en unos 30 años, una idea nueva surge sola: que podría estar trabajando para crear herramientas que van a permitir la creación de la tecnología que podría reemplazar a nuestra especie”. Bill Joy

(*) Lo que define, actualmente, a las máquinas inteligentes no son los programas que la hacen funcionar si no el poder de procesamiento: mayor velocidad de cálculo, mayor capacidad de memoria, mayor conectividad, mayo a acceso a diferentes recursos, mayor presencia en todos los aspectos de la vida, etc.

Después del paradigma cibernético con su intento de construir una mente mecánica le siguió el paradigma cognitivo y la idea de reproducir la mente por medio de algoritmos ya que la mente no era otra cosa que estados mentales que se procesaban en el cerebro al igual que los programas en una computadora.

Lo cual llevó a muchos investigadores en el campo teórico a pensar que una vez que se descifrara los procesos de la mente era seguro desarrollar los algoritmos que representaban esos procesos, era obvio, ya que la mente lo que hace es manipular símbolos por medios algorítmicos. De ahí surgieron los métodos heurísticos, las reglas de producción, los mecanismos de resolución de problemas, etc.

De todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

Entre las críticas al surgimiento de una inteligencia artificial, está la de Roger Penrose quien establece diferencias entre el funcionamiento de un ordenador, que es capaz solamente de un razonamiento algorítmico basado en secuencias lógicas, y el funcionamiento del cerebro humano, que es capaz de estar abierto a la improvisación y a lo inesperado, a lo caótico, es decir, a lo creativo.

Los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

En cambio, los expertos en computación tradicional no pueden creer que las computadoras relativamente simples, en las que se ejecutan sus programas, se almacenen sus bases de datos, sus gráficos; que requiere de un sistema operativo y opera sobre algoritmos numéricos; puedan ser también el sustrato donde se puedan ejecutar los complejos procesos de la mente humana.

Inteligencia artificial (IA) fuerte y débil

Desde sus inicios podemos hablar de dos enfoques de la IA, de una parte la IA fuerte y de la otra una memos categórica a la hora de interpretar los hechos, la IA débil.

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio,  donde el cerebro se considera un soporte más.

En cambio, la IA débil considera que la mente funciona diferente a los sistemas de computación y solo aspiran a desarrollar sistemas informáticos que tenga un comportamiento tan inteligente como el del ser humano. Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

¿Será posible que las máquinas sean más inteligentes que los humanos?

“¿Qué tan pronto podría ser construido ese robot inteligente? Los avances anunciados en el poder de procesamiento de las computadoras parecen hacerlo posible para el 2030(*). Y una vez que ya existe un robot inteligente, queda un pequeño paso hacia una especie robot –hacia un robot inteligente que puede hacer copias evolucionadas de sí mismo”. Bill Joy

(*) Ya en los 50s se pronosticaba que para los 80s se construirían máquinas con inteligencia humana

Para que la máquina tenga todos los algoritmos que conforman la mente, primero, hay que ir descubriendo los mecanismos de la mente, traducirlos en algoritmos para incluirlos en la computadora, así sucesivamente hasta que se haya reproducido totalmente la mente humana, y pueda funcionar en una computadora. Fueron muchos investigadores en esa época, principio de los 50, dieron esto por hecho y afirmaron que en los anos 80s ya existirían máquinas con inteligencia humana, en ese entonces no se hablaba de superar la inteligencia humana, ni de singularidad tecnológica, etc.

Entonces… ¿Que está sucediendo ahora? Porque la IA y sobre todo las máquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

Pero antes debemos decir que sigue pendiente el problema si las máquinas serán conscientes o no, interrogante, que ha perdurado hasta nuestros días: ¿si se reproducía la mente humana en una máquina, esta no sería consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial y que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia:

Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre.

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • La máquinas que se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, más memorias, dotadas de mejores algoritmos podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos..
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Entonces… ¿Existirán máquinas más inteligentes que los  humanos para el 2030? ¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores, así, hasta superar a los humanos en todas sus facetas.

Para terminar, diremos que hoy son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, Ray Kurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Microsoft, Google, Facebook, etc., trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Apple y Sun por solo citar dos nombres, lo que nos hace pensar que la preocupación de Bill Joy no está mall encaminada

Imgen: Ecured

Bibliografía (Grupo Facebook Enfoque sistémico-cibernético. La era tecnológica

 

Publicado en Inteligencia Artificial | Etiquetado , , , , , , | Deja un comentario

Nuevas ideas para comprender la futura inteligencia sobrehumana

artificial-intelligence-0905

Cuando hablamos de inteligencia sobrehumana nos referimos a una inteligencia superior a la inteligencia humana y existen dos vías para alcanzar una inteligencia sobrehumana: la construcción de una inteligencia artificial  a nivel de laboratorio que llegue a igualar a la humana y que posteriormente sea capaz de autoprogramarse  cada vez más inteligentes, la otra vía consiste en la ampliación de la inteligencia humana ya sea por medio de dispositivos o de la conexión en red de varias inteligencias.

Existen dos vías para su desarrollo

  • Inteligencia articial que a su vez se divide en dos grandes líneas: la inteligencia artificial fuerte y la inteligencia artificial débil
  • Ampliación de la inteligencia: Conexiones físicas, directas en el cuerpo y Conexiones lógicas , producto de las conexiones en red y las interacciones que se producen

Inteligencia artificial: fuerte y débil (IA fuerte e IA débil)

IA fuerte: Se basa en la programación de los estados mentales (basados en la aceleración de las tecnologías). El hard se hace más rápido que el cerebro mientras la mente (los estados mentales) son equivalentes al pensamiento,  ambos procesan información independiente de sus soportes (hard/cerebro), por tanto, la mente puede ser reproducida en una computadora y ser autoconsciente. Se parte de que en un futuro se podrá descargar la mente humana.

IA débil: Se están desarrollando programas que hacen que las máquinas se comporten, cada vez, de manera más inteligentes  sin que exista equivalencia entre programas y estados mentales por lo que nunca tendrán consciencia, al menos no como los  humanos. Nos conduce a que por medio de la interacción (colaboración) entre personas y máquinas se puedan desarrollar una inteligencia superior

La Ampliación de la inteligencia: conexión física y lógica

La conexión lógica se puede dividir a su vez en:

  • Conexión lógica fuerte: La idea de una cerebro global donde se produce una singularidad distribuida producto de la conexión en red entre humanos y tecnologías
  • Conexión lógica débil: Las investigaciones en inteligencia colectiva (Malone y otros) y el surgimiento de una IA colaborativa basada en la interacción abierta entre personas y máquinas.

La conexión física podemos clasificarla de dos maneras

a)Por su carácter tecnológico

  • Tecnologías conexas (superinteligencia híbrida)
  • Biotecnologías (superinteligencia biológica)

b)Por su carácter social

  • Transhumanismo liberal: se inserta en el mercado
  • Transhumanismo democrático: busca superar la condición humana

Como norma haremos referencia a su carácter social dado su importancia para la construcción de las cosmovisiones

Las visiones sobre el futuro de la humanidad

La visión es la agrupación de las líneas de investigación y desarrollo para la creación de una inteligencia superior al humano. Son las vías para construir una inteligencia sobrehumana donde cada vía para su desarrollo integral cuenta con diferentes enfoques y cada una tiene sus líneas de investigación y su propio propósito  (su forma de lograr la inteligencia superior) y a ese propósito le llamamos visión y cada una de ella lleva a la creación de una forma de inteligencia sobrehumana.

La clasificación en las visiones pretendo agrupar las diferentes líneas de investigación y su desarrollo hacia un propósito. Las llamo visiones ya que se necesita cierta fe o creencia en las ideas que se expresan en la visión correspondiente, podemos decir de un cierto compromiso o aceptación consensual de sus propuestas y asumirlas como reales (como una realidad que se puede crear).

Las visiones las agrupamos en cuatro:

  • Visión racionalista (tecnologista): construcción de una inteligencia basada en programas (metáfora del computador)
  • Visión transhumanista: la conexión de dispositivos en el cuerpo (cerebro) humano.
  • Visión transdisciplinar (de la complejidad): la interacción entre la inteligencia humana y la artificial (inteligencia colectiva)
  • Visión sostenible (ecologista): busca la supervivencia del planeta y de las especies

Teniendo en cuenta las lineas de investigación (filosófico, social, científico, técnico) y dado su carácter se pueden clasificar como:

Carácter utópico/filosófico (matiz religioso): las tecnologías asumen el papel de la religión por medio de una inteligencia sobrehumana (tecnoutopías)

Carácter social (cosmovisivo): se establece una cosmovisión para lograr el progreso humano teniendo en cuenta la relación (sinergia) entre humanos y tecnologías

Carácter científico (intelectual): superar los límites biológicos por medio de las tecnologías y convertirse en un superhumano

Carácter técnico: tiene un carácter aplicado, busca darle solución a los problemas ya sean económicos, sociales, ecológicos y sobre todo lo tecnocientíficos.

Ahora veremos cómo cada línea de investigación se agrupa dentro de cada visión, lo cual nos permite tener una un enfoque global de cada visión que vaya desde su enfoque filosófico, social, científico y técnico. En artículos anteriores ya habíamos hablado sobre las visiones, por lo que no entraremos en detalles

Paradigma neo-mecanicista

1.-Visión tecnologista (racionalista).

Las tecnologías sustituyen a los procesos naturales. Cosmovisión tecnocentrista.

  • Super Inteligencia Artificial (tecnoutopía)
  • IA avanzada beneficiosa / IA avanzada privativa (cosmovisión/social)
  • Ciencias cognitivas (científico)
  • Centros de investigación / Transnacionales (técnico)

2.-Visión transhumanista.

Tecnologías para mejorar al individuo. Fusión entre humanos y tecnologías. Ampliación de la inteligencia Cosmovisiones tecno antropocentrista/mercocentrista.

  • Super Inteligencia Hibrida / Super Inteligencia Biológica (tecnoutopía)
  • Transhumanismo liberal / Transhumanismodemocrático (cosmovisión/social)
  • Ciencia de las tecnologías convergentes: nanotecnología, biotecnologías, infotecnología y cognotecnología (científico)
  • Aplicaciones para el mejoramiento por medios tecnológicos (aplicaciones)

Paradigma de la complejidad

3.-Visión transdisciplinar (de la complejidad).

Interacción entre humanos y tecnologías. Se produce la conexión, en red, entre humanos y tecnologías como un sistema abierto al entorno capaz de evolucionar. Cosmovisión neo antropocentrista

  • Cerebro global. Superorganismo global (tecnoutopía)
  • Inteligencia colectiva (supermente) / Inteligencia colaborativa (enfoque sistémico-cibernético)
  • Ciencia de la complejidad
  • Sotfware libre (comunidades virtuales)

4.-Vision ecologista.

Controlar o prohibir la inteligencia artificial. Cosmovisión eco centrista/sociocentrista)

  • Ecología profunda. Asume posiciones bioluditas y propone prohibir todas las tecnologías riesgosas (tecnoutopíaecocentrista)
  • Desarrollo sostenible. Asume posiciones bioconservadoras y parte del principio de precaución y de tener a las tecnologías bajo control (cosmovisión eco-social)
  • Ciencias de la ecología (Paradigma científico de la sostenibilidad)
  • Aplicación de tecnologías sostenibles (Aplicaciones)

Las tecnoutopías

De una parte tenemos que se anuncia el surgimiento de una singularidad tecnológica donde la IA, que antes se fue construyendo a nivel de laboratorio, llegado el momento se ira construyendo a si misma hasta convertirse en una superinteligencia artifical. Por otra parte tenemos que las religiones vienen a sustituir la cosmovisión teocentrista por una cosmovisión tecnocentrista donde las tecnologías pasan de herramientas a convertirse en una fuerza suprema que adquiere cualidades omnisciente, omnipresente y omnipotente. Están en todas partes, saben todo lo que queremos, alcanzan una inteligencia superior a los humanos y controlan todas nuestras actividades,

Dado lo anterior, podemos aplicar el siguiente razonamiento:

Dios es un ser sobrehumano

Las tecnologías adquieren un carácter sobrehumano

  • Las tecnologías se convierten en Dios

Por lo que, según la singularidad, se concluye que las superinteligencias artificiales llegarán a resolver todos los problemas que los simples humanos no pudieron resolver e, inevitablemente, llegarán a ser adoradas como dioses.

Hay otro problema que ya hemos tratado en otros artículos el de si las máquinas llegarán a tener conciencia, para eso tenemos que tener en cuenta los tipos de superinteligencias que surgirán y las que no surgirán

Tipos de conciencia como superinteligencias

  • Superinteligencia Global. Conciencia reproducible por conexiones (amplificable) con la tecnología.
  • Superinteligencia Artificial. Conciencia trivial (es equivalente a la tecnología)
  • Superinteligencia Biologica. Concienciia reproducible por biotecnología
  • Superinteligencia Híbrida. Conciencia reproducible por fusión con las tecnologías (el Cyborg)
  • Superinteligencia Colectiva (supermente/IA colaborativa). Conciencia holística (es irreproducible por medio de las tecnologías de forma física (invasiva) pero se va conformando producto de las interacciones (forma lógica) entre humanos y tecnologías

Todas ellas responden a las visiones tecnologista, transhumanista y transdisciplinar. La visión ecologista, considera a la consciencia como irreproducible debido a su condición mística (espiritual, trancendente, cósmica, etc) o a su condición puramente biológica.

Es necesario, para no ir a ciegas al futuro y nos sorprenda la era de las tecnologías, que no es otras cosa que el surgimiento de superinteligencias que en un futuro nos permitirán enfrentar los retos que se avecinan y que ya se están produciendo, tales como la sinergia entre  humanos y  tecnologías; que desde hoy tenemos que estar preparados y saber que visión asumiremos ante los desafíos tecnológicos del mañana.

Imagen :  cnnespañol

Publicado en Inteligencia Artificial, Relación humanos-tecnologías, Singularidad tecnológica | Etiquetado , , , , , , , , , , , , | Deja un comentario

Gestión del conocimiento y la interacción entre personas y tecnologías

Introducción

Durante años las organizaciones se han visto como estructuras cerradas desde el paradigma mecanicista del todo/parte sin tener en cuenta los escenarios que están ocurriendo en el entorno y siempre desde un análisis incremental: más trabajadores, más equipos, etc.

Con los sistemas de computación se ha producido un cambio al poderse procesar casi toda la información relevante, pero en muchos casos solo ha venido a favorecer los modelos basado en procesos (conocimiento explicito) quedando en un segundo plano el conocimiento tácito de los especialistas y sobre todo la interacción que se produce entre ellos así como la producción de nuevos conocimientos y de cómo gestionarlos.

Gestión del conocimiento

La gestión del conocimiento se vincula con la creación y uso del conocimiento entre los miembros de una organización y su entorno, y a la vez dentro de la misma organización.

Entorno –>]Información [Organización (miembros)][ –> Entorno

El conocimiento hace que los seres humanos creen a partir de él nuevas ideas, visiones e interpretaciones y lo apliquen en la toma de decisiones.

Tipos de conocimientos

Según el modelo de Nonaka y Takeuchi (1999) una organización trabaja con tres clases (tipos) de conocimiento: el conocimiento tácito, el conocimiento basado en normas (explicito), y el conocimiento de fondo (colectivo)

  • El conocimiento tácito se compone de las aptitudes, conocimientos técnicos especiales (know-how).
  • El conocimiento explícito, es el conocimiento basado en normas
  • El conocimiento de fondo (colectivo), este es un conocimiento que es parte de la cultura organizacional.

Conocimiento tácito

Conocimiento tácito: cuando no está documentado y solo existe en la mente del experto (experiencia).  Contenido en las personas. Los procesos son herramientas que simplifican aspectos rutinarios (rutinas mecánicas), para que el experto no tenga que diluir su esfuerzo.

  • Se compone de las aptitudes, conocimientos técnicos especiales (know-how), que la gente desarrolla a medida que se sumerge en el flujo de las actividades del trabajo.
  • La mejora estrategia para gestionarlo es fomentar la creación de servicios y espacios que permitan el desarrollo de redes de colaboración entre las personas que componen la organización.
  • La construcción de sistemas expertos donde se recoge el conocimiento tácito de los especialistas.

Por lo que tenemos que el conocimiento tácito se apoya en rutinas  (conocimiento rutinario, tal como cálculos repetitivos)

Conocimiento explicito

Conocimiento explicito: cuando es asequible desde documentos (normas, metodologías, etc) o programas de computación. Contenido en los procesos y la tecnología. En muchos casos las personas se integra al sistema como operario

Es el conocimiento basado en normas el que se utiliza para igualar las acciones a las situaciones mediante la invocación de normas adecuadas basadas en reglas que guían la acción.

  • Este tipo de conocimiento se utiliza en el diseño de las rutinas, procedimientos normalizados de trabajo y la estructura de registros de datos.
  • Se almacena en sistemas informáticos, bases de datos, bases documentales como en intranets y extranets.

Por su parte el conocimiento explicito se apoya en los procesos (metodologias sobre cómo hacer las cosas)

Conocimiento de fondo o colectivo

Conocimiento colectivo: surge de la interacción dinámica (síntesis) entre múltiples conocimientos que se enlazan  en la solución de un problema o conjunto de problemas (su patrón).

Es un conocimiento compartido y que incluso es interpretado por cada individuo, cada grupo, etc., (ej. la visión) pero se comparte un mismo propósito, el conocimiento surge de la interacción entre personas y se va haciendo explicito en las acciones, reuniones y documentos (en muchos casos no registrados), en innovaciones que se van generalizando.

  • Este conocimiento no se extrae del experto sino de los grupos de trabajo, las reuniones, las implementaciones y de las soluciones (explicitas o no) que se le van dando a los problemas.

El conocimiento va pasando de tácito a explicito. De las personas (experiencia de un experto) a los procedimientos (de uso común). De conocimiento especializado (expertos)  a dominio público y deja de ser conocimiento tácito. El objetivo de toda organización es el conocimiento esté asequible a todos.

Conocimiento tácito colectivo, cada experto puede no tener todo el conocimiento pero al integrarse a otros experto logra un conocimiento tácito multidisciplinar (la colmena de abejas, la sociedad de hormigas).

Know How es el conocimiento tácito de la organización (tanto el del experto como el de fondo o colectivo)

Tipos de sistema informáticos

  • Sistema experto – Conocimiento tácito (experto)
  • Sistema de aplicación – Conocimiento explicito (metodología)
  • Sistemas basados conocimientos (inteligencia) colectivos – Conocimiento de fondo (tácito colectivo)

Objeto de conocimiento

Los objetos de conocimientos se hacen accesibles al pensamiento asignándoles categorías. Este enfoque se sigue aplicando actualmente en gran parte de la gestión en áreas específicas. Ejemplos de objetos de conocimientos:

  • Un experto
  • Una empresa
  • Un sistema de clasificación de bibliotecas
  • El buscador de Google
  • La organización de la web (web semántica)
  • La gestión de proyectos

Ejemplos:

  • Objeto de conocimiento (experto) à Dominio de experticidad (tema)
  • Ingeniería del conocimiento, analiza el conocimiento (dominio de experticidad) y lo transforma en un sistema de computación (Sistema Experto) para ese dominio.
  • Experto – Campo de aplicación (dominio)
  • Ej: diagnostico de enfermedades pulmonares.
  • Desventajas de los sistemas expertos

Lo ideal es que el conocimiento sea tácito-colectivo, no de un experto sino de un colectivo de expertos que trabajan en grupo

Procesos y personas

Los procesos son los que operan en sistemas de conocimiento explícito, y “rutinas” a los que ayudan a las personas en sistemas de conocimiento tácito. Los llamados “procesos”. El factor “personas” también es una mezcla de “ejecución”  (trabajo, conocimiento explicito) y “talento” (conocimiento tácito); y la eficiencia de cada situación  depende la proporción en la combinación

De aqui surgen los principales criterios para diseñar y gestionar marcos de trabajo adecuados a las circunstancias. Hay que saber cuándo es adecuado diseñar un modelo de procesos (conocimiento explicito) con trabajo, y cuándo trabajar con conocimiento (tácito) y rutinas (modelo basado en personas).

Cuando el conocimiento, necesario para producir el resultado radica (en su mayor parte) en la tecnología empleada y el procedimiento; éste es un “proceso”, y las personas no aportan “conocimiento”, sino “ejecución”.

Valor aportado por personas y por procesos

Hay empresas para sistemas muy diferentes. Unas se pueden dedicar, a productos estándar y otras al desarrollo de productos novedosos. Las primeras pueden “explicitar” la mayor parte del conocimiento necesario en procesos y tecnología; y trabajar con personal de menor conocimiento “tácito”, porque la calidad y homogeneidad de los resultados, depende más de los procesos que de las personas (modelos de procesos).  En las segundas ocurre lo contrario interesa acercarse a los principios de la agilidad (modelos agiles).

En el primer caso el proceso es el protagonista; el que sabe cómo hacer el trabajo y la persona se integra en el sistema como instrumento, como operario de apoyo. En el segundo el artífice es la persona y el proceso una ayuda, una herramienta que simplifica aspectos rutinarios para que pueda lograr más eficiencia y no diluir el esfuerzo en rutinas mecánicas.

La principal diferencia entre unos y otros es el tipo de conocimiento con el que trabajan. La clasificación entre explícito (contenido en los procesos y la tecnología), y tácito (contenido en la persona) (Ikukiro & Hirotaka, 1995).

Procedimientos se dividen en:

  • Procesos (conocimiento explicito)
  • Rutinas (ayuda en operaciones tediosas)

Personas se definen por:

  • Talento (conocimiento tácito). Los que tienen experiencia
  • Ejecución (operativa). Los que ejecutan acciones

Antítesis y tesis

Los modelos basados en procesos han sido la “tesis” que inicia el conocimiento para desarrollar sistemas de software (tradicionalmente se da por sentado que los programas se desarrollan partiendo del conocimiento explicito). La agilidad es su antítesis, y estamos generando en estos años la síntesis: el resultado que se enriquece de ambos, y logra un conocimiento más completo y depurado.

Compartir el conocimiento tácito

Compartir el conocimiento de los expertos desde cada dominio, lograr la interacción entre las diferentes especialidades.

De la síntesis se extrae:

  • Personas, combinación ejecución-talento
  • Procesos, combinación procesos-rutinas

Se necesita:

  • Flexibilizar los procedimientos y estrategias de gestión
  • Adoptar el grado más adecuado entre agilidad y disciplina para cada subsistema de la organización
  • Analizar cuanto tiene el factor persona de ejecución y cuanto de conocimiento, y cuanto el factor procedimiento de proceso y cuanto de rutina.

Personas, procesos y tecnologías

Conseguir que el sistema de procesos, tecnología y personas formen una ventaja competitiva frente a la competencia, y no un reto más del negocio, no es fácil, ni puede importarse con la implantación de un modelo estándar. En esta tarea nunca está dicha la última palabra, y la labor de innovación constante en procesos y tecnología puede ir ampliando los límites de valor a un factor, y dibujar un nuevo equilibrio con mejores parámetros de eficiencia y calidad en el sistema.

Tanto los modelos basados en procesos como los modelos basados en las personas, se basan en la premisa de que son tres los elementos en un entorno de producción: Las personas, los procesos y la tecnología.

Las teorías de producción basadas en procesos funcionan bien en entornos de producción industrial, y de ahí los tomaron los pioneros de la ingeniería del software.

Estos modelos trabajan sobre la premisa de que la calidad y la eficiencia de la producción se deben sobre todo a los procesos empleados.

Un caso interesante es el recien graduado que tiene los conocimientos teoricos, explicitos en los textos, pero que aun carece de experiencia practiva

Organización del conocimiento

Organización del conocimiento  de un aprendiz (recien graduado)

  • Aprendiz (explicito – Textos académicos)
  • Procesos (empíricos)
  • Tecnologías inteligentes (Sistemas expertos, tutoriales)

Organización de un experto

  • Talento (conocimiento tácito) –> Sistemas expertos (SE)
  • Rutinas (de apoyo en las operaciones repetitivas y tediosas, como calcular, etc.)
  • Tecnologías de apoyo al experto (deberían ser interactivas)

Organización de un ejecutor o operario

  • Ejecutantes
  • Procesos (normas y metodologías funcionales)
  • Tecnología convencional (conocimiento explicito)

Ahora veamos como fluye el conocimiento de las personas, los procedimientos y las tecnologias. Aquí utilizaremos procedimientos para indicar tanto rutinas como procesos

 Relación personas-procedimientos-tecnologías

Conocimiento tácito colectivo

  • Personas (conocimiento grupal) –> Tecnologías inteligentes (colectiva) –> Procesos y rutinas (multidisciplinares)

Conocimiento tácito

  • Personas (expertos) –> Tecnologías de apoyo –> Rutinas (digitales)
  • Personas (aprendiz) –> Tecnologías inteligentes (SE) –> Procesos

Conocimiento explícito

  • Personas –> Procedimientos –>Tecnologías convencionales (procesar documentos)
  • Personas –> Tecnologías convencionales –> Procedimientos (digitalizados)

Ejecutivismo (operativismo)

  • Procedimientos (rutinas) –> Personas (operativa) –> Tecnologías convencionales (pueden usarse o no)

Tecnologismo (futurismo)

  • Tecnologías inteligentes (autónomas) –> Personas –> Procedimiento (automáticos)

Ejemplo: Se realizó un torneo de ajedrez en el que los jugadores podían auxiliarse de las máquinas (programas), donde se dieron las siguientes situaciones:

  • Expertos (maestros del ajedrez) apoyándose en programas no muy avanzados (conocimiento tácito con apoyo)
  • No expertos utilizando programas muy avanzados (conocimiento explicito, como operador del programa)
  • No expertos interacción con programas no muy avanzados (conocimiento colectivo, como un sistema)

Interacción: (persona <—-> persona) <—-> máquinas

Para sorpresas de muchos el torneo fue ganado por dos jovenes no expertos que se interactuaban con programas no muy desarrollados. Al final la interaccion entre personas y tecnologia (inteligencia colectiva) superó a la experiencia de los expertos en ajedrez y lo algoritmos de ajedrez avanzados. Es que se pone el valor del conocimiento tácito colectivo de las personas y su interacción por encima del conocimiento de los procesos y del tacito individual.

Imagen: Lifeder

 

Publicado en Relación humanos-tecnologías | Etiquetado , , , , | Deja un comentario

La inteligencia artificial, algunos conceptos

Avengers-age-of-ultronEl paradigma simbólico

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial (IA) y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas. De ahi que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista

En sus inicios la inteligencia artificial se fundamento en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbólico dentro de la IA lo que originó nuevos paradigmas.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencias por segundos. Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Crisis de la IA

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heuristicos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran algunas ideas, en muchos casos condenadas por los padres de la IA:

El primer fracaso de la IA estuvo al pronosticas que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

Esto dio lugar a un nuevo paradigma, el conexionista, que incluye prácticamente a todos los puntos vistos anteriormente, siendo el de más impacto teórico las redes neuronales (la simulación de la conexión entre neuronas).

Pero los resultados siguen siendo  lentos y los financistas comienzan a escasear y son muchos los que comienzan a abandonar las filas de la IA. Pero en medio de este panorama surgen nuevas ideas, en principio relacionadas las tecnologías informáticas convencionales y posteriormente de la convergencia de las tecnologías de punta como las nanotecnología y la biotecnología, ideas que están conmocionando los círculos científicos y que incluso investigadores de la talla de Marvin Minsky uno de los padres indiscutibles de la IA, se le esté dando su apoyo incondicional.

Entonces… Que está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

“Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre”.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.

Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Desde sus inicios podemos hablar de dos enfoques de la IA, de una parte la IA fuerte y de la otra una memos categórica a la hora de interpretar los hechos, la IA débil.

La Inteligencia Artificial fuerte y debil

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia.

Viabilidad de la inteligencia artificial

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En cambio los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

Hay quienes afirman que la idea de crear una inteligencia artificial partiendo de cero, resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Parece obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una superinteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas.

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI (Inteligencia artificial, el futuro del hombre).

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a sí mismas cada vez mejores

En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

¿Hay alguna razón que nos pueda  llevar a pensar que será así?

Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo, ya hemos visto que la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, el algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

Moravec se fundamenta en la velocidad de las máquinas o sea en las operaciones o instrucciones por segundo que esta realiza, las cuales han ido aumentando desde 1971 que solo alcanzaban las 1000 instrucciones por segundo (1 MIPS) pasando por 10 y 100 MIPS en los 90s hasta llegar a más de las 1000 MIPS en la época actual y partiendo de ese crecimiento acelerado Moravec asume que alrededor del 2020 las máquinas habrán alcanzado los 100 millones de MIPS, que según sus cálculos basados en la metáfora del cerebro como procesador de información, para entonces, se logrará alcanzar la capacidad del cerebro humano y a partir de este momento, los humanos inevitablemente serán superados por las máquinas.

Al igual que Vinge, asume que será el mejoramiento del hardware la vía más directa para alcanzar la inteligencia artificial y que una vez que se superen las operaciones por segundo que realiza el cerebro, las máquinas “emergerán” como una superinteligencia”. Lo cual se asume por analogía con la humanidad, la que en un punto dado de su evolución “emergió como un ser inteligente”, de lo que se desprende que las máquinas también evolucionaran por una vía artificial hasta llegar a suplantar a los humanos.

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge, al igual que Moravec, la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes.

Se está hablando del surgimiento de una superinteligencia artificial superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsara el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a ese evento al que le da el nombre de singularidad tecnológica.

Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

Postulados para el surgimiento de una superinteligencia artificial

La singularidad se sustenta sobre la idea que las maquinas son cada vez más veloces y que esta velocidad crece de forma exponencial y parten que esa velocidad de cálculo superará a la del cerebro.

Un primer postulado es que se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la maquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la maquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado, es la emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado es que las maquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Aunque Vinge hace hincapié en el surgimiento de una inteligencia artificial que por el desarrollo del hardware es capaz de superar a los humanos, también plantea otras vías para alcanzar una superinteligencia superior a la de la humanidad actual y vaticina que será una realidad en un futuro cercano, antes del 2030, y se podrá lograr esta revolución de cuatro maneras diferentes, razón para tener confianza en que el evento va a ocurrir.

Las cuatro maneras para alcanzar la singularidad tecnológica

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (Superinteligencia artificial)
  2. El desarrollo de elementos de interconexiones entre humanos y computadoras pueden llevar a un nivel tal de profundidad que permitan a un humano comportarse como un ser superinteligente (Superinteligencia híbrida)
  3. El desarrollo de redes de computadoras con sus usuarios asociados que se comporten como super-neuronas de un cerebro distribuido que “despierten” como entes inteligentes (antes la llamé Superinteligencia colectiva a hora prefiero llamarla Superinteligencia global)
  4. Manipulaciones biológicas que permitan mejorar en los seres humanos el nivel de inteligencia (Superinteligencia biológica)

Personalmente me deja cierta preocupación que, para muchos, los aciertos de la IA surjan de métodos tan simples como la búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora.

(Esto es un compendio de varios artículos publicados anteriormente en este blog)

 

 

 

Publicado en Inteligencia Artificial | Etiquetado , , , , , , , , | 1 Comentario