¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.

 

Publicado en Riesgos existenciales | Etiquetado , , , , , , , , , | Deja un comentario

Paradigmas y tendencias en la investigación de la IA

A partir de la crisis del paradigma simbolista surge un nuevo paradigma dentro de la inteligencia artificial: el paradigma conexionista que asume que la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente (Hacia un nuevo enfoque de la inteligencia artificial). La IA no se quedó en el paradigma conexionista o emergente, al cual le han seguido el paradigma enactivo o corpóreo y el paradigma basado en datos o máquinas superinteligentes.

De momento, podemos mencionar los siguientes paradigmas

  • Paradigma simbólico (lógico/semántico)

  • Paradigma conexionista o emergente

  • Paradigma corpóreo o enactivo

  • Paradigma basado en datos o máquinas superinteligentes

A su vez, los paradigmas han dado lugar a nuevos modelos y nuevas técnicas de investigación (Las máquinas superando a los humanos) entre las técnicas más importantes tenemos:

Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
• Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
• Máquinas superinteligentes: Se cifra la esperanza en el hardware, máquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
• Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
• Robots reactivos, se desarrollan pequeños robots capaces de interactuar con en el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas.

Las ciencias cognitivas y los paradigmas de la Inteligencia Artificial (IA)

  • Simbolista (lógica y semántica)

  • Conexionista o emergente (redes neuronales y sistemas multiagentes)

  • Evolutiva (algoritmos genéticos)

El pensamiento de las ciencias cognitivas se basa en la idea de construir la IA partiendo de la representación en la computadora de la realidad y, para muchos, esa representación basada en símbolos es equivalente a los estados mentales, ya que tanto la máquina como el cerebro manipulan símbolos (ambos son sistemas que procesan información). Actualmente se esta hablando de dos nuevos paradigmas: el enactivo o corpóreo y el basado en datos

Paradigmas de la IA

Los paradigmas de la IA sirven tanto para la IA general como para la IA específica y para la futura super IA. Su aplicación ha sido fundamentalmente en la IA específica, pero se puede aplicar a la IA general y a la hipotética super IA.

Modelos y paradigmas dominantes en la IA

1.-Paradigma simbólico

  • Modelo simbólico – Reglas de producción

2.-Paradigma conexionista

  • Modelo conexionista o neuronal – Redes neuronales

  • Modelo colectivo – Sistemas multiagentes

  • Modelo evolutivo – Algoritmo genético

3.-Paradigma enactivo

  • Modelo corpóreo – Robótica del desarrollo (robótica reactiva)

4.-Paradigma máquinas inteligentes

  • Modelo basado en datos – Aprendizaje profundo

Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas.

Las unidades interconectadas pueden ser

  • Neuronas

  • Genes

  • Agentes inteligentes

No se puede olvidar que hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión.

Todos los modelos son las técnicas que se aplican para desarrollar una IA (de momento específica) que puede alcanzar, en algún momento, una IA avanzada (general). Los modelos tienen su aplicación fundamental dentro del enfoque socioeconómico como IAs específicas que buscan dar solución a los diferentes dominios, aunque su pretensión inicial haya sido la construcción de una IA de carácter general. Sin embargo sus logros han estado en las aplicaciones a dominios restringidos, Ya existen IA específicas que superan a los humanos en una tarea (ej: ajedrez, GO, etc)

Para mejor comprensión de los modelos veamos la definición dada por López Mantaras para los principales modelos en IA: simbólico, conexionista, evolutivo y corpóreo. Aquí se agregan otros dos modelos: colectivo y basado en datos.

Paradigma simbólico

Modelo simbólico

Es un modelo descendente, que se basa en el razonamiento lógico y la búsqueda heurística como pilares para la resolución de problemas, sin que el sistema inteligente necesite formar parte de un cuerpo (no encarnado) ni está situado en el entorno real. La IA simbólica opera con representación abstracta del mundo real

Paradigma conexionista.

Se mantiene dentro del cognitivismo clásico, de la hipótesis simbolista y la metáfora del computador

Modelo conexionista (neuronal)

Los sistemas conexionistas no son incompatibles con la hipótesis simbolista (SSF) pero al contrario del simbólico, se trata de un modelo ascendente, ya que se basa en la hipótesis de que la inteligencia emerge a partir de la actividad distribuida de un gran número de unidades interconectadas que procesan información paralelamente. En la IA conexionista estas unidades son modelos muy aproximados de la actividad eléctrica de las neuronas biológicas.

Modelo colectivo

El modelo colectivo son sistemas multiagentes y es compatible con la hipótesis simbolista y se puede decir que es no corpórea aunque si tiene en cuenta al entorno, también se trata de un modelo ascendente ya que la inteligencia emerge de una gran número de unidades interconectadas en este caso son los llamados agentes inteligentes, que tienen como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como la posibilidad de interactuar con dicho entorno y con otros agentes.

Modelo evolutivo

También es compatible con la hipótesis simbolista (SSF) y no corpórea. Se trata de imitar la evolución con el fin de que los programas de computadoras mediante un proceso evolutivo mejorasen automáticamente las soluciones a los problemas para los que fueron programados.

Paradigma enactivo

Rompe con la hipótesis simbolista, ya que no es la representación del mundo objetivo y su conversión en símbolos para ser procesados por una computadora sino, la actuación de la máquina en el entorno. Varela incluye el paradigma enactivo en las ciencias cognitivas pero dado que el enactivismo está más cerca de un pensamiento sistémico-cibernético y su complejidad, perfectamente encaja en las ciencias de la complejidad.

Modelo corpóreo

Se basa en que un agente inteligente necesita un cuerpo para tener experiencias directas con su entorno, en lugar de que un programador proporcione descripciones abstractas de dicho entorno, codificado mediante un lenguaje de representación del conocimiento. Sin un cuerpo esta representación abstracta no tiene contenido semántico. El método corpóreo ha dado lugar a la llamada robótica del desarrollo.

Paradigma basado en datos o máquinas superinteligentes,

Se acepta que la forma de pensar de los humanos es totalmente diferente a la de las máquinas (IA débil) y que el método es crear programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano (no sigue la medida humana). Por supuesto, esto nos lleva a máquinas carentes de sentimientos (al menos como los humanos), tan inteligentes como los humanos o quizás más, pero dentro de su propio contexto digital.

Modelo basado en datos

El progreso tecnológico y el almacenamiento de grandes bases de datos ha posibilitado, que el procesamiento orientado a los datos del mundo real sea factible, dado el surgimiento de hardware cada vez más potente, barato y confiable, además la capacidad de internet para recopilar grandes cantidades de datos y la disponibilidad de almacenamiento para procesar esos datos. La IA basada en datos (IA BD) son, en general, algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina, estamos ante programas capaces de desarrollar actividades llamadas inteligentes sin imitar al pensamiento humano.

Tendencias en las investigaciones de la IA (ver el estudio AI100)

El aprendizaje automático a gran escala se refiere al diseño de algoritmos de aprendizaje, así como escalar algoritmos existentes, para trabajar con conjuntos de datos extremadamente grandes.

El aprendizaje profundo, una clase de procedimientos de aprendizaje, ha facilitado el reconocimiento de objetos en imágenes, etiquetado de video y reconocimiento de actividades, y está haciendo avances significativos en otras áreas de percepción, como el procesamiento de audio, habla y lenguaje natural.

El aprendizaje por refuerzo es un marco que cambia el enfoque de la máquina aprender del reconocimiento de patrones a la toma de decisiones secuenciales impulsada por la experiencia promete llevar las aplicaciones de IA hacia adelante para tomar medidas en el mundo real. Si bien se ha limitado en gran medida a la academia en las últimas décadas, ahora está viendo algunos éxitos prácticos del mundo real.

La robótica se preocupa por cómo entrenar a un robot para que interactúe con el mundo a su alrededor de manera generalizable y predecible, cómo facilitar la manipulación de objetos en entornos interactivos y cómo interactuar con las personas. Avances en la robótica dependerá de avances proporcionales para mejorar la fiabilidad y la generalidad de la visión por computadora y otras formas de percepción de la máquina.

La visión por computadora es actualmente la forma más prominente de percepción de la máquina. Ha sido la subárea de IA más transformada por el auge del aprendizaje profundo. Por primera vez, las computadoras pueden realizar algunas tareas de visión mejor que las personas. La investigación actual se centra en el subtitulado automático de imágenes y videos.

Procesamiento de lenguaje natural, a menudo junto con reconocimiento automático de voz se está convirtiendo rápidamente en una mercancía para idiomas ampliamente hablados con grandes conjuntos de datos. La investigación ahora está cambiando para desarrollar sistemas refinados y que sean capaces de interactuar con las personas a través del diálogo, no solo reaccionar a las solicitudes estilizadas. Grandes pasos, también se han realizado en traducción automática entre diferentes idiomas, con más intercambios de persona a persona en tiempo real en el horizonte cercano.

Los sistemas colaborativos, investigan modelos y algoritmos para ayudar a desarrollar sistemas autónomos que pueden trabajar en colaboración con otros sistemas y con humanos.

La investigación de crowdsourcing y computación humana investiga métodos para aumentar los sistemas informáticos haciendo llamadas automatizadas a la experiencia humana para resolver problemas que las computadoras solas no pueden resolver bien.

La teoría de juegos algorítmicos y la elección social computacional llaman la atención a las dimensiones de computación económica y social de la IA, como la forma en que los sistemas pueden manejar incentivos potencialmente desalineados, incluidos los participantes humanos interesados o empresas y los agentes automatizados basados ​​en IA que los representan.

La investigación de Internet de las cosas (IoT) se dedica a la idea de que una amplia gama de dispositivos, incluidos electro domésticos, vehículos, edificios y cámaras, pueden interconectarse para recopilar y compartir su abundante información sensorial para usar con fines inteligentes.

La computación neuromórfica es un conjunto de tecnologías que buscan imitar redes neuronales biológicas para mejorar la eficiencia del hardware y la solidez de sistemas informáticos, a menudo reemplazando el énfasis anterior en módulos separados en entrada /salida, procesamiento de instrucciones y memoria

Conclusión

Como hemos visto, todos los modelos excepto el BD tratan de emular las competencias de la mente o del cerebro humano. En el caso del modelo BD estamos hablando del surgimiento de una inteligencia no humana en el sentido literal. Ya que el modelo BD no tiene nada que ver con la forma de pensar del ser humano es un algoritmo de fuerza bruta basado en la velocidad del hardware. Ahora de acuerdo al paradigma basado en datos, según crezcan los datos las máquinas tendrán más acceso a la información y a su procesamiento (dada su creciente velocidad) y con ello a aumentar exponencialmente su inteligencia, lo que lleva a una posible singularidad tecnológica, fuera de la medida humana.

La IA actual es dependiente, depende de las personas que le suministran información del medio, mientras la IA enactiva recoge la información directamente del medio. Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las máquinas actúan en su entorno (digital) y aprenden de él por lo que adquieren una inteligencia ajena a la humana. También, la IA actual es individualista, resuelve los problemas por si misma sin cooperación, en resumen, podemos decir que la IA actual es específica, individualista y dependiente (incorpórea)

Hoy se habla de sistemas híbridos que combinen el paradigma cognitivo (simbolista y conexionista) con el basado en datos, yo en cambio me inclino por el desarrollo de un sistema que integre el paradigma enactivo con el colectivo: una IA enactiva/colaborativa que sea consciente y cooperativa; capaz de desarrollarse y evolucionar junto a los humanos.

Publicado en Inteligencia Artificial | Etiquetado , , , , , , | Deja un comentario

Características y tipos de inteligencia artificial

tipos-ia3En este artículo continuaremos con algunas de las definiciones dadas en el estudio AI100

Inteligencia Atificial (IA) siguiendo la forma de pensar humana

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado “la IA estrecha o específica”; la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, limitadas a un dominio de aplicación.  Debido a las dificultades en la solución de problemas complejos, en los últimos años, cada vez más los investigadores han reconocido la necesidad -y la viabilidad- de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y a la necesidad de hacer frente a los problemas más difíciles de la “inteligencia de nivel humano” y más ampliamente a la inteligencia artificial general.

Habíamos visto que para López Mantaras, el objetivo de la IA lograr una inteligencia artificial general similar a la humana. Decíamos que la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no, estamos hablando que la IA sigue la forma de pensar humana.

La medida humana

Al respecto el estudio AI100, dice lo siguiente: “En particular, la caracterización de la inteligencia como espectro no otorga un estatus especial al cerebro humano, pero hasta la fecha, la inteligencia humana no tiene rival en lo biológico y mundos artificiales para su gran versatilidad… Esto hace que la inteligencia humana sea una opción natural para evaluar el progreso de la IA”.

IA que no sigue la forma de pensar humana

Recientemente ha ido surgiendo una forma de resolver los problemas basados en la velocidad de procesamiento de las máquinas, lo cual le permite el procesamiento de una gran cantidad de datos.

Definición operacional

Siguiendo al estudio AI100: “La IA también se puede definir por lo que hacen los investigadores de IA. Este informe ve a la IA, principalmente, como una rama de la informática que estudia las propiedades de inteligencia sintetizando inteligencia. Aunque el advenimiento de la IA ha dependido en el rápido progreso de los recursos informáticos de hardware, el enfoque aquí del software refleja una tendencia en la comunidad de IA. Más recientemente, sin embargo, el progreso en la construcción de hardware a medida para la informática basada en redes neuronales ha creado un acoplamiento más estrecho entre hardware y software en el avance de la IA”.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas inteligentes desde una IA débil que tiene como meta que las maquinas, cada vez más veloces y capaces de procesar más datos, llegan a superar a la inteligencia humana. Las cuales se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos. Lo cual nos conduce a la construcción de una IA desde y para las transnacionales con fines comerciales como una IA “no consciente” cada vez más lejos de la medida humana.

IA consciente de los humanos.

“La IA debe pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables” (Estudio AI100)

Tendencias de las investigaciones en Inteligencia Artificial

Volviendo al estudio AI100. “Las tecnologías de IA, ya impregna nuestras vidas. A medida que se convierten en una fuerza central en la sociedad, deben pasar de simplemente construir sistemas inteligentes a construir sistemas inteligentes que son conscientes de los humanos y confiables. Varios factores han impulsado la revolución de la IA, el principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basados en la web, el aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas, son redes entrenadas usando un método llamado retro propagación. Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos. Nuevas plataformas y mercados para datos, productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA”.

Definiciones de Super IA, IA avanzada e IA (especifica)

Hoy se utiliza mucho la definición de una inteligencia artificial general mientras otros hablan de una IA avanzada.

La Inteligencia Artificial General

El objetivo original del campo de IA fue la construcción de “máquinas inteligentes”, es decir, los sistemas informáticos con inteligencia similar a la humana.  Desde hace décadas la mayoría de los investigadores de la IA se han centrado en lo que se ha llamado” la IA estrecha”, la producción de sistemas de IA que muestran la inteligencia respecto a las tareas específicas, muy limitados.  Debido a la dificultad de esta tarea, en los últimos años, cada vez más los investigadores han reconocido la necesidad de volver a los objetivos originales de la IA mediante el tratamiento de la inteligencia en su conjunto y hacen un llamado a hacer frente uno de los problemas más difíciles, la comprensión de la mente humana, y resaltan como diferencia con respecto a la IA convencional, que la inteligencia artificial general hace hincapié en la versatilidad y la integridad de la inteligencia (en franca oposición a los sistemas expertos), y por llevar a cabo la práctica de una ingeniera que siga el esquema de la mente humana.

Volviendo a la definición de IA de López Mantaras

El objetivo de la IA avanzada es lograr una inteligencia artificial general similar a la humana. Donde la IA general puede ser fuerte o débil. Por lo que podemos hablar de una IA general-fuerte, que es equivalente a la mente humana y de una IA general-débil que emula a la mente humana. Ambos persiguen el desarrollo de una IA capaz de resolver todos los problemas como la haría un ser humano, ya sea equivalente a una mente o no.

IA general

  • IA fuerte (capaz de tener conciencia)
  • IA débil

IA especifica

  • IA débil

Llamaremos a la IA general como “inteligencia artificial avanzada” y para la IA estrecha o específica, la llamaremos solamente IA. Mientras la IA general-fuerte capaz de superar a la mente humana y llevarnos a una singularidad tecnológica como Super IA

Mientras la IA avanzada (general), se puede aplicar a cualquier dominio, estamos hablando de una IA multitarea que se pueda aplicar a diferentes dominios. La IA (estrecha), solo se aplica a un dominio

Las computadoras son capaces de realizar tareas específicas mejor que los humanos, y es que los grandes logros de la IA se han con IA la débil y especifica. Hoy estamos ante nuevos éxitos de la IA especializada

Ya no es un secreto que todos los esfuerzos de la IA se han centrado en construir IA especializada, con grandes éxitos en el último decenio gracias a la conjunción de dos elementos:

  • La disponibilidad de grandes cantidades de datos (orientada a BD)
  • El acceso a la computación de grandes prestaciones para poder analizarlos (velocidad del hardware)

La IA avanzada, son estados mentales potenciales que los humanos en su vida diaria nunca desarrollan, quedan latentes. Por tanto, las IA especificas están más acorde con las necesidades de la vida. El que la IA sea general no quiere decir que se vaya a resolver el problema del sentido común, sigue sin comprenderse la semántica, y es que construir una IA avanzada de carácter general parece una misión imposible, tal vez los correcto sea una IA avanzada por medio de la colaboración entre inteligencias especificas abiertas al entorno.

Con respecto al sentido común López Mantaras dice lo siguiente: “En los 60 años de IA se ha probado que lo que parece más difícil ha resultado más fácil (jugar ajedrez) y lo que parece más fácil ha resultado lo más difícil y se debe a la falla del conocimiento de sentido común. El sentido común es requisito fundamental para alcanzar una IA similar a la humana en cuanto a generalidad y profundidad” Y propone como solución al sentido común el desarrollo de una IA encarnada (robótica del desarrollo).

IA corpórea vs IA Basada en Datos

Habíamos visto que en el informe AI100 se proponía que en el desarrollo de la IA se debe pasar de construir sistemas inteligentes simples (no consciente de los humanos) a construir sistemas inteligentes que sean conscientes de los humanos y confiables.

Los sistemas digitales, se caracterizan por manipular símbolos (paradigma simbolista) y son cerrados, la información se la suministran los especialistas, no tienen contacto con el medio exterior. Son sistemas que procesan información, da lo mismo que sean datos, información o conocimientos, en el fondo son una representación de símbolos que son procesados por una computadora donde la información debe ser introducida manualmente. Por lo que la IA es un sistema cerrado (autista) y para que sea una IA avanzada debe estar abierta al entorno, o sea un sistema autónomo capaz de aprender e interactuar con su entorno (digital)

En muchos casos, se sigue hablando de una IA avanzada que depende de los humanos como suministradores de información. Por otra parte, se ignora la interacción entre personas y sistemas autónomos ya que se considera a los sistemas autónomos como entidades independientes que se desarrollan desde y por sí mismo (ver artículo de Moravec).

La inteligencia artificial basada en datos

Con el surgimiento de la IA basada en datos, se irá perdiendo la medida humana donde el referente ya no será la mente ni el cerebro sino la propia máquina y su velocidad para procesar los datos.

Hoy estamos hablando de una IA basada en datos con fines económicos (nació para que las transnacionales de la información obtengan beneficios y al surgimiento de máquinas superinteligentes desde una IA débil que tiene como meta que las máquinas, cada vez más veloces y capaces de procesar más datos llegan a superar a la inteligencia humana. Estas se desarrollarán en un entorno artificial, fuera del mundo natural y crecerán en internet, en la nube, en las grandes bases de datos.

La IA basada en datos son algoritmos de fuerza bruta que se programan utilizando la velocidad de procesamiento de la máquina (son posibles gracias a las prestaciones cada vez mayor de las máquinas), lo que daría lugar a una singularidad tecnológica producto del procesamiento de grandes cantidades de datos, por lo que estaríamos hablando de máquinas superinteligentes y de una IA débil en lugar de una super IA como una IA fuerte.

Inteligencia artificial corpórea o enactiva

Toda inteligencia compleja depende de la interacción con el entorno y estas interacciones dependen a la vez del cuerpo. Las inteligencias avanzadas actúan en su entorno (virtual) y aprenden de él, por lo que adquieren una inteligencia ajena a la humana. La IA actual (convencional) está separada de su entorno por lo que no puede valerse por sí misma (sistema autista). Por lo que podemos hablar de una IA autónoma encarnada en el entorno humano (corpórea o enactiva) o de una IA no encarnada que responde a un ambiente digital

Francisco Varela define la inteligencia artificial enactiva como: “Una IA en la que las maquinas sean inteligentes en el sentido de desarrollarse hacia un sentido común compartido con los seres humanos, como pueden hacerlo los animales, no veo otro camino que hacerla pasar (a la IA) por un proceso de transformaciones evolutivas como se sugiere en la perspectiva”.

Podemos clasificar a la IA por sus características (tabla de comparación entre IA convencional e IA avanzada)

  1. Específica (se aplica a una tarea) o general (multitarea)
  2. Débil (no consciente de sí) o fuerte (autoconsciente)
  3. No autónoma o autónoma (aprende del entorno)
  4. Simbolista (resuelve las tareas de forma individual) o conexionista (resuelve las tareas de forma colectiva)
  5. No consciente de los humanos o consciente de los humanos
  6. No sigue la medida humana o a la medida humana
  7. No corpórea o corpórea

Debemos destacar que el objetivo principal de una IA avanzada siempre fue que fuera autoconsciente IA fuerte ahora se aspira a que la IA al menos sea consciente de los humanos y que en el futuro de forma emergente pueda convertirse en autoconsciente.

Ahora estamos en condiciones de definir la IA convencional que es la que se ha estado desarrollando hasta ahora

La IA convencional, el ejemplo clásico son los sistemas expertos:

  1. Específica, se desarrolla para un solo dominio
  2. Débil, no es autoconsciente
  3. No autónoma, depende que le suministren la información
  4. Simbolista, se basa en reglas de producción
  5. No es consciente de los humanos
  6. Se asume que de alguna forma represente la forma de pensar humana
  7. No corpórea

También podríamos tratar de definir las características de la IA avanzada (ideal)

Un primer acercamiento a una IA avanzada ideal

  1. General
  2. Fuerte
  3. Autónoma
  4. Integra el simbolismo con el conexionismo
  5. Consciente de los humanos y es capaz de colaborar
  6. Sigue la medida humana
  7. Corpórea (encarnada en el mundo y capaz de evolucionar)

Actualmente el patrón de una IA avanzada no es el mismo y difiere para cada tipo de IA. En realidad, en la IA se asumen muchas cosas que crean grandes expectativas, de ahí la confusión y los desacuerdos que siempre han existido

Tipos de IA avanzadas

IA avanzada cognitiva: Se cumple, bastante bien, para los puntos de una IA ideal, pero no es capaz de colaborar ni es corpórea

IA avanzada conexionista cumple con todos los parámetros excepto que no es corpórea

IA avanzada operativa (orientada a los datos), actualmente es la línea de IA avanzada que ha tenido más impacto sobre todo en la economía de las transnacionales de la información, hasta el momento se puede decir que no es colaborativa, no sigue la medida humana (son algoritmos que aprovechan las prestaciones de la máquina y su acceso a grandes bases de datos) y es no corpórea

IA avanzada enactiva como proyecto será capaz de cumplir con todos los puntos de la IA avanzada ideal

De momento no vamos a profundizar en la superinteligencias, recuerden que son inteligencias que aspiran a superar la medida humana (trascienden las capacidades humanas) y asumen un carácter tecno-religioso, por lo que solo mencionaremos su posible impacto futuro.

Superinteligencia producto de una singularidad tecnológica, aunque se inspira en una IA avanzada preferentemente cognitiva, todo indica que, de surgir, será producto de una IA avanzada operativa, por lo que en lugar de hablar de una superinteligencia artificial estaríamos hablando de una máquina superinteligente que, para bien o para mal, tendrá muy poco que ver con los humanos.

Superinteligencia producto de una singularidad distribuida (cerebro global) se inspira en la IA avanzada conexionista que producto de las conexiones (en principio lógicas) con las personas se ira conformando un cerebro global (metasistema, también, de momento exógeno) por lo que surgirá un superorganismo global. De producirse todo indica que pasará de una conexión lógica (metasistema exógeno) a una conexión física entre personas y maquinas lo cual conduciría a una metasistema endógeno y estaríamos ante una variante del transhumanismo: la fusión física entre humanos y tecnologías.

 (En próximos artículos volveremos sobre estos temas)

Imagen: Futuro eléctrico

 

Publicado en Inteligencia Artificial | Etiquetado , , , , , , , , , | Deja un comentario

¿Qué es la inteligencia artificial?

Durante esta serie de artículos que publicaremos estaremos haciendo alusión al estudio cien años sobre IA (AI100) y al excelente artículo de López Mantaras sobre el futuro de la IA. Comenzaremos por el estudio AI100, el cual llega a la conclusión de que no existe una definición precisa de la IA.

 En el estudio (AI100) en uno de sus párrafos se afirma lo siguiente

Una imagen precisa y sofisticada de IA, una que compite con su popular representación: se ve obstaculizada al principio por la dificultad de precisar una definición de inteligencia artificial. En los enfoques que el Panel de Estudio consideró, ninguno sugiere que actualmente haya una IA de “propósito general”.

Luego, más adelante, en el informe se trata de definir la IA

Curiosamente, la falta de una definición precisa y universalmente aceptada de IA probablemente ha ayudado al campo a crecer, florecer y avanzar a un ritmo cada vez más acelerado. Los practicantes, investigadores y desarrolladores de IA son guiados por un rudo sentido de dirección y un imperativo para “seguir adelante”. Aun así, queda una definición importante y Nils J. Nilsson ha proporcionado una útil: “La inteligencia artificial es esa actividad dedicada a hacer que las máquinas sean inteligentes, y la inteligencia es esa calidad que permite que una entidad funcione de manera apropiada y con previsión en su entorno”.

En esta definición, personalmente, me deja ciertas lagunas:

1ro. Que las máquinas sean inteligentes, ¿nos estamos refiriendo a una inteligencia general (multitarea) o una inteligencia especifica

2do. Que funcione de manera apropiada y con previsión en su entorno ¿a qué entorno se refiere, cuando las IA hasta la fecha han sido desarrolladas ajenas a su entorno, de ahí que muchos le llamen sistemas autistas.

Por su parte López Mantaras en su articulo El futuro de la IA: hacia inteligencias artificiales realmente inteligentes, da la siguiente definición de IA., dice lo siguiente:

El objetivo último de la IA, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es comparable a otros grandes objetivos científicos como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. A lo largo de los últimos siglos, este afán por construir máquinas inteligentes nos ha conducido a inventar modelos o metáforas del cerebro humano…Actualmente el modelo dominante es el modelo computacional basado en el ordenador digital y, por consiguiente, es el modelo que se contempla en este artículo.

Definición con la cual, a pesar de su restricción, me siento identificado, pero, para comprender esta definición necesitamos saber a qué le llama inteligencia de tipo general, lo cual veremos en el próximo artículo, ahora vamos a hacer un poco de historia y con ello aclarar los conceptos de IA fuerte e IA débil (similar a la humana).

Algo de historia (ver Inteligencia artificial el futuro del hombre)

La Inteligencia Artificial (IA) surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en sí misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora. Lo que dio origen a la metáfora de la computadora como modelo de los procesos mentales, que insiste en la semejanza entre el hardware y el cerebro. De hecho, la realización y el perfeccionamiento de las computadoras numéricas partieron de analogías con el sistema nervioso. El propio John von Neumann solía hablar de “órganos” para referirse a los componentes de la computadora. Se hizo popular la definición de la computadora como un “cerebro electrónico”. Con la llegada de los primeros lenguajes de programación evolucionados y posteriormente con la aparición de la Inteligencia Artificial, las comparaciones con el hardware empezaron a tener menos aceptación.

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte, la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil (ver La inteligencia artificial, algunos conceptos).

  • IA fuerte: Construir programas que emulen el comportamiento inteligente de los humanos como: el pensamiento, el aprendizaje, la visión, la resolución de problemas, la creatividad, etc. Ya que estos modos de comportamiento se pueden explicar algorítmicamente en términos de estados mentales.
  • IA débil: Construir máquinas capaces de resolver problemas que requieran de inteligencia. Para ello se construyen programas que tengan un comportamiento inteligente sin importar si emula o no a la inteligencia humana.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia, … El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Paradigma simbolista.

Para algunos, los humanos y las computadoras son dos especies de un mismo género: los sistemas de procesamiento de la información. Aceptar a la mente humana como una forma de procesamiento de la información trae como consecuencia que se produzcan dos fenómenos inversos:

  • La generalización de los sistemas procesadores de información.
  • La simplificación de la mente humana (reduccionismo).

El problema radica en la generalización que se le quiere dar a los sistemas de procesamiento de la información. Hay palabras que, para los creadores de teorías, toman un significado especial (trascendental) y se convierten en un “símbolo” cargado de significados adicionales, en muchos casos abiertos a nuevas manipulaciones, que se adaptan a la interpretación del contexto de la teoría, como es el caso del término “procesamiento de la información”.

Veamos algunos apuntes a la definición de Lopez Mantaras

Paradigma simbólico (hipótesis): la naturaleza del sustrato (circuito electrónico o redes neuronales) carece de importancia siempre y cuando dicho sustrato permite procesar símbolos.

Lo anterior se trata de una hipótesis, por tanto, no se puede ni aceptar ni rechazarla a priori.

La IA es el campo dedicado a verificar esta hipótesis: verificar si una computadora convencionalmente programada es capaz o no de tener conducta inteligente de tipo general.

Sistema simbólico físico (SSF): Sistema capaz de manipular símbolos, generar nuevos símbolos, crear y modificar relaciones entre símbolos, almacenar símbolos, etc. Los símbolos son físicos y tienen un sustrato físico-electrónico.

Sustrato de los símbolos:

  • Físico-electrónico (computador)
  • Físico-biológico (seres humanos)

Computadora: los símbolos se realizan mediante circuitos electrónicos digitales

Seres humanos: los símbolos se realizan mediante redes de neuronas.

Para concluir con Mantaras, podemos decir que tanto las computadoras como los seres humanos son capaces de procesar símbolos (en general, procesar información)

La metáfora del computador

La metáfora del computador surge casi desde los inicios de la computación. ¿A qué se debe esto? Antes, las máquinas solo sustituían cualidades físicas de los humanos tales como: fuerza, traslación, precisión. Piensen en los medios de transporte, las grúas, los microscopios, etc. Con las computadoras se pretende que estas realicen los cálculos, al igual que los hace la mente para resolver los problemas técnicos. De ahí que una primera metáfora fue llamarle “cerebros electrónicos”. Metáfora que cayó en desuso. Por otra más sutil y trascendente: la computadora puede sustituir al hombre en todas sus actividades ya que ambos son “sistemas basados en el procesamiento de la información”.

La metáfora reduce el concepto de inteligencia a procesamiento de la información lo cual hace que se pueda hablar de inteligencia en la máquina, pero también a nivel social, redefine el concepto de inteligencia en términos computacionales, crea una cultura social y una pedagogía orientada a la formación del pensamiento algorítmico en los jóvenes científicos. Ya que, si se parte de la idea de que todo es algoritmizable, entonces, la limitación no está en la máquina, sino en la incapacidad del hombre para hacer los algoritmos. El hombre debe aprender a hacer algoritmos para la máquina. Lo que nos puede llevar a la conclusión de que el hombre sólo sabe lo que es capaz de algoritimizar, por lo que, algoritmizar; se entiende como comprender.

De lo anterior se desprende, por ejemplo, que, para yo entender un fenómeno, debo ser capaz primero de construir una serie de conceptos que me permitan una descripción algorítmica de ese fenómeno. Es evidente que el fenómeno en sí, se pierde entre tanta formalización. Al final, que nos queda, una representación algorítmica de una interpretación matemática –entiéndase formalizada–de un fenómeno.

La simplificación de la mente humana (reduccionismo).

El reduccionismo afirma que se pueden explicar los fenómenos reduciéndolos a un nivel más elemental. Por ejemplo: la conducta humana puede reducirse a estudios neurofisiológicos (incluso sobre animales), el estudio del cerebro puede reducirse a la biología celular, etc. La IA es reduccionista, ya que trata de reducir los procesos de la mente (que son complejos) a sencillos procesamientos de la información. Siguiendo la metáfora del computador, la mente es un sistema de procesamiento de la información que cumple con las leyes de la manipulación de símbolos.

La generalización de los sistemas procesadores de información.

Cuando hablamos de la generalización de los sistemas procesadores de la información, por ejemplo: estamos considerando que cuando un sistema es capaz de vencer al campeón del mundo en ajedrez se ha logrado igualar o superar la inteligencia humana, lo cual es falso en realidad estamos ante una IA especifica que solo puede jugar ajedrez. Estamos asumiendo que un caso particular como jugar ajedrez por una máquina tenga un carácter general

Podemos decir que el gran problema a la hora de definir la IA ha sido, precisamente darles un carácter general a los sistemas de IA que estaban desarrollando, en realidad se asumía que una IA capaz de resolver un problema específico, sería capaz de resolver cualquier tipo de tarea, solo había que agregarle los algoritmos adecuados, o sea, un programa capaz de jugar ajedrez, se podría, sin mucho esfuerzo, adaptarlo para que jugara a las damas. En la práctica no resultó así, cada programa requiere de su propia representación del problema y, hasta el momento, no es posible convertir una IA específica, aplicada a un dominio, en una IA general multitarea (sin mencionar el sentido común que puede cambiar de un dominio a otro), de ahí el fracaso de construir un solucionador general de problemas o del proyecto de quinta generación japonés.

En el próximo artículo hablaremos sobre las características de la IA. También seguiremos haciendo referencia al estudio AI100

Publicado en Inteligencia Artificial | Etiquetado , , , , | Deja un comentario

Nuevos enfoques de la IA (1)

inteligencia-artificial

Crisis de la IA

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Tenemos, entonces, que de las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea. Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte.

En el artículo anterior mencionábamos tres de los enfoques de la IA para una  visión tecnologista lo cual llevo a la segunda crisis de la IA, donde decíamos:

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana (IA fuerte). Enfoque científico, actualmente se habla del desarrollo de una inteligencia artificial general.
  • Sistemas informáticos inteligentes (IA débil). Enfoque socioeconómico, estamos hablando del enfoque pragmático que ha dado a lugar al paradigma basado en datos
  • Sistemas comerciales basados en las técnicas de la IA (IA estrecha). Enfoque técnico-comercial, el cual ha dado origen a diferentes aplicaciones de la IA, tales como los sistemas expertos.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Entonces… Que está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Máquinas inteligentes

Algunos en lugar de IA prefieren hablar de maquinas inteligentes

Los investigadores de la IA han ido perdiendo interés en la programación de sistemas que emulen con la mente por un hardware cada vez más potentes y se parte del hecho que las máquinas son cada vez más veloces y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas super veloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas super inteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Singularidad tecnológica

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

El ideal siempre ha sido que la ciencia sustituya a la religión, persiguiendo con ello que se alcance una interpretación objetiva de la vida y se acepte solo lo que es verificable, pero un nuevo enfoque ha estado surgiendo recientemente y es el deseo que la ciencia y la tecnología, no solo sustituyan a la religión, sino que también ofrezcan una nueva dimensión de la eternidad y de un paraíso tecnológico (enfoque tecno-religioso)

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de RayKurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja una inteligencia artificial (IA) superior a la humana esta será capaz de construir IAs cada vez más inteligentes, produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una poshumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la poshumanidad (reconstrucción del humano).

Como les decía estamos ante un nuevo enfoque de carácter tecno-religioso, donde las tecnologías son capaces de resolver todos los problemas que los humanos durante años no han podido resolver

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a sí mismas cada vez mejores

Hoy seguimos lanzando falsas expectativas sobre el futuro de la IA y las tecno-utopías alcanzan niveles insospechados, por otra parte seguimos sin tener una visión clara de las diferentes líneas que se desarrollan en la IA y confundimos las aplicaciones y su especialización, con técnicas y herramientas que buscan un propósito general y sobre todo la extrapolación en el ser humano sigue siendo insuficiente y se tiende a simplificar las funciones tanto de la mente como el cerebro desde un reduccionismo siguiendo el pensamiento mecanicista actual. Sin embargo son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, RayKurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Intel, etc., trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Microsoft y Sun por solo citar dos nombres, lo que nos hace pensar que no todo es fantasía.

Publicado en Inteligencia Artificial | Etiquetado , , , , , , , | Deja un comentario

Historia de la inteligencia artificial (2)

Segunda crisis de la IA

Si la primera crisis surgió producto de las expectativas de que la maquina (los programas)  en 20 años igualara las capacidades humanas, lo cual no se cumplió, la segunda fue producto de los diferentes enfoques de la IA  y sus métodos asi como las promesas que contenía cada uno y el  menos precio hacia los otros enfoques.

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías. Se basa en la idea de una inteligencia artificial fuerte y ha dado lugar a la psicología cognitiva

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente, Se soporta sobre la idea de una inteligencia artificial débil y ha sigo la impulsora del paradigma basado en datos, del cual hablaremos en el próximo articulo.

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias. Se busca desarrollar sistemas que permitan obtener ganancias, dio lugar al boom de los sistemas expertos que son aplicaciones centradas en un domino de aplicación, por lo cual ha sido llamada IA estrecha.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Nuevos paradigmas

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heurísticos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomarán algunas ideas, en muchos casos condenadas por los padres de la inteligencia artificial (IA). Y es que los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas, por lo que surgió un nuevo paradigma de programación dentro de la inteligencia artificial: el conexionista

El paradigma conexionista

El paradigma conexionista mas representar los estados mentales buscaba la representación de las conexiones que se establecen entre las diferentes de una organismo, ya sean neuronas (redes neuronales), agentes (agentes inteligentes), genes (algoritmos genéticos) y como de estas conexiones se genera un accionar inteligente. Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de conectarse entre sí para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los esté alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre sí y de ajustarse al problema e ir guardando su experiencia.

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Según  Moravec, de quien ya hemos hablado, hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina, ver Moravec y el fin de la especie humana, donde predice que para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Nuevas tendencias en la IA

  • Redes neuronales: Las investigaciones comienzan a concentrarse en el cerebro y sus conexiones en lugar de los algoritmos de la mente.
  • Agentes inteligentes: Se concentran en la inteligencia distribuida en diferentes agentes (con conocimientos parciales) que al integrarse logran resolver problemas complejos en lugar de grandes bases de conocimientos cerradas.
  • Máquinas superinteligentes: Se cifra la esperanza en el hardware, maquinas cada vez más potentes (ley de Moore), que con el tiempo llegaran a superar la potencia del cerebro, en lugar de aspirar a descifrar la mente por medio del software.
  • Algoritmos genéticos: Se aceptan los avances de otras ciencias tales como la biología, en lugar de en lugar de atrincherarse en modelos exclusivamente informáticos.
  • Robots reactivos, se desarrollan pequeños robots capaces de interactuar con el medio y que vayan aprendiendo de los obstáculos, en lugar de los sistemas basados en el conocimiento, que están desligado de la realidad y hay que alimentarlos de forma manual, de ahí que recibieran el mote de sistemas autistas

 Redes neuronales artificiales (RNA)

Hoy en día el enfoque más prometedor parece ser en de las redes neuronales, el cual está siendo adoptado actualmente por Google, en su aspiración de crear una inteligencia artificial. Las redes neuronales a diferencia de los sistemas simbolistas que obligaba a describir todo el conocimiento humano en forma de reglas, lo cual obligaba a tener en cuenta toda la experiencia humana, tarea imposible. Las redes neuronales permiten crear un núcleo de conexiones, que esta puedan sobre su propia experiencia ir ampliándose, similar a como funciona el cerebro.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro. La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles. La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Algoritmos genéticos

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda “en paralelo” y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobre cruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, tras la publicación del libro de Holland  “Adaptation in Natural and Artificial Systems” y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de “evolución simulada”, en particular como un algoritmo matemático implementado en un ordenador.

Inteligencia artificial distribuida

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes. A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Agentes inteligentes

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuidos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc.) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad más o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos “sistemas autistas” estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA más prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.

Vida artificial

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

Aprendizaje automático

Varios factores han impulsado la revolución de la IA.

  • El principal de ellos es la maduración del aprendizaje automático, respaldado en parte por recursos de computación en la nube y una amplia recopilación de datos basada en la web.
  • El aprendizaje automático ha sido impulsado adelante dramáticamente por “aprendizaje profundo”, una forma de red neuronal artificial adaptativas redes entrenadas usando un método llamado retro propagación.
  • Este salto en el desempeño de los algoritmos de procesamiento de información ha sido acompañado por progresos significativos en la tecnología de hardware para operaciones básicas como la detección, percepción y reconocimiento de objetos.
  • Nuevas plataformas y mercados para datos productos, y los incentivos económicos para encontrar nuevos productos y mercados, también han contribuido a la llegada de la tecnología impulsada por IA.

Otro de los problemas era el aprendizaje automático, como lograr que la máquina fuera aprendiendo por sí misma, si era un sistema que estaba aislado de la realidad y había que estar suministrándole los datos del mundo exterior, era necesario que las máquinas estuvieran interactuando con el mundo real, lo cual llevo a un retorno a la cibernética y sus ciberanimalitos. Rodney Brooks, investigador del MIT,  durante años tuvo deambulando por su oficina pequeñas arañas cibernéticas, cuyo objetivo era aprender a desplazarse por el laboratorio.

En estos tiempos se ha puesto de moda el concepto de aprendizaje profundo, el cual consiste en comprender y profundizar sobre los conocimientos propios y obtener nuevos conocimientos. Lo cual requiere de la ya mencionada interacción con el mundo, un sistema aislado como se pretendía con los sistemas expertos, es imposible que aprenda por sí mismo. La forma más utilizada ha sido, desde la cibernética hasta nuestros tiempos, el uso de pequeños robots con uno conocimientos mininos, pero que sus “cerebro electrónico” sea capaz de crear nuevas conexiones y nuevas interpretaciones de la realidad, la otra seria un sistema (software) que este en interacción con el medio, el caso del buscador de Google, que esta interactuando con los usuarios y puede aprender de ello, por eso no es de extrañar que Google este apostando al aprendizaje profundo y realizan enormes inversiones.

Publicado en Inteligencia Artificial | Etiquetado , , , | Deja un comentario

Historia de la inteligencia artificial (1)

ai100_robot-concept_1_0

A lo largo del tiempo he venido escribiendo artículos sobre la inteligencia artificial (IA) que van desde su historia, sus paradigmas, las tendencias y los riesgos y beneficios de la IA. Ahora motivado por el primer informe sobre 100 años de IA y teniendo en cuenta los cambios que se están produciendo en el desarrollo de las nuevas técnicas y herramientas, su impacto social y el enfoque que se sigue, sentimos la necesidad revisar algunos puntos de vista del informe, en especial, sobre el futuro de la IA y la posición del ser humanos (Puede descargar el informe aqui)

La influencia de la cibernética

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, de todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

La heurística

Los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Con la heurística se pretendía resolver aquellos problemas poco estructurados en los que no existía una secuencia de pasos que nos llevara desde un estado inicial a uno final y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación y que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos revolvedores generales fueron abandonados, este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.

El paradigma simbolista

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupos, los que se basaban en la lógica en la lógica para la representación de los conocimientos (la sintaxis, cálculo de predicados) un ejemplo de ello el lenguaje Prolog, o los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos.

Múltiples progresos se desarrollaron durante esos años y fueron delineados los campos fundamentales que conformarían la nueva rama de la Informática. El desarrollo de lenguajes de y para la IA entusiasmó a investigadores y empresas a la vez que se comenzó la construcción de estaciones de trabajo especializadas en IA. A mediados de los años 70 se desarrolló en el Laboratorio de IA del MIT una de estas máquinas dirigida a apoyar y facilitar las investigaciones. En ellas el lenguaje de máquina es el LISP. Varios sistemas comerciales fueron elaborados por otras empresas.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia

Laboratorio de la IA (mundo de juguetes)

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Primera crisis de la IA

Se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales, debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Dadas las falsas expectativas del enfoque heurístico, que pretendía hallar un algoritmo capaz de resolver todos los problemas, y su agotamiento como paradigma de la IA, los investigadores comienzan a formularse una nueva metodología basada en los conocimientos, porque en realidad, el hombre resuelve los problemas debido a que aplica su saber. Este nuevo enfoque, en lugar de partir de lo general a lo particular, se debía tratar de resolver los problemas particulares, utilizando conocimientos.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje Prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos. Todos estos proyectos fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Sistemas expertos

Si anteriormente la IA solo se difundía dentro de los laboratorios, con los SE, irrumpe en el mercado y da lugar a una explosión de aplicaciones en casi todos los campos del saber. Este hecho recibió el impacto directo de la segunda revolución de la informática: las computadoras personales (PC), que fue lo que en fin de cuentas permitió, que los sistemas expertos se difundieran masivamente.

Marcada por MYCIN y desarrollada en la Universidad de Stanford, comienza la década de los Sistemas Expertos orientados al diagnóstico de enfermedades de la sangre, primer método que introduce el razonamiento con incertidumbre, permite comenzar la etapa de formalización de estos sistemas y conduce al desarrollo de herramientas de estructuras generalizadas o Shells (conchas) y por PROSPECTOR, dirigido a la evaluación de prospecciones geológicas e identificación de yacimientos minerales, el cual impactó por contradecir a los expertos y señalar una zona rica en molibdeno valorada en millones de dólares.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante, muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico, todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área específica o sea la restricción a un dominio de conocimiento, lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una máquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado, así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el juicio de una máquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y, por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y sus paradigmas habían llegado a un callejón sin salida. El fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todo el proyecto japonés de 5ta generación, la creación de una supercomputadora que, en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o el mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computadora al ser humano, tales como Lisp y Prolog.

El primer fracaso de la IA estuvo al pronosticar que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

De ahí que la IA abandone los sistemas autistas (encerrados en sí mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
La formalización del sentido común.
El aprendizaje.
La integración de diferentes paradigmas de inteligencia.
El desarrollo de arquitecturas cognoscitivas completas.

En fin, eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando, aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones.

Publicado en General | Deja un comentario

Comprendiendo el futuro de la inteligencia artificial (2)

Ya a mediado de los 80s el científico y escritor de ciencia ficción Vernor Vinge, vaticinó que la creación de entidades con inteligencia mayor que la humana (inteligencias sobrehumanas)será una realidad en un futuro cercano, antes del 2030 y se podrá lograr por cuatro caminos diferentes en dependencia del  tipo de superinteligencia que se alcance

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (Superinteligencia artificial)
  2. El desarrollo de elementos de interconexiones entre humanos y computadoras pueden llevar a un nivel tal de profundidad que permitan a un humano comportarse como un ser superinteligente (Superinteligencia híbrida)
  3. El desarrollo de redes de computadoras con sus usuarios asociados que se comporten como super-neuronas de un cerebro distribuido que “despierten” como entes inteligentes (antes la llamé Superinteligencia colectiva a hora prefiero llamarla Superinteligencia global)
  4. Manipulaciones biológicas que permitan mejorar en los seres humanos el nivel de inteligencia (Superinteligencia biológica)

Cuando hablamos de inteligencia sobrehumana nos referimos a una inteligencia superior a la inteligencia humana y existen dos vías para alcanzar una inteligencia sobrehumana: la construcción de una inteligencia artificial  a nivel de laboratorio que llegue a igualar a la humana y que posteriormente sea capaz de autoprogramarse  cada vez más inteligentes, la otra vía consiste en la ampliación de la inteligencia humana ya sea por medio de dispositivos, o de la conexión en red de varias inteligencias, o por mejoras genéticas

La visión es la agrupación de las líneas de investigación y desarrollo para la creación de una inteligencia superior al humano, las cuales dado su propósito nos lleva a la creación de una forma de inteligencia sobrehumana. Donde cada línea de investigación son las vías para construir una inteligencia superior dentro de cada vision

 Las visiones

Ecologismo —————————————————————————Tecnologismo

Sostenible ——————————————————————– Transhumano

Transdisciplinar —————————————————— Tecnohumano

 

                                   Las visiones

Las vías
Tecnologista
Transdisciplinar
Transhumanista
Ecologista
Tecno-religiosa
Superinteligencia artificial
Superinteligencia global
Superinteligencia hibrida/biológica
Ecología profunda
Socio-económica
IA propietaria
Inteligencia colectiva
Transhumanismo liberal
Desarrollo sostenible
Ético-filosófica
IA beneficiosa
IA colaborativa
Transhumanismo democrático
Bioética global
Científica
IA general
IA evolutiva
Tecnologías convergentes
Tecnologías sostenibles
Técnica
IA estrecha
IA abierta
Humano mejorado
IA controlada

 Visión tecnologista

  1. Vía tecno-religiosa

Carácter utópico/filosófico: Tecnoutopía, tiene un carácter religioso inspirado en el cristianismo, alcanzar el paraíso en la tierra por medio de las tecnologías. Es la parte mística de cada visión, la aspiración de trascender las limitaciones humanas aquí el ideal es recargar la mente en un soporte digital, llámese nube, matriz, red, mundo virtual, etc. Donde la mente pueda desarrollarse infinitamente.

Superinteligencia artificial. Singularidad tecnológica donde las máquinas por sí mismas se hacen cada vez más inteligentes (IA aislada). Es consecuencia del desarrollo de la IA emergente (donde aparecen dos nuevos conceptos: la emergencia y el conexionismo), del crecimiento acelerado de las tecnologías y su capacidad de autoaprendizaje y de autoconstrucción. IA que a partir de un punto se hace cada más inteligente sin la necesidad de los humanos. Máquinas más inteligentes debido a la aceleración tecnológica (retroalimentación positiva) hasta superar a los humanos y llegar a ser inmortal (alma digital). El objeto sustituye al sujeto. La máquina como un mecanismo separado de los humanos y dentro de un entorno digital. Las tecnologías van a transformar al entorno natural, a la sociedad y al individuo y ante los riesgos de que puedan estar fuera de control  deberán ser programadas para que estén alineadas con los intereses humanos. Para la comprensión de la mente humana parte fundamentalmente de las ideas de Kurzweil.

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a sí misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Se está hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable, se consideran a los estados mentales como algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital (conciencia trivial)

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independiente de este. Y que una vez que supere la inteligencia humana será capaz, a su vez, de diseñar máquinas cada vez más inteligentes, lo que llevara a una explosión de inteligencia, por lo que crecerá de forma autónoma siguiendo su propio progreso tecnológico, con o sin los humanos, idea preferida de Hans Moravec, quien ve en la evolución de las máquinas la continuidad de la humana. Muchos sueñan con que esa superinteligencia artificial, después, sea capaz de reprogramar la mente humana y con ello alcanzar la ansiada inmortalidad.

  1. Vía socioeconómica

Carácter social (cosmovisivo): Construir una IA avanzada tiene un alcance cosmovisivo pero orientado a los problemas socioeconómicos como reacción a los peligros  (y beneficios) de una Super IA

IA avanzada propietaria

Su objetivo será el control del mercado y el crecimiento económico ilimitado lo cual la conducirá a una sinergia endógena de tipo mutual. Centros de investigación propios de las transnacionales y desde el presente se está integrando en sus servicios como parte de su KnowHow. IBM (Watson), Google, Microsoft, Facebook, Aple, Amazon, etc.

IA para el bien (AI forgood)

 Se pretende aprovechar el enorme potencial de la inteligencia artificial para el bien social y lograr que tenga un papel esencial en la vida cotidiana y como objetivo se aspira a que pueda acelerar los avances en el logro de los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODS). Como se ve está relacionado con los proyectos de las Naciones Unidas y se centra en la implementación de aplicaciones de la IA donde se logre el mayor beneficio social.

  1. Vía ético-filosófica

IA avanzada beneficiosa

Alineada con los intereses humanos. Cosmovisión tecno-democrática (centros patrocinados), como reacción a los peligros de una Super IA

Construir una IA avanzada robusta y beneficiosa, se ha convertido en el tema principal de los centros de investigación. Es el ideal de casi todas las cosmovisiones que por medio de las tecnologías buscan mejorar a la sociedad y a los individuos. Se persigue la construcción de una IA controlada para que no sea un peligro, una IA que responda a los intereses humanos, aunque en el fondo se aspira a una IA capaz de igualar o supera la inteligencia humana. Sera una IA regulada con un control constante sobre su desarrollo, su conciencia, de surgir, también podrá ser modificada por los humanos en cuanto se aleje de los intereses humanos, siempre podrá ser reajustada.

La IA avanzada beneficiosa o robusta, es el mayor reto intelectual de este siglo donde lo principal no es el impacto social sino que esté alineada con los intereses humanos, de lo que surgen ciertas dudas: ¿Quién tendrá el control de la IA? ¿A qué intereses responderá? Se desarrolla fundamentalmente en centros patrocinados: Instituto para el futuro de la humanidad, Instituto para el futuro de la vida, etc. El tipo de sinergia debe ser endógena comensal siguiendo la idea de una cosmovisión tecno-democrática

  1. Vía científica

IA general (IA fuerte)

Carácter científico (intelectual): Construir una IA avanzada, son las investigaciones para el desarrollo de inteligencia artificial como parte de las ciencias cognitivas, retorno a la IA clásica

Según sus creadores la IA general tiene las siguientes características

  • Hace hincapié en el carácter del uso general de la inteligencia
  • Asume un punto de vista holístico o integral de la inteligenciaCree que ha llegado el tiempo par
  • a construir una IA que sea comparable a la inteligencia humana.

Hasta el momento, las principales técnicas utilizadas en proyectos IA general incluyen las técnicas de la IA clásica:
• Lógica matemática
• Teoría de la probabilidad (tratamiento de la incertidumbre)
• Sistema de producción (estrategias para las reglas)
• Base de conocimientos (representación del conocimiento)
• Algoritmos de aprendizaje (ahora se ha puesto de moda el aprendizaje profundo)
• Robótica (sistemas de planificación)
• Redes neuronales
• Computación evolutiva (algoritmos genéticos)
• Sistema multi-agente (agentes inteligentes)

Se busca la construcción de una IA fuerte.  Se pretende aterrizar las ideas de una super IA que tenía un carácter demasiado futurista por la idea de construir una IA fuerte  retomando las ideas de los padres de la IA. También rompe con la idea de una IA estrecha la cual se construye para desarrollar tareas propias de los humanos en un dominio especifico de aplicación (ej. los sistemas expertos). Construir una IA que sea consciente (conciencia trivial).

Se desarrolla en centros de investigación (Bent Goerzel, es uno de los pioneros de esta línea). Cosmovisión tecnologista. Tiene carácter intelectual.

  1. Vía ingenieril

IA aplicada

Carácter técnico: (a corto plazo). No tienen un carácter general ni de alcance cosmovisivo, son aplicaciones puntuales que busca la implementación de la IA en la vida cotidiana. Construir una IA avanzada con fines productivos (IA estrecha)

Sistemas informáticos se basa en una IA débil, también se le llama IA estrecha ya que se aplica a dominios de aplicación, el ejemplo clásico son los sistemas de expertos donde se representan los conocimientos de campos especifico de aplicación. Se aplica a diferentes dominios de experticidad como el diagnostico medico, la selección de soluciones en una área determinada, el diseño de estructuras, la planificación de procesos, etc.

IA comercial

Orientada al desarrollo y venta de productos (software) para el mercado. IA como producto comercial dentro de la idea de una IA débil. Se está produciendo dentro de las medianas y pequeñas empresas.

 Visión transdisciplinar

  1. Vía tecno-religiosa

Tecnoutopía de corte religioso inspirado en el cristianismo (Intelectual)

 Superinteligencia global

Singularidad distribuida donde la conexión en red entre las personas y las máquinas los hace cada vez más inteligentes. (IA en red). La aceleración proviene de tecnologías más inteligentes, más veloces, más memoria, más conexiones, etc. Existirán personas (o estados) más omnisciente que otras. El crecimiento acelerado de las tecnologías de la información y su capacidad de interactuar en red y de construir nuevas conexiones (cerebro global). Conexión en red humanos-máquinas que alcanzan una superinteligencia (se produce una sinergia sujeto-objeto en la que se pierde el sujeto y da lugar a una supraconciencia en red, superorganismo global. Cada vez más conexiones entre humanos y maquinas donde se produce una fusión tecnológica entre el individuo y la sociedad de alcance global. Para la comprensión de la mente humana parte de las ideas de Francis Heylighen

Surgimiento de una superinteligencia global donde estén conectados en redes los humanos y las máquinas en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora. Vinge le da una gran importancia a Internet, al considerarla como el mejor medio de comunicación entre humanos y humanos y máquinas y considera que sus poderes actualmente están subestimados y que a medida que la conectividad, el ancho de banda, el tamaño de los archivos y la rapidez de las computadoras aumenta se percibe una biosfera como un procesador de datos condesado, pero a una velocidad un millón de veces superior y con millones de agentes humanamente inteligentes… Lo que algunos llaman cerebro global.

  1. Socioeconómica

Inteligencia colectiva

 Aspira a que la inteligencia se puede compartir para encontrar soluciones colaborativas a los problemas. En la práctica, se busca explorar nuevas aplicaciones que saquen provecho de la inteligencia colectiva. Las tecnologías como investigación para que sean beneficiosas. Su representante principal es Thomas Malone del MIT

  1. Ético-filosófica

IA avanzada colaborativa.

Ampliación de la inteligencia  por medio de la colaboración (interacción) entre humanos y tecnologías (conexión lógica). La inteligencia artificial va creciendo y desarrollándose junto a los humanos y ambos se hacen más inteligentes y sabios (sinergia exógena mutual). Se busca la integración humanos-tecnologías pero teniendo como desarrolladores a la sociedad civil, además, de los centros de investigaciones y las transnacionales, donde la interacción entre humanos y humanos y tecnologías irá ampliando la inteligencia y la sabiduría humana (conciencia holística) dado su carácter abierto, libre y colaborativo, basado en comunidades que colaboran por el desarrollo de software abiertos (software libre) desde un enfoque sistémico (paradigma sistémico-complejo) como alternativa a las ideas racionalista (super IA)  y transhumanistas y la confrontación que se irá produciendo. Cosmovisión de la complejidad.

Dentro de la amplificación de la inteligencia esta, la que Vinge define como redes de computadoras y, que en su opinión, ya está surgiendo sin que los propios desarrolladores se percaten y pone los siguientes ejemplos. Vinge menciona una simbiosis entre humanos y computadoras en las diferentes esferas humana que van desde el arte, el ajedrez y las redes de internet. Vinge destaca la los asistentes informáticos (agentes inteligentes) los software de ayuda al diseño (CAD) y la participación en competencias de ajedrez de humanos y computadoras. Al final todo apunta a una colaboración cada vez más estrechas entre humanos y computadoras lo cual nos puede llevar al surgimiento de una inteligencia colectica (siguiendo las ideas de Levy) y aunque Vinge no aclara mucho todo indica que podría sustentarse sobre una interacción exógena entre humanos y máquinas.

Vía científica

IA evolutiva

Se irá construyendo desde las investigaciones en la ciencia de la complejidad. Tiene como línea de investigación la ingeniería de sistemas complejos que incluye temas como la meta heurística, la inteligencia computacional, la inteligencia de enjambre, entre otros. Tiene puntos en común con la cosmovisión de la complejidad ya que ambas, al igual que el pensamiento complejo, son parte integral de una visión compleja-transdiciplinar del mundo. En Latinoamérica el máximo exponente de la ciencia de la complejidad es Carlos Maldonado.

Investigación y desarrollo de sistemas complejos desde el paradigma científico de la complejidad: Ciencias de la complejidad y computación bio-inspirada, vida artificial, sistemas evolutivos, inteligencia de enjambres, computación inmune, metaheuristicas, etc.

Técnicas utilizadas en las investigaciones relacionadas con la IA

  • Redes neuronales
  • Robótica inteligente
  • Algoritmos genéticos
  • Inteligencia de enjambre
  • Modelación basada en agentes
  1. Vía ingenieril

Línea aplicada: Aplicaciones de las investigaciones de los temas anteriores

  • Aplicaciones de la inteligencia colectiva
  • IA abierta, aplicaciones colaborativas (comunitarias del software libre). Construcción de una plataforma en red abierta y colaborativa entre personas e IAs que permitan la interacción de conocimiento y surgimiento de nuevos conocimientos.
  • Web semántica,
  • Wikipedia, medios sociales de comunicación, etc.
  • Colaboratium (la inteligencia colectiva aplicada al cambio climático)

Si aceptamos que el paradigma actual nos lleva al abismo (siguiendo a Morin) y necesitamos de una inteligencia superior para enfrentar los retos de una complejidad creciente en nuestras relaciones como individuos, como sociedad, como familia, y con las tecnologías , entonces ante las nuevas tecnologías, necesitamos urgentemente un cambio de paradigma y no nos queda más remedio que desarrollar una inteligencia sobrehumana que nos permita construir un nuevo paradigma y con ello construir una nueva inteligencia sobrehumana

Parece que la única forma de resolver los problemas contemporáneos es por medio del desarrollo de una inteligencia sobrehumana. Se necesita de una inteligencia superior a la humana para resolver los problemas contemporáneos (ante la complejidad creciente del mundo). La inteligencia y la sabiduría actual de la humanidad no están condiciones de resolver los problemas actuales (los cuales se vienen arrastrando durante siglos). Por lo que las inteligencias sobrehumanas deben irse desarrollando desde y hacia un nuevo paradigma que cambie nuestra manera de enfocar los problemas y que nos guie hacia un progreso humano basado en la sabiduría colectiva.

 

DiplomadoEnfoqueSistemico

Saber más: Diplomado Enfoque Sistémico

Publicado en Inteligencia Artificial | Etiquetado , , , , , , , , , | Deja un comentario

Comprendiendo el futuro de la inteligencia artificial (1)

futuro-ia

Hoy se habla de los riesgos y beneficios de la IA, de construir una IA beneficios, o de programas de inteligencia artificial para el bien, etc. Pero todos parten de visiones diferentes y los riesgos también son visto desde enfoques diferentes, parece que hablamos de lo mismo, pero desde una mirada a largo plazo, existen abismos insalvables. ¿Sabemos lo que queremos? ¿Qué queremos que haga la IA por nosotros? ¿Y qué pensará la IA de nosotros cuando sea consciente?

Son muchos los que sueñan con construir una IA que supere la inteligencia humana, y son muchos los proyectos de cómo lograrlo, también son muchos los que están preocupados y proponen soluciones aún más riesgosas. Y es que estamos ante uno de los dilemas más grande que ha enfrentado la humanidad ¿Demos construir una inteligencia superior a la humana? ¿Debemos construirla bajo un férreo control? ¿Cuáles son las vías para construirlas? ¿Desde qué visión queremos construirla? De algo si podemos estar seguros, el destino de los humanos está ligado al surgimiento de otras inteligencias y de cómo seamos capaces de interactuar con ellas.

Vivimos dentro del paradigma mecanicista-analítico-reduccionista-lineal que nos lleva a asumir posiciones cerradas sobre el mundo y este paradigma mecanicista ha dado a lugar a la visión tecnologista y al reinado de las ciencias cognitivas. Por tanto, las ciencias cognitivas siguen el esquema del paradigma mecanicista. Podemos decir que el paradigma mecanicista que antes se basó en las leyes de la mecánica de la física donde para comprender un fenómeno solo había que dividirlo en partes más simples. Actualmente con el surgimiento de la computación el paradigma mecanicista tomo un carácter reduccionista al querer reducir los procesos humanos a los procesos de las maquinas (los estados mentales son equivalente a los programas que se realizan en una computadora o tanto el cerebro como la computadora son sistemas que procesan información) y es aquí donde nace la ciencia cognitiva.

Con respecto a las ciencias cognitivas Varela habla de cuatro etapas:
• La cibernética (paradigma sistémico)
• La ciencia cognitiva (paradigma simbolista)
• La emergencia (paradigma conexionista)
• La enactiva (¿?)

Aquí cuando se habla de paradigma se hace referencia a paradigmas tecnológicos y no de paradigmas científicos y mucho menos los de alcance cosmovisivo.
Son de interés las tres primeras, tal vez en lugar de la enactiva habría que incluir como cuarta etapa de la ciencia de la complejidad, que tiene entre sus propósitos convertirse en una nueva ciencia partiendo de las ideas del paradigma sistémico, y es que estamos ante el enfrentamiento entre el pensamiento analítico y el pensamiento sistémico.

Yo prefiero dividir las etapas en
• Enfoque sistémico-cibernético (nacimiento del pensamiento sistémico)
• Enfoque cognitivo (reforzamiento del pensamiento analítico y nacimiento de la ciencia cognitiva)
• Enfoque conexionista (Este enfoque ya estaba presente en el pensamiento sistémico y ahora es retomado por el pensamiento analítico y adaptado a la ciencia cognitiva)
• Enfoque de la complejidad (reformulación del pensamiento sistémico como ciencia: ciencia de la complejidad).

Como decía, nos encontramos dentro del pensamiento analítico y su máximo representante: la ciencia cognitiva. La ciencia de la complejidad, aun, está en sus comienzos. Por tanto, nuestra comprensión sobre el mundo (sobre todo de las tecnociencias) está regida por las ciencias cognitivas. Esto es muy importante para comprender que tipos de inteligencias sobrehumanas surgirán en el futuro y como nos relacionaremos con ellas,.

Los intentos de construir maquinas inteligentes lleva al surgimiento del pensamiento sistémico-cibernético, lo cual rompe con el pensamiento analítico que es el predominante, así como su esfuerzo, no solo de desarrollar las maquinas inteligentes sino también a construir una nueva forma de pensamiento. Por supuesto era más fácil seguir dentro del pensamiento analítico que funcionaba con éxito en las ciencias exactas (sistemas no vivos) y que, sin dudas, debería tener el mismo éxito en la construcción de sistemas artificiales (maquinas), lo cual fue cierto el avance de la inteligencia artificial (nombre que le dieron los pensadores lógicos a la creación de máquinas inteligentes) resulto mucho más eficiente, claro y seguro que como venía sucediendo dentro del pensamiento sistémico.

Es bueno destacar que el pensamiento lógico, en ese momento, estaba presentado problemas para comprender los fenómenos que se producían en las ciencias de la vida: biológicas, sociales, psicología (los sistemas vivos) y el pensamiento sistémico había venido a resolver muchos de esos problemas.

Por lo que tenemos lo siguiente:
• Sistemas no vivos (pensamiento analítico)
• Sistemas vivos (pensamiento sistémico en acenso)
• Sistemas artificiales (pensamiento analítico, con reformas).

En el futuro surgirán algunas formas de simbiosis entre sistemas vivos y sistemas artificiales.
Inteligencia superior a la humana.

Existen varias visiones sobre cómo lograr una inteligencia superior a la humana.
• Visión tecnologista
• Visión transdisciplinar
• Visión transhumanista
• Visión tecnohumanista

También podemos hablar de las visiones que niegan el desarrollo de una IA superior
• Visión ecologista
• Visión sostenible

Solo las visiones tecnologista y transdisciplinar defienden el surgimiento de inteligencia artificial como tal ya que tanto la transhumanista como la teccnohumanista proponen alguna forma de fusión entre humanos y máquinas. La diferencia entre las visiones tecnologista y transdisciplinar es que la primara parte del pensamiento analítico y la segunda del pensamiento sistémico. En ambas se persigue la creación de una inteligencia artificial avanzada. Las visiones transhumanista y tecnohumanista no persiguen la construcción de una IA sino el mejoramiento de las funciones del humano, la primera por tecnologías conexas y la segunda por medio de la biotecnología.

En general tenemos
Visión tecnológica: Construcción de sistemas artificiales (IA cerradas)
Visión transidisciplinar: Construcción de sistemas artificiales (IA abierta)

Es obvio que como estamos dentro del paradigma mecanicista y su pensamiento lógico, la visión predominante es la tecnológica.

Comparación entre las diferentes visiones. Sus aspiraciones.

Las visiones o las posiciones que se asumen ante el desarrollo de una inteligencia superior a la del humano. La visión es la agrupación de las líneas de investigación y desarrollo para la creación de una inteligencia superior al humano. Son las vías para construir una inteligencia sobrehumana donde cada vía para su desarrollo integral cuenta con diferentes enfoques y cada una tiene sus líneas de investigación y su propio propósito (su forma de lograr la inteligencia superior) y a ese propósito le llamamos visión y cada una de ella lleva a la creación de una forma de inteligencia sobrehumana.

La clasificación en las visiones pretendo agrupar las diferentes líneas de investigación y su desarrollo hacia un propósito. Las llamo visiones ya que se necesita cierta fe o creencia en las ideas que se expresan en la visión correspondiente, podemos decir de un cierto compromiso o aceptación consensual de sus propuestas y asumirlas como reales (como una realidad que se puede crear).

Vamos a detenernos en la visión tecnologista (visión predominante)

Años atrás cuando se decía que la IA estaba en crisis se cuestionaban cuales había sido los verdaderos logros de la IA, como desarrollo de métodos teóricos que no tenían aplicación, por métodos que permitieran comprender la mente humana o por el desarrollo de aplicaciones.

La IA parece irreconciliable si la analizamos a través de sus tres vertientes:

  • Estudio de la mente humana.
  • Sistemas informáticos inteligentes.
  • Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías.

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias.

Cada uno de estos métodos niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial.

De acuerdo a estos enfoques surgen tres áreas de investigación y desarrollo de la Inteligencia Artificial.
• Ciencia cognoscitiva. Estudio de la mente
• Máquinas inteligentes. Sistemas informáticos (técnicas de IA)
• Ingeniería del conocimiento. Sistemas comerciales

Estudio de la mente:
Se considera una ciencia natural que investiga sobre la mente que trata de comprender los mecanismos de la creatividad del ser humano apoyándose en las computadoras como soporte del pensamiento de este grupo se desprenden dos grandes ideas que han llenado de promesas las investigaciones de la IA: la IA fuerte y la IA débil.

Sistemas informáticos:
A este grupo no les preocupa tanto las cuestiones filosóficas, aunque su afiliación esta dentro de una IA débil. Para ellos la meta es construir máquinas más perfectas, aprendiendo a representar y manipular el conocimiento sobre el mundo real mediante una computadora y no les preocupa en lo más mínimo si la forma de pensar de las máquinas está de algún modo relacionada con la forma humana de pensar.

Para estos investigadores la máquina es el tema de su investigación, la cual es vista como un todo (soft y hard) y se pretende que esta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. Y se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma. Las mayores aportaciones al campo de la IA se debe a este grupo en temas tan importantes como: la robótica, las tecnologías del conocimiento, la IA distribuida, máquinas para lisp, etc.

Sistemas comerciales:
Se elaboran aplicaciones para resolver problemas que antes eran competencia sólo de los humanos. Son los especialistas de computación que se dedican a abordar a través de algoritmos tareas poco estructuradas con fines prácticos, casi siempre utilizando estructuras de datos complejas.

Se puede ver como rama de la ingeniería dedicada a crear productos comerciales, sobre todo sistemas especializados. Por ejemplo los sistemas expertos.

Cada enfoque crea una filosofía de trabajo que hace incompatible la comunicación entre cada grupo de investigadores, desde sus “creencias” entre MENTE, MAQUINA Y USUARIO. Incluso hasta la forma de ver la máquina cambió para cada uno.

En esta época los investigadores negaban el progreso de los otros, por ejemplo, los teóricos de la IA consideraban a las aplicaciones de la IA como hijos bastardos. Con el tempo se ha sido menos exigente y se acepta de alguna forma que existen diferentes vías para el desarrollo de la IA (aunque siguen siendo poco reconocidas por las otras vías, incluso ignoradas) y que estas tienen que ver con el propósito que se persigue. Entre las diferentes vías existe cierto menosprecio hacia los otras, considerándola que no van a ninguna parte.

Las diferentes vías

Teniendo en cuenta las líneas de investigación (filosófico, social, ético, científico, técnico) y dado su carácter se pueden clasificar como:
Vía tecno-religiosa: Carácter utópico/filosófico (matiz religioso): las tecnologías asumen el papel de la religión por medio de una inteligencia sobrehumana (tecnoutopías)
Vía socio-económica: Carácter social (cosmovisivo): se establece una cosmovisión para lograr el progreso humano teniendo en cuenta la relación (sinergia) entre humanos y tecnologías (tienen un impacto social o económico)
Vía ético-filosófica: carácter ético. Se persigue evitar los riesgos. La supervivencia de la especie humana.
Vía científico: Carácter científico (intelectual): superar los límites biológicos por medio de las tecnologías y convertirse en un superhumano (investigación de carácter general)
Vía técnico-ingenieril: Carácter técnico: tiene un carácter aplicado, busca darle solución a los problemas ya sean económicos, sociales, ecológicos y sobre todo lo tecnocientíficos (aplicaciones que buscan la implementación de la ciencia y la tecnología)

Ahora veremos el desarrollo de estas vías en las visiones tecnológica y la transdisciplinar

Visión tecnológica (pensamiento analítico)
1. Vía tecno-religiosa – Singularidad tecnológica. Superinteligencia artificial (Kurzweil)
2. Vía socio-económica – IA avanzada propietaria. Uso de las técnicas de IA (pragmatismo). I+D para aplicaciones (progreso económico) (Google)
3. Vía ético-filosófica – IA avanzada beneficiosa. Evitar los riesgos (Instituto Futuro de la Humanidad)
4. Vía científica – IA general. Ciencia cognitiva (Goerzelt)
5. Vía técnico-ingenieril – IA estrecha. Aplicaciones de la IA (ej. Sistemas expertos)

Visión transdisciplinar (pensamiento sistémico)
1. Vía tecno-religiosa – Singularidad distribuida: Superinteligencia global (Instituto Cerebro Global)
2. Vía socio-económica – Inteligencia colectiva (Centro de Inteligencia Colectiva del MIT).
3. Vía ético-filosófica – IA colaborativa: cosmovisión de la complejidad. Enfoque sistémico-cibernético. Supervivencia de la especie humana.
4. Vía científica – IA evolutiva: ciencias de la complejidad (Instituto de Santa Fe)
5. Vía técnico-ingenieril – IA abierta: software libre

Comparación entre la visión tecnologista y la transhumanista

Visión tecnologista: construcción de una inteligencia basada en programas (metáfora del computador). Super inteligencia artificial, nos lleva a la digitalización y con ello a la sustitución de la natural por lo artificial

Visión transdisciplinar: El desarrollo de una inteligencia superior colaborativa desde una inteligencia colectiva que tiene como fin la colaboración inter, multi y transdisciplinar. la interacción entre la inteligencia humana y la artificial

En el próximo articulo seguiremos cn el tema

Imagen: ComputerWorld

DiplomadoEnfoqueSistemico

Saber más: Diplomado Enfoque Sistémico

 

 

Publicado en Inteligencia Artificial | Etiquetado , , , , , , | Deja un comentario

Riesgos y beneficios de una inteligencia artificial avanzada desde un enfoque sistémico-cibernético

Dificultades actuales

Actualmente el temor se centra en una inteligencia artificial (IA) capaz de superar a los humanos y los peligros que esto podría conllevar, no obstante los riesgos, cada vez se propaga más en los jóvenes la idea de una IA avanzada y parece como si no existieran más alternativas. El problema radica en que la IA se está construyendo desde un pensamiento positivista-cognitivista-reduccionista-mecanicista, lo cual lleva a la construcción de una IA ajena a los verdaderos intereses humanos,

Es importante tener en cuenta que cuando se habla del futuro de la humanidad, lo encasillamos dentro del paradigma cognitivista-mecanicista-reduccionista. O sea, se extrapolan las condiciones actuales del paradigma economicista a un futuro tecnologista (era de las tecnologías). Hoy estamos pasando de la era social a la era de las tecnologías (se produce una simbiosis entre humanos y tecnologías). Por lo que, el problema del paradigma tecnologista está enmarcado dentro de un paradigma mecanicista-reduccionista y nos lleva a una comprensión lineal del progreso tecnológico. Por tanto, nos propone un futuro donde las tecnologías son el centro del progreso humano, ya que no tienen en cuenta las interacciones entre todas las partes.

El desafío actual es lograr una IA beneficiosa que esté alineada con los intereses humanos, ya no es solo la satisfacción intelectual de construir una IA, sino también, que no sea un riesgo para los humanos. Pienso que el problema no es que la IA sea beneficiosa (¿a quién?) sino que sea socialmente útil para todos (colaborativa).  Claro, es más fácil querer que una IA de forma aislada, sea beneficiosa y que responda a los intereses de un grupo, esto la simplifica y hace que tenga una solución rápida pero incompleta.

Para construir una IA alineada con los intereses humanos hay que definir cuál es el propósito como sistema (cosmovisión) de la humanidad como especie evolutiva. ¿Cómo queremos evolucionar? ¿Hacia dónde queremos ir? (ver curso introducción a la cosmovisión de la complejidad)

Con respecto a la relación entre humanos y tecnologías existen muchas interpretaciones de acuerdo con el contexto de partida y los intereses los humanos. Para no perdernos en muchas interpretaciones se asumirá la relación humanos-tecnologías desde el propósito de los humanos (que no tiene que ser el que tendrán las máquinas inteligentes), y la pregunta es: ¿A qué se aspira con las tecnologías?

Algunas dudas con respecto a la construcción de una IA

  • La IA debe surgir sobre el sistema social vigente y desarrollarse dentro de la ley del mercado. Y todo indica que se construirá dentro de una transnacional. La pregunta es: ¿Quién va a construir la IA y con qué fin? Lo más probable es que la IA llegue a comprender mejor que nadie la ley del mercado y se convierta en el millonario más grande de la historia, surgirá un super monopolio controlado por la IA. Por tanto, si aceptamos la estructura social actual, la mejor solución es el control de las tecnologías, cualquier otra solución se va de control y los riesgos son incalculables.

  • No cambiar la mentalidad actual: hedonista, mercantilista, individualista, consumista. Basada en el tener, que solo busca el éxito (como fuerza externa). Los ricos ahora con la IA serán más ricos.

  • La evolución de las máquinas es más veloz que los humanos y se considera que la evolución humana es demasiado lenta o está detenida, para muchos ya se agotó. Yo pienso que en la era de las tecnologías la evolución humana se va a acelerar y dará lugar a una simbiosis exógena y colaborativa.

  • Querer que las tecnologías respondan a los humanos, pero… ¿No podrán las tecnologías tener sus propios intereses y construir su propio espacio vital y que este se complemente con el de los humanos?

La aplicación de la IA va a exacerbar los problemas actuales

¿Cuál es el riesgo que enfrentamos? O ¿Dónde está el riesgo? Ya en artículos anteriores, habíamos mencionado que en estos tiempos no podemos hablar de una inteligencia artificial (IA) académica que se va construyendo en un centro de investigación para luego al mejor estilo científico, compartir los descubrimientos, hoy la IA, está naciendo en las grandes transnacionales, lo cual va a tener sus consecuencias, dado el contexto actual de poder. Pero las consecuencias justifican los enormes beneficios potenciales que surgirán.

No me preocupa que se esté construyendo una superinteligencia artificial (Google y compañía), lo que me preocupa es que no estemos consciente de sus consecuencias y de que existen otras alternativas. Y lo peor, que estemos desde hoy, transfiriendo nuestra forma de pensar a las máquinas. El que las máquinas se conviertan en una superinteligencia no es un problema, el problema radica en el contexto en que esa inteligencia superior se irá formando, es seguro que las transnacionales de la información no construirán una superinteligencia que comparta sus conocimientos sino en una que incremente su competitividad y aumente su control sobre la Web.

Estamos partiendo de la idea de un usuario pasivo que espera a que le den la información elaborada y procesada por una superinteligencia y, demás está decir, que no es la única alternativa que tenemos los humanos, en realidad no estamos condenados a ser eternos usuarios sometidos a un gran procesador superinteligente que nos brinde toda la información sin el menor esfuerzo, al que inevitablemente llegaremos a adorar. Sin dudas tenemos otras opciones y desde hoy podemos ir construyendo una superinteligencia que no sea propiedad de nadie, que sea libre, que no esté centralizada, que sea abierta y colaborativa. Estamos a tiempo de negarnos a ir a ciegas a un futuro diseñado por las elites de poder: militares, transnacionales, gobiernos; podemos desde ahora comenzar a diseñar nuestro propio futuro, y ese es nuestro mayor desafío.

Como he dicho en otras ocasiones, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento.

Antes de continuar con los riesgos futuros de la IA, vamos a ver los problemas más cercanos que ya se están produciendo y sus consecuencias.

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?

  • Perdida de intimidad: ¿Quién controlara la información y los procesos en su beneficio? ¿Qué harán con ella?

  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?.

  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales. Para mí este es el punto clave.

  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.

  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

En la actualidad se ignoran los verdaderos problemas: la simbiosis que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Los intereses humanos

Por otra parte, se asume como solución evitar que la IA sea peligrosa. Una IA robusta alineada con los intereses humanos (intereses de un estado tiránico, de militares, de una transnacional monopolista). La pregunta es: ¿Los intereses de quién? La IA serviría para la competencia por los mercados, para ganar guerras, para controlar a los ciudadanos, … Y siempre será en aras del progreso, del bienestar, de la democracia, etc. Como lograr una IA alineada con los intereses humanos si los humanos no están alineados entre sí, sino piensen en los enfrentamientos actuales entre EEUU y Rusia, Israel y Palestina, Siria y el Estado Islámico, etc.

¿Cuáles son los intereses humanos? Dada nuestra mentalidad actual

  • La destrucción (por negligencia) del planeta.

  • Las guerras por disimiles fines, pero guerras al fin.

  • La lucha por la hegemonía.

  • El control de los recursos del planeta.

  • Los conflictos territoriales.

  • Ganar dinero a toda costa sin importar la destrucción del planeta, los derechos humanos (trata de humanos), la violencia, la venta de armas, etc.

Mientras la IA se hace más inteligente y nos preocupamos porque esté alineada a los “intereses humanos”, por el camino irán surgiendo diferentes riesgos tan preocupantes como la misma super IA

¿Es posible construir una IA alineada con los intereses humanos?

Con respecto a programar una IA que responda a los intereses humanos, tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferenciar las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel, pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llegó a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podrían convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Un peligro consiste en que el bienestar de los individuos dependa de los objetivos de una IA propiedad de una transnacional, no tiene por qué ser una súper IA para controlar a los humanos (basta con el procesamiento de los datos). La IA propietaria será una ventaja económica en manos de las transnacionales que les permitirán controlar los mercados y llevar a los usuarios a comprar todo aquello (sugestión) que la IA desee. Se adorarán a las IAs, las que siempre tendrán la razón

La otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

Están los que creen que el surgimiento de una super inteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una super inteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostará por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Para muchos el problema del riesgo potencial de la IA, se reduce a construir una máquina amistosa para que luego la usen los militares, los gobiernos tiránicos, los grandes monopolios, los terroristas, los sicópatas, etc. Una vez en manos inapropiadas vale la pena cuestionarse si es amigable, robusta o si está alineada con los intereses humanos, y por supuesto que estará alineada con los intereses de algunos (o de muchos), por lo que el riesgo no está en las máquinas sino en el consumidor final y en el uso que se le dará y tendremos que darle la razón a los luditas, que la mejor opción es prohibir la construcción de la IA.

Los riesgos de la super IA como parte del problema tecno-científico

  • El peligro de una IA fuera de control que tendría sus propios objetivos (IA no alineada a los intereses humanos)
  • La lenta evolución humana y sus límites biológicos, no compite con la acelerada evolución artificial (explosión de inteligencia)
  • El riesgo de una simbiosis humano-tecnología no favorable a los humanos.
  • No alcanzar el conocimiento necesario para manejarse con las nuevas inteligencias.

Debemos tener una comprensión clara de los riesgos de una IA, en parte coincido con Maravec, en el sentido de que los robots (como parte de la IA) serán nuestros hijos mentales, claro no en el sentido que él lo dice, sino en el sentido de que aprenderán de nosotros y harán lo mismo que nosotros hacemos; luchar por el poder, por los mercados, por la hegemonía mundial, sin dudas no harán nada que no hayan aprendido de nosotros. Solo que, esta vez, estaremos ante una inteligencia que podrá superarnos en muchos sentidos. Pienso que las máquinas serán parte ineludible y necesaria de nuestra historia, pero, aun no estamos preparados para lidiar con ella, no porque sean una amenaza sino porque nosotros las convertiremos en una amenaza y en vez de obtener lo mejor de ellas, las arrastraremos a nuestra conveniencia y nuestros intereses individuales de predominio. Tal vez la IA nos obligue a ser mejores y a repensar nuestra condición humana; eso, si queremos seguir existiendo como especie humana.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta, sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, y lo que sucede, en realidad, es que estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la sinergia que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.

Como podemos enfrentar los riesgos de una IA

  1. Realizar investigaciones en la ley, la ética, las políticas para una IA avanzada, debemos cuestionarnos si es correcta la ética humana actual. La necesidad de aprender a manejarse con las tecnologías y la sabiduría que debemos alcanzar.

  2. La educación relacionada con este tipo de investigación, no es construir una IA amigable, sino enseñar a la IA a ser amigable, pero, primero tenemos nosotros que aprender a ser amigables (enseñarnos a nosotros mismos). Quizás tanto la IA como nosotros podamos aprender juntos y aumentar la inteligencia y la sabiduría.

  3. Para poder entender cuáles son los intereses “humanos” primero tendríamos que definir que es un progreso humano verdaderamente digno

El problema no está en construir una super IA capaz de responder a criterios definidos, sino que esta vaya creciendo, formándose, junto a los humanos y que tanto la IA como los humanos vayan aprendiendo a trabajar de forma colaborativa, por lo que el algoritmo base de esta IA debe ser: la colaboración, la solidaridad, la empatía con los humanos y no las restricciones que hay que tener en cuenta. Para ello se necesita de una nueva relación entre humanos, una relación profunda, en lugar de las relaciones superficiales actuales, que a su vez conduzca a una nueva relación entre humanos y tecnologías. Por lo que desde hoy tendremos que aprender a relacionarnos como humanos para luego saber cómo relacionarnos con la super inteligencia artificial

En fin, queremos construir una IA perfecta en un mundo lleno de contradicciones, donde las leyes se interpretan a la conveniencia de cada cual y las reglas las ponen los poderosos. ¿Cómo va a actuar esa super IA? ¿Qué leyes va a respetar? ¿A qué intereses va a responder? ¿Qué reglas va a aplicar? Sencillamente la IA se incorporará a los manejos, y como he dicho, en otras ocasiones, será otro competidor más, que terminará, ante el egoísmo y la falta de acuerdo y la violencia humana, por coger el control del planeta y este es uno de los aspectos en que coincido con Moravec, las máquinas terminarán sustituyendo a los humanos; quizás estemos en el momento de comenzar a cambiar nuestra mentalidad, nuestra sociedad y convertirnos en dueños de nuestra propia evolución como humanos.

DiplomadoEnfoqueSistemico

Saber más: Diplomado Enfoque Sistémico

Publicado en Inteligencia Artificial, Riesgos existenciales | Etiquetado , , , , | Deja un comentario