La singularidad tecnológica de Raymond Kurzweil

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a una inteligencia artificial (IA) superior a la humana. Así de fácil.

Kurzweil define a la singularidad como la creación de una inteligencia no biológica que va a igualar el alcance y la sutileza de la inteligencia humana y luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de la información y a que tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido por lo que llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana “no mejorada” será incapaz de seguirlo lo cual marcará el advenimiento de la singularidad.

La idea de una singularidad la toma de Vernor Vinge, pero a diferencia de este que mostraba preocupación por su surgimiento, Kurzweil le profesa una fe que roza el fanatismo. En cambio, Vinge, reconoce que la singularidad podría ser un peligro, cuando dice: “Quizá los gobiernos del mundo decidan que la posibilidad es tan peligrosa que la investigación que lleva a la singularidad será prohibida. Lamentablemente, el problema de la proliferación de armas nucleares ya ha demostrado la fragilidad de esta esperanza. Aunque todos los gobiernos del mundo entendieran la “amenaza” y la temieran, el avance hacia el objetivo seguiría” … “De hecho, la ventaja competitiva –económica, militar e incluso artística–  de todo avance en la automatización es tan atractiva que aprobar leyes que prohíben estas cosas básicamente garantiza que otros las conseguirán antes. Si la singularidad tecnológica puede producirse, lo hará”

Para Ray Kurzweil (al igual que el resto de los tecno-utopista) las computadoras han duplicado tanto su velocidad como su complejidad (lo que en realidad significa la cuadruplicación de su capacidad) cada veinticuatro meses desde el comienzo de los artilugios de cálculo, en los inicios de este siglo. Esta tendencia continuará y, alrededor del 2020, los ordenadores alcanzarán la capacidad de memoria y la velocidad de cálculo del cerebro humano. También es el que más resalta las posibilidades de la tecnología y repite junto a Vingen que no ve límites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Y dice: “Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología… Este siglo será equivalente a 20.000 años de desarrollo lineal”.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: “La tecnología informática la situación dista mucho de ser estática. Hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que, en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos  –por ejemplo, el de escribir un libro sobre ordenadores–, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez”.

Al igual que Minsky está inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas; ellos, no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, en lugar de su capacidad para manejar información. Y considera que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos. Su sueño es reproducir las funciones del cerebro en un medio digital y toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. Ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También se muestra inconforme con su cuerpo a lo que dice: “La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida”. A lo que agrega: “Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas”.

Kurzweil que es el más tecnólogo de todos los futuristas, pone gran énfasis en la nanotecnología y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegará en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nano-robots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots  son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio. También aspira a que la nanotecnología nos lleve más allá de los límites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones sobre el futuro se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele-cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnología, también podrán tenerlos en la realidad.

De igual manera, Kurzweil, considera que la humanidad no es el fin de la evolución sino el principio de una nueva evolución que surgirá producto de una nueva forma de inteligencia que superará a la humana, lo cual será el acontecimiento más importante en la historia humana. Con profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que constituye la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología. Y dice: “Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la sinergia entre humanos y tecnologías”.

Kurzweil es categórico cuando afirma: los que decidan seguir siendo humanos, no tendrán ninguna posibilidad ante las nuevas entidades. Y agrega: “Una legislación eficaz protege a los Mosh, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados”. Se subestima la capacidad de los humanos y su potencial creador.

Kurzweil basa sus ideas sobre el futuro en las siguientes tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio…

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente.  Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre. La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Para los tecno-utópicos, Kurzweil a la cabeza,  solo la tecnología puede salvar a la humanidad por lo que surgen las siguientes preguntas: ¿Puede la tecnología por si sola resolver todos los problemas? ¿Se puede obviar la importancia de la sociedad y sus estructuras actuales sustentadas sobre la hegemonía, la competencia y la ambición de poder que está presente en la naturaleza humana? Cuando analizamos el lenguaje que utilizan, nos damos cuenta, de cómo las consideraciones sociales están presentes en las decisiones tecnológicas y como, las mismas, son consecuencias de muchas de las decisiones futuras; a pesar de sus intentos de querer basarse únicamente en la tecnología como remedio a todos los males.

Libro recomendado: “La singularidad está cerca”

Disponible en Amazon

Nick Bostrom: la amenaza de una superinteligencia artificial

 

La superinteligencia artificial

A la euforia de una singularidad tecnológica de Kurzweil, se une a la predicción, algo preocupante, de Nick Bostrom sobre una superinteligencia artificial, al afirmar que la superinteligencia será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos.

La idea de una superinteligencia artificial nace dentro de la singularidad tecnológica, creada por Vinge, quien la define como máquinas superinteligentes y la  sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas super inteligentes.

Vinge, define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad tecnológica.

Por su parte Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

Creatividad científica
• Sabiduría en general
• Desempeño científico

Los tres son partidarios del avance de la IA producto de las prestaciones de la máquina: más velocidad de procesamiento, más memoria, mejores periféricos, de ahí que Moravec compare la velocidad de procesamiento del cerebro con la de una máquina y tres son los factores para la superinteligencia artificial: la capacidad de la máquina de procesar información cada vez más rápido y de analizar una mayor cantidad de variantes, la representación del procesamiento de la información en forma de redes neuronales similar a como funciona el cerebro y por último el pensamiento profundo que permite el aprendizaje partiendo del análisis de grandes bases de datos.

Hoy todo el interés se centra en el aprendizaje profundo y en el desarrollo de una IA operativa (basada en datos) de ahí que Bostroom, asuma que el avance de la inteligencia artificial en los últimos años se debe al aprendizaje profundo uno de los modelos de la IA que más impacto está teniendo y afirma que la manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. El pensamiento profundo se usa fundamentalmente en el procesamiento de grandes bases de datos basado, estamos hablando de algoritmos “de fuerza bruta” que son capaces de calcular una mayor cantidad de posibilidades. Aunque muchos no aceptan que la mente humana pueda basar su fortaleza en el cálculo y el análisis de datos, estamos ante el modelo de la IA mas aceptado actualmente

Sin dudas, entre los modelos que utiliza la IA está la IA operativa (basada en datos) que utiliza como técnica a las redes neuronales y al pensamiento profundo, en cambio los sistemas expertos están dentro del modelo simbolista que se basa en la representación de la realidad a través de símbolos mentales. Mientras, el modelo conexionista se basa en la representación de las funciones del cerebro por medio de una red neuronal. Son dos modelos diferentes de la representación de un dominio especifico de aplicación. Para la IA simbólica se asume que es mente y se basa en los conocimientos de un experto, en cambio para la IA conexionista se asume que es el cerebro y sus conexiones (redes neuronales) que permite el procesamiento de grades bases de datos. Hasta la fecha no tiene relación un modelo con el otro, aunque es cierto que se habla de lograr un sistema que combine a ambos modelos. Sin olvidar que existen otros muchos modelos de la IA de gran repercusión.

Bostrom refiriéndose al aprendizaje profundo dice: “La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos, aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos” y afirma que este nuevo concepto apunta a la Inteligencia General Artificial.

Y es que desde sus inicios, la aspiración de toda inteligencia artificial ha sido convertirse en una inteligencia artificial avanzada (general) ya que la IA avanzada es una IA de propósito general, capaz de resolver cualquier tipo de tarea, las IA desarrolladas hasta el momento son IA específica, solo resuelve un tipo de tarea, incluso el aprendizaje profundo, hasta la fecha, solo resuelve un tipo de tarea, de lo cual Bostron está consciente cuando dice: En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero crea cierta confusión cuando dice: pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico. Y habla de sistema híbridos.

Actualmente se aspira a lograr una IA (sistema hibrido) que sea capaz de combinar el simbolismo (lógico o semántico), cuya aplicación fueron los sistemas expertos, con el conexionismo (redes neuronales) que utiliza las técnicas de aprendizaje profundo. Pero estos sistemas híbridos siguen resolviendo una sola tarea (IA especifica). Es la idea de combinar una IA especifica simbólica, basada en la representación de conocimientos por medio de reglas con un IA especifica conexionista, de momento específica, basada en buscar patrones comunes en grandes estructuras de datos por medio del aprendizaje profundo. Tanto la IA simbólica como la IA conexionista siguen trabajando por resolver cualquier tipo de tarea (IA general o avanzada). Otra cosa seria la superinteligencia artificial, pienso que no se puede hablar de superinteligencia artificial hasta que no se haya alcanzado una IA avanzada (general) de cualquier tipo.

Tipos de IA avanzada (de propósito general)

  • IA cognitiva, lograr una representación de la realidad tanto simbólica como conexionista para cualquier tarea
  • IA operativa, logra una representación por medio de redes neuronales aplicadas a grandes bases de datos y utilizando el aprendizaje profundo.
  • IA colectiva, se basa en la interacción de diferentes agentes que al integrarse forman una inteligencia colectiva y son capaces de actuar de forma colaborativa, donde la inteligencia está distribuida y es compartida.
  • IA enactiva, es producto de la construcción de la realidad por medio de la interacción con el entorno basado en la actuación del agente que busca la asimilación de la realidad (aprendizaje) de forma activa

En algunas de sus entrevista Bostron le quita importancia a Kurzweil, cuando se habla de una IA poshumana y contrariamente a lo que insinúa Bostrom, Kurzweil es el líder indiscutible de este enfoque de carácter tecno-religioso (el ideal de alcanzar la vida eterna) y es que todo depende del enfoque de la IA, ya que las crisis que ha sufrido la IA, sus altas y bajas, ha sido debido a los desacuerdos entre cada enfoque. Una cosa es el enfoque tecno-religioso, sobre las posibilidades de la IA en el futuro y sobre todo su influencia en la evolución de la humanidad y el surgimiento de una poshumanidad. Y otra cosa son los métodos, teorías, líneas de investigación y técnicas que se utilizan en la inteligencia artificial. Donde Kurzweil no es un investigador de primera línea, en cambio sí es referencia imprescindible sobre las máquinas del futuro, donde Bostrom es otro de sus ideólogos.

Con respecto a la inteligencia artificial, Bostrom se muestra partidario de una IA débil cuando dice: La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Y luego le resta importancia al modelo conexionista basado en redes neuronales cuando dice: “que la IA se inspire en el cerebro es una decisión más bien táctica” y afirma el objetivo principal no es tratar de replicar la mente humana. Aquí no hace distinción entre cerebro y mente, una cosa es replicar las funciones del cerebro (conexionismo) y otra cosa es representar los estados de la mente (simbolismo). Replicar la mente humana era la idea fundamental en Kurzweil, quien aspira a la poshumanidad, actualmente se transa tanto en reproducir la mente como el cerebro humano y lograr la conciencia como un proceso espontaneo (conciencia trivial), Por su parte Bostrom parece negar la idea de un proyecto poshumano: el sueño de Kurzweil de que la propia IA sea capaz de reconstruir las capacidades y la conciencia humana.

Bostron cree que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías, y afirma: Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada” Bostrom apuesta únicamente por el desarrollo tecnológico e ignora cuantas cosas se pudieran hacer si fuéramos mejores seres humanos, más bondadosas, más solidario, más responsables con nuestro entorno, etc. Sigue pensando en máquinas centradas en la tecnología y aun peor, supedita el desarrollo de las tecnologías al desarrollo de una super IA, ve a la super IA como la desencadenadora de todas las tecnologías.

Los riesgos de una superinteligencia artificial

En nuestro tiempo existe una gran preocupación por que las máquinas ocupen los puestos de trabajo de los humanos, a Bostrom como filosofo tecnológica le preocupa más que los descubrimientos sean realizados por las máquinas y considera que la super IA sería el último invento que realizará la humanidad, por tanto, las investigaciones serán desarrolladas por las super IA y es obvio que las máquinas serían capaces de realizar cualquier tarea y los humanos no tendrán nada que hacer.

Viéndolo desde otra óptica, la inteligencia artificial prestara un servicio a la humanidad, ya desde hoy está sucediendo con Google, Facebook, Amazon, Apple, etc., donde ese servicio que presta la IA será recibido por las personas como usuarios, el problema radica en si los humanos serán usuarios pasivos que esperan que las IA decidan por ellos y por las soluciones de les ofrezcan esas superinteligencias, por lo que dejaran de participar en el desarrollo y los humanos se convertirán  en meros consumidores. Podemos aceptar la idea de un humano feliz que ya no tiene que trabajar en el desarrollo tecnocientífico sino en trabajos relacionados con la cultura, el deporte, artesanía, mientras las grandes producciones las realizan las máquinas. No se puede olvidar que el capitalismo nos lleva a una relación cliente-servidor, siempre tiene que haber un consumidor para el cual producir y el propio sistema se encargara (ley del mercado) de que existan usuarios, a no ser que desaparezca el capitalismo y entonces surja un nuevo orden con la participación de los humanos o sin los humanos, de ahí la importancia de las sinergias humanos tecnologías que se están produciendo y saber cuáles favorecen un orden mundial basado en la cooperación entre humanos y máquinas o basado en la competencia o basado en la fusión entre humanos y máquinas o basado en el desarrollo exclusivo de las máquinas.

Para Bostorm, el problema está en la transición hasta la era de la inteligencia artificial a lo que dice: “tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad”, se refiere a una IA que no este alineada con nuestros propósitos, y agrega: “no somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización”.

Creo que el problema es que son muchos los que están desarrollando la inteligencia artificial: academias, transnacionales, militares, gobiernos, etc. Entonces, ¿podemos hacerlo bien a la primera? Por poner un ejemplo, ¿se pueden poner de acuerdo a gobiernos que están compitiendo por la hegemonía o a grandes empresas que compiten por los mercados? Estamos hablando de una IA alineada con los propósitos de quien. Es bueno recordar que aún no hemos podido desarrollar una IA avanzada de propósito general (multitarea), seguimos trabajando sobre IA específicas y todo indica que de surgir una super IA no será los los próximos años y no creo que Bostrom ni Kurzweil, por solo citar dos de los grandes pensadores sobre el futuro, lleguen a verla en vida. Aunque Bostrom ya tiene la solución al problema sobre la transición a la era de la IA, y propone que debemos acercarnos a la revolución de la IA de forma coordinada y dice: “Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo”. Aquí me surge una duda. ¿Por qué tiene que ser un proyecto elitista, donde no todos pueden participar de forma abierta? Para algo están las redes sociales, ya es hora de romper el esquema académico de que solo unos pocos pueden aportar.

Con respecto al proyecto internacional, Bostrom considera que la solución al problema de la transición a la era de la IA, consiste fundamentalmente en destinar recursos para desarrollar métodos de control que sean escalables, y vuelve sobre la idea de alinearla con los valores humanos. Se está hablando de recursos para desarrollar métodos de control vitalicios, que sigan controlando a la IA aunque siga haciéndose más y más inteligente. Pero existe una contradicción si la IA se hace más inteligente que los humanos ¿No encontrará formas de burlar ese control? Además, estamos hablando de máquinas que serán capaces de auto programarse y de construir otras máquinas inteligentes. ¿Aceptaran las maquinas ser controladas por los humanos, para que estén alineadas con los humanos, y más aún cuando descubran que los humanos no están alineados entre sí?

Lo anterior nos lleva a como introducir los valores humanos en una máquina. Reproduzco textualmente como piensa Bostrom que se debe hacer: “Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustaría que fueran interpretados, y la manera de hacerlo es con el aprendizaje automático. No podemos especificar en un lenguaje informático lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podrá mejorar su comprensión de lo que quieren decir nuestras palabras en un sentido más profundo”.

Bostrom habla de los objetivos que queremos incorporar al sistema, se habla de aprendizaje automático para que las máquinas aprendan lo que queremos que hagan. Estamos hablando de una IA que aprenda los valore humanos en un mundo basado en las ganancias. Hoy las IA están surgiendo dentro de las transnacionales por lo que estará orientada al mercado y los humanos no pasan de ser sus usuarios y su objetivo será como venderle nuevos productos

Con respecto a los riesgos de una IA, Nick Bosrtron considera dos clases de amenazas:

  • Por problemas en la alineación de objetivos
  • Que los humanos usen esta poderosa tecnología de forma maliciosa e irresponsable

En el primer caso Bostrom dice: “se está creando algo que sería muy inteligentes y que podría ser también muy poderoso, si no sismos capaces de saber cómo controlarlo, podría surgir un sistema superinteligente que daría prioridad a alcanzar sus propios valores en detrimentos de los nuestros”. ¿Y no podrían ser los valores de una super IA mejores que el de los humanos?

En el segundo, le preocupa que sea utilizada no solo para ayudarnos a ser más productivos sino también, para librar guerras u oprimirnos unos a otros. Y es que Históricamente una parte de la humanidad se ha beneficiado en detrimento de la otra parte, mientras una parte se hace rica y poderosa otra se hace pobre y a nadie le importa la miseria en que viven. Lo lógico dado nuestro sistema es que si las máquinas son más inteligentes que los humanos terminaran haciéndose poderosas y gobernaran a los humanos. Lo que nos conduce a que no solo hay que construir una IA que sea beneficiosa y que este alineada a los objetivos humanos sino también formar humanos responsables que respondan a objetivos superiores como la solidaridad, el altruismo, el amor, etc.)

En realidad, el problema consiste en ¿Quién controla a los humanos? Seguimos ignorando que los problemas son creados por los humanos y mantenemos la misma actitud que cuando fueron creados y asumimos que con las tecnologías se pueden resolver. Por lo que la futura superinteligencia artificial solo tendrá dos opciones: o combate a los efectos y de acuerdo a su interpretación, tratarán de disminuirlos (o de aumentarlos), o combate la causa y destruye a la humanidad. Y ese es el verdadero problema ¿Qué pasará cuando las máquinas superinteligentes, descubran que el problema es la propia humanidad? Una solución es reprogramar a los humanos a imagen y semejanza de las supermáquinas, otra sacar del juego a los humanos y convertirlo en mascotas o en reliquias y la última (la más fácil)  eliminar a la raza humana.

Libro recomendado:

“Superinteligencia artificial, caminos, peligros, estrategias” .

Disponible en Amazon

¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.

 

Nuevos enfoques de la IA (1)

inteligencia-artificial

Crisis de la IA

Para muchos investigadores los programas con inteligencia artificial habían llegado a un callejón sin salida y ahora la posibilidad de que surgiera una inteligencia que pudiera igualar a la humana por medio de un hardware, cada vez más evolucionado, se convertía en una nueva esperanza. La inspiración final la daría Vernor Vinge (matemático y escritor de ciencia ficción) con su enfoque de una (Singularidad tecnológica) de la cual surgiría una nueva fuente de inspiración: la explosión de inteligencia, la que parte de la definición de máquinas capaces de autoprogramarse de forma ilimitada, o sea, una máquina será capaz (partiendo de un programa inicial desarrollado por los humanos) de ella por si misma de construir programas cada vez mejores, la idea consiste en que podrá construir un programa que a su vez construirá otro programa mejor y este a su vez otro mejor, así indefinidamente, hasta igualar la inteligencia humana y luego, nada impide, que siga mejorándose hasta superar a la humana, y lo más interesante es que este proceso no tendría fin.

Tenemos, entonces, que de las ruinas de la IA surgió un optimismo renovado que cogió como bandera, ya no la idea del software sino la del hardware, la de computadoras cada vez más potentes, cuya velocidad sería capaz de procesar más información, teniendo en cuenta que el cerebro no es otra cosas que un procesador de información, estamos asumiendo un enfoque trivial de la conciencia que parte de la metáfora de la computadora (¿Qué es la inteligencia artificial fuerte?), siendo Hans Moravec el mayor defensor de esta idea. Serían las ideas de Hans Moravec, Vernor Vinge y sobre todo las de Kurzweil, las que le darían un nuevo impulso a la IA y se retomaría nuevamente la casi olvidada idea de una Inteligencia Artificial Fuerte.

En el artículo anterior mencionábamos tres de los enfoques de la IA para una  visión tecnologista lo cual llevo a la segunda crisis de la IA, donde decíamos:

Y es que la IA parece irreconciliable si la analizamos a través de sus tres vertientes originales:

  • Estudio de la mente humana (IA fuerte). Enfoque científico, actualmente se habla del desarrollo de una inteligencia artificial general.
  • Sistemas informáticos inteligentes (IA débil). Enfoque socioeconómico, estamos hablando del enfoque pragmático que ha dado a lugar al paradigma basado en datos
  • Sistemas comerciales basados en las técnicas de la IA (IA estrecha). Enfoque técnico-comercial, el cual ha dado origen a diferentes aplicaciones de la IA, tales como los sistemas expertos.

Cada uno de estos tres enfoques niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial. Hoy según la inteligencia artificial se ha ido complejizando, han ido surgiendo otros enfoques y nuevas vías para el desarrollo de la IA, de lo cual hablaremos en próximos artículos.

Entonces… Que está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

¿Hay alguna razón que nos pueda llevar a pensar que será así?

Hoy la maquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo la maquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de calculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, lo que se llama algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las maquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

¿Será posible que las maquinas sean más inteligentes que los humanos sin tener conciencia de sí misma?

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener límites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Para muchos es preocupante que los aciertos de la IA surjan de métodos tan simples como búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora,

Máquinas inteligentes

Algunos en lugar de IA prefieren hablar de maquinas inteligentes

Los investigadores de la IA han ido perdiendo interés en la programación de sistemas que emulen con la mente por un hardware cada vez más potentes y se parte del hecho que las máquinas son cada vez más veloces y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas super veloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre

Vemos que esta idea sigue la tendencia de priorizar el hard sobre el soft y se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma cada vez más perfeccionadas, más veloces, con más memoria, dotadas de mejores algoritmos, podrán llegar a convertirse en máquinas super inteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

Singularidad tecnológica

Podemos preguntarnos si es posible el surgimiento de una inteligencia superior a la humana, comenzaremos por la definición de Singularidad tecnológica: “Es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir”. De lo que se desprende que para que se produzca ese progreso tecnológico acelerado que se nos escapa de las manos y somos incapaces de predecir una vez que se desencadeno, es el surgimiento de una inteligencia superior a la humana.

El ideal siempre ha sido que la ciencia sustituya a la religión, persiguiendo con ello que se alcance una interpretación objetiva de la vida y se acepte solo lo que es verificable, pero un nuevo enfoque ha estado surgiendo recientemente y es el deseo que la ciencia y la tecnología, no solo sustituyan a la religión, sino que también ofrezcan una nueva dimensión de la eternidad y de un paraíso tecnológico (enfoque tecno-religioso)

Siguiendo a Vinge, el primero en usar el término singularidad tecnológica, esta inteligencia artificial superior a la humana se puede lograr por cuatro vías: superinteligencia artificial (cuando las máquinas se hacen más inteligentes que los humanos), superinteligencia hibrida (cuando los humanos y las máquinas se funden en un Cyborg), superinteligencia global (cuando humanos y máquinas por medios de internet interactúan y crean una inteligencia colectiva o cerebro global) y la superinteligencia biológica (donde se mejora la inteligencia a través de la manipulación genética). Siendo la superinteligencia artificial la más defendida por los teóricos de la singularidad.

Aunque la superinteligencia artificial parecía la más lejana de las cuatro dado el estado del arte de las investigaciones en inteligencia artificial y el sueño de una inteligencia artificial parecía abandonado, los denodados esfuerzos de RayKurzweil, la han puesto de nuevo de moda y prueba de ello son la creación de la Universidad de la Singularidad por el propio Kurzweil y su ingreso en Google como directivo para el desarrollo de la IA. Ya el hecho de que Google se haya tomado en serio las ideas de Kurzweil, demuestra que la transnacional está convencida de la posibilidad de alcanzar una superinteligencia artificial y por lo tanto la aceptación del surgimiento de una singularidad tecnológica y el ideal de una inteligencia artificial capaz de autoprogramarse, de aprender por sí misma y en un futuro ser autoconsciente.

La singularidad tecnológica se sostiene sobre la idea del surgimiento de una superinteligencia artificial que provoca una explosión de inteligencia, esto significa que una vez que surja una inteligencia artificial (IA) superior a la humana esta será capaz de construir IAs cada vez más inteligentes, produciéndose un crecimiento exponencial de inteligencia (aceleración tecnológica), por lo que, la IA se convertirá en el motor impulsor de la singularidad y con ello de alcanzar una poshumanidad de forma directa, sin la transición transhumanista. La idea de Kurzweil es acelerar a las tecnologías para alcanzar cuanto antes la poshumanidad (reconstrucción del humano).

Como les decía estamos ante un nuevo enfoque de carácter tecno-religioso, donde las tecnologías son capaces de resolver todos los problemas que los humanos durante años no han podido resolver

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a sí mismas cada vez mejores

Hoy seguimos lanzando falsas expectativas sobre el futuro de la IA y las tecno-utopías alcanzan niveles insospechados, por otra parte seguimos sin tener una visión clara de las diferentes líneas que se desarrollan en la IA y confundimos las aplicaciones y su especialización, con técnicas y herramientas que buscan un propósito general y sobre todo la extrapolación en el ser humano sigue siendo insuficiente y se tiende a simplificar las funciones tanto de la mente como el cerebro desde un reduccionismo siguiendo el pensamiento mecanicista actual. Sin embargo son muchos los científicos de renombre que se han adherido a esta hipótesis entre ellos: Vernor Vinge, RayKurzweil, Hans Moravec, Marvin Minsky, entre otros. También instituciones como IBM, Intel, etc., trabajan en proyectos relacionados con el tema y otros se mantienen muy atentos de lo que sucede como Microsoft y Sun por solo citar dos nombres, lo que nos hace pensar que no todo es fantasía.

La inteligencia artificial, algunos conceptos

Avengers-age-of-ultronEl paradigma simbólico

¿Podrá la máquina superar la inteligencia humana? La idea está ligada al desarrollo de la Inteligencia Artificial (IA) y su sueño de reproducir la mente humana en una computadora. Puede parecer absurdo, pero si partimos de la metáfora, aceptada por todos los investigadores de la IA, que tanto el cerebro, que contiene la mente, como el hardware, que contiene los programas; se basan en el procesamiento de la información. Por lo que la mente no es otra cosa que algoritmos altamente complejos que pueden ser codificados en forma de programas. De ahi que las investigaciones se orientaran a descifrar los programas que conforman los estados mentales o sea describir los conceptos en forma algorítmica. Para ello se desarrollaron nuevos programas basados en la lógica y la semántica del pensamiento humano. El paradigma simbólico o simbolista

En sus inicios la inteligencia artificial se fundamento en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. Se creía que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos resolvedores generales fueron abandonados y se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbólico dentro de la IA lo que originó nuevos paradigmas.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencias por segundos. Todos estos proyecto fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Crisis de la IA

Luego del fracaso en los 80s del paradigma simbólico, basado en los métodos heuristicos, los sistemas basados en conocimientos. Se necesitaba de nuevos enfoques de ahí que se retomaran algunas ideas, en muchos casos condenadas por los padres de la IA:

El primer fracaso de la IA estuvo al pronosticas que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

Esto dio lugar a un nuevo paradigma, el conexionista, que incluye prácticamente a todos los puntos vistos anteriormente, siendo el de más impacto teórico las redes neuronales (la simulación de la conexión entre neuronas).

Pero los resultados siguen siendo  lentos y los financistas comienzan a escasear y son muchos los que comienzan a abandonar las filas de la IA. Pero en medio de este panorama surgen nuevas ideas, en principio relacionadas las tecnologías informáticas convencionales y posteriormente de la convergencia de las tecnologías de punta como las nanotecnología y la biotecnología, ideas que están conmocionando los círculos científicos y que incluso investigadores de la talla de Marvin Minsky uno de los padres indiscutibles de la IA, se le esté dando su apoyo incondicional.

Entonces… Que está sucediendo ahora? Porque la IA y sobre todo las maquinas inteligentes están ocupando las mentes de muchos científicos y filósofos. Cuál es el nuevo enfoque?

“Si partimos del hecho que las máquinas son cada vez más veloces, piensen en las primeras computadoras que no alcanzaban los 10 Megahertzios (Mhz) a las actuales que ya sobrepasan los 3 Gigahertzios y no se vislumbra ningún límite para que esta velocidad no siga aumentando. Con la obtención de máquinas superveloces, estas podrán efectuar un billón de operaciones por segundos, con lo cual según Moravec estarán en condiciones de alcanzar el nivel de la inteligencia humana. Aun más, teniendo en cuenta que el cerebro humano trabaja a una frecuencia de 100 hertzios o ciclos por segundo y que no se vislumbra una cota que limite la velocidad de procesamiento de la computadora basada en un hardware cada vez más sofisticado, con mayor capacidad de memoria, varios procesadores centrales (la materia gris de la máquina), mayor velocidad de acceso a los periféricos; parece posible, incluso, que la máquina pueda superar al hombre”.

El paradigma conexionista

Las críticas sobre el paradigma simbolista fueron en exceso duras y fueron muchos los que lo abandonaron, incluido el sueño de hacerse rico con los sistemas expertos. Ya nadie creía en una heurística general que resolviera todos los problemas, ni en encontrar una representación algorítmica adecuada a la resolución de problemas, tampoco el aprendizaje automático rendía los frutos esperados, y los sistemas expertos se hacía demasiado costosos debido a la necesidad de estar actualizando constantemente su base de conocimientos, dado su falta de contacto con el entorno (alguien los llamo sistemas autistas). Por lo que se abandonó la simulación por medio de símbolos y algoritmos de la mente de la mente por la simulación de las conexiones del cerebro, entre otros métodos conexionistas como los algoritmos genéticos, los agentes inteligentes, etc.

Ahora en lugar de buscar la representación del conocimiento humano se buscaba la representación de elementos no inteligentes (neuronas, agentes, genes) que son capaces de ir conectados entre si para darle solución a un problema. Conexiones que se van almacenando como un aprendizaje. Esta flexibilidad permite que estos sistemas no dependan de una ingeniero de conocimientos que los este alimentando constantemente, además rompen con el esquema secuencial de paradigma simbólico que obliga a contar con una máquina de inferencia que vaya ejecutando las reglas, ahora estos entes (neuronas, agentes, genes) son se capaces de conectarse entre si y de ajustarse al problema e ir guardando su experiencia.

Siendo las redes neuronales en las que más se está trabajando. Pero surgía un nuevo problema, como simular las conexiones del cerebro en una computadora que no alcanza la velocidad de procesamiento del cerebro. Aquí surge Moravec, de quien ya hablamos, quien hace una comparación entre la velocidad de procesamiento del cerebro y la velocidad de procesamiento de la máquina y según Moravec, para el 2020 se alcanzara la equivalencia entre el cerebro humano y la máquina.

Desde sus inicios podemos hablar de dos enfoques de la IA, de una parte la IA fuerte y de la otra una memos categórica a la hora de interpretar los hechos, la IA débil.

La Inteligencia Artificial fuerte y debil

La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.

En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.

Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.

Siguiendo las ideas de John Searle: La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia,… El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia.

Viabilidad de la inteligencia artificial

A diferencia de los padres de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto se aplica para Internet, donde las conexiones entre humanos y máquinas se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

En cambio los investigadores de IA, siguen creyendo que, aunque pueda tomar décadas para aclarar todos los detalles, no hay nada adicional subyacente en el pensamiento: es solo tratamiento de la información. Y siguen aferrados a la metáfora de que el cerebro es equivalente al hardware de una computadora, por lo que es totalmente factible transferir la mente de un soporte (el cerebro) a otro (la máquina).

Hay quienes afirman que la idea de crear una inteligencia artificial partiendo de cero, resulta una tarea casi imposible, en cambio, parece más lógico aprovechar la creación de la naturaleza y trabajar sobre ella. Parece obvio. ¿Por qué no aprovechar el camino recorrido por la inteligencia humana en lugar de crear una nueva? Son muchos los que piensan así y prefieren trabajar en aras de una superinteligencia híbrida donde se combine lo mejor de los humanos con lo mejor de las máquinas.

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI (Inteligencia artificial, el futuro del hombre).

La explosión de inteligencia

Lo anterior ha ido conduciendo a un nuevo enfoque de la IA, lo cual ha divido a los investigadores de IA en dos grupos, los que defienden la explosión de la inteligencia (cuando las máquinas superan e igualan al humano) por medio del software (los programas) y los que creen en la velocidad del hardware. Y ante la dificultad que han venido desarrollando la programación de una IA tanto desde el paradigma simbolista como el conexionista, muchos investigadores se inclinan por la velocidad del hardware, y con ello la idea de construir máquinas cada vez más potentes y que en un futuro próximo (después del 2020) serán capaces de igualar la velocidad de procesamiento de información del cerebro, basándose en la inteligencia artificial fuerte. En realidad, el proyecto de crear una superinteligencia consiste en que una vez que las máquinas alcancen la inteligencia humana, ellas sean capaces de construirse a sí mismas cada vez mejores

En cambio los defensores de una explosión de inteligencia por medio del software, son más moderados (con excepción de Minsky y de Google que a ratos parecen contradecirse) y no están dispuestos a seguir arriesgándose públicamente, a pesar del las aplicaciones que se han logrado por medio de las redes neuronales en los últimos tiempos.

¿Hay alguna razón que nos pueda  llevar a pensar que será así?

Hoy la máquina supera al campeón del mundo en ajedrez, no sería esto razón suficiente. Sin embargo, ya hemos visto que la máquina no utiliza la misma forma de pensar que el humano, su fuerza se basa en su velocidad de cálculo que le permite explorar de forma casi exhaustiva todas las variantes, además, por supuesto, de contar con valoraciones estratégicas, pero lo que la hace invencible es su velocidad para calcular las variantes, el algoritmo de fuerza bruta. Pero, esto apoya la tesis que según las máquinas mejoren su hardware obtendrán resultados mejores así, hasta superar a los humanos en todas sus facetas.

Moravec se fundamenta en la velocidad de las máquinas o sea en las operaciones o instrucciones por segundo que esta realiza, las cuales han ido aumentando desde 1971 que solo alcanzaban las 1000 instrucciones por segundo (1 MIPS) pasando por 10 y 100 MIPS en los 90s hasta llegar a más de las 1000 MIPS en la época actual y partiendo de ese crecimiento acelerado Moravec asume que alrededor del 2020 las máquinas habrán alcanzado los 100 millones de MIPS, que según sus cálculos basados en la metáfora del cerebro como procesador de información, para entonces, se logrará alcanzar la capacidad del cerebro humano y a partir de este momento, los humanos inevitablemente serán superados por las máquinas.

Al igual que Vinge, asume que será el mejoramiento del hardware la vía más directa para alcanzar la inteligencia artificial y que una vez que se superen las operaciones por segundo que realiza el cerebro, las máquinas “emergerán” como una superinteligencia”. Lo cual se asume por analogía con la humanidad, la que en un punto dado de su evolución “emergió como un ser inteligente”, de lo que se desprende que las máquinas también evolucionaran por una vía artificial hasta llegar a suplantar a los humanos.

La característica central de este siglo ha sido la aceleración del progreso tecnológico. Estamos al borde de un cambio comparable a la aparición de la vida humana sobre la Tierra. La causa exacta de este cambio es la creación inminente de entidades de inteligencia mayor que la humana.

La idea de una singularidad de Vernor Vinge, al igual que Moravec, la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicara cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado lo cual conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec la paridad entre el hardware y el cerebro se alcanzara alrededor del 2020 lo cual dará lugar a las máquinas superinteligentes.

Se está hablando del surgimiento de una superinteligencia artificial superior a la inteligencia humana, dado el crecimiento veloz que tiene el hardware y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Además, se parte de una inteligencia artificial fuerte que asume que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos).

Vinge define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido que esa inteligencia superior será la que impulsara el progreso y este será mucho más rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando a un régimen radicalmente diferente de nuestro pasado humano, y a ese evento al que le da el nombre de singularidad tecnológica.

Los argumentos para la creación de una IA han ido cambiando a lo largo del tiempo, al igual que las expectativas.

Postulados para el surgimiento de una superinteligencia artificial

La singularidad se sustenta sobre la idea que las maquinas son cada vez más veloces y que esta velocidad crece de forma exponencial y parten que esa velocidad de cálculo superará a la del cerebro.

Un primer postulado es que se puede lograr una inteligencia artificial por fuerza bruta, o sea que dada la velocidad de la maquina pueda analizar exhaustivamente todas las posibles soluciones. Este es el caso del ajedrez, la inteligencia de la maquina se basa en su velocidad para calcular las variantes, lo cual le permite prever los que puede suceder en el tablero.

Un segundo postulado, es la emergencia, la cual asume, que debido a la velocidad en el procesamiento de la información de la máquina, llegará un momento, que podrá manipular una gran cantidad de información y dada su complejidad podría, también, despertar como una inteligencia.

Un tercer postulado es que las maquinas al alcanzar cierta inteligencia serán capaces de construirse a si misma cada vez mejores hasta llegar a una superinteligencia.

Aunque Vinge hace hincapié en el surgimiento de una inteligencia artificial que por el desarrollo del hardware es capaz de superar a los humanos, también plantea otras vías para alcanzar una superinteligencia superior a la de la humanidad actual y vaticina que será una realidad en un futuro cercano, antes del 2030, y se podrá lograr esta revolución de cuatro maneras diferentes, razón para tener confianza en que el evento va a ocurrir.

Las cuatro maneras para alcanzar la singularidad tecnológica

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (Superinteligencia artificial)
  2. El desarrollo de elementos de interconexiones entre humanos y computadoras pueden llevar a un nivel tal de profundidad que permitan a un humano comportarse como un ser superinteligente (Superinteligencia híbrida)
  3. El desarrollo de redes de computadoras con sus usuarios asociados que se comporten como super-neuronas de un cerebro distribuido que “despierten” como entes inteligentes (antes la llamé Superinteligencia colectiva a hora prefiero llamarla Superinteligencia global)
  4. Manipulaciones biológicas que permitan mejorar en los seres humanos el nivel de inteligencia (Superinteligencia biológica)

Personalmente me deja cierta preocupación que, para muchos, los aciertos de la IA surjan de métodos tan simples como la búsqueda por fuerza bruta, y que la contribución más importante para el avance de la IA haya sido la Ley de Moore y los aumentos implacables en la velocidad de la computadora.

(Esto es un compendio de varios artículos publicados anteriormente en este blog)