La singularidad tecnológica de Raymond Kurzweil

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a una inteligencia artificial (IA) superior a la humana. Así de fácil.

Kurzweil define a la singularidad como la creación de una inteligencia no biológica que va a igualar el alcance y la sutileza de la inteligencia humana y luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de la información y a que tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido por lo que llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana “no mejorada” será incapaz de seguirlo lo cual marcará el advenimiento de la singularidad.

La idea de una singularidad la toma de Vernor Vinge, pero a diferencia de este que mostraba preocupación por su surgimiento, Kurzweil le profesa una fe que roza el fanatismo. En cambio, Vinge, reconoce que la singularidad podría ser un peligro, cuando dice: “Quizá los gobiernos del mundo decidan que la posibilidad es tan peligrosa que la investigación que lleva a la singularidad será prohibida. Lamentablemente, el problema de la proliferación de armas nucleares ya ha demostrado la fragilidad de esta esperanza. Aunque todos los gobiernos del mundo entendieran la “amenaza” y la temieran, el avance hacia el objetivo seguiría” … “De hecho, la ventaja competitiva –económica, militar e incluso artística–  de todo avance en la automatización es tan atractiva que aprobar leyes que prohíben estas cosas básicamente garantiza que otros las conseguirán antes. Si la singularidad tecnológica puede producirse, lo hará”

Para Ray Kurzweil (al igual que el resto de los tecno-utopista) las computadoras han duplicado tanto su velocidad como su complejidad (lo que en realidad significa la cuadruplicación de su capacidad) cada veinticuatro meses desde el comienzo de los artilugios de cálculo, en los inicios de este siglo. Esta tendencia continuará y, alrededor del 2020, los ordenadores alcanzarán la capacidad de memoria y la velocidad de cálculo del cerebro humano. También es el que más resalta las posibilidades de la tecnología y repite junto a Vingen que no ve límites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Y dice: “Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología… Este siglo será equivalente a 20.000 años de desarrollo lineal”.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: “La tecnología informática la situación dista mucho de ser estática. Hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que, en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos  –por ejemplo, el de escribir un libro sobre ordenadores–, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez”.

Al igual que Minsky está inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas; ellos, no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, en lugar de su capacidad para manejar información. Y considera que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos. Su sueño es reproducir las funciones del cerebro en un medio digital y toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. Ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También se muestra inconforme con su cuerpo a lo que dice: “La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida”. A lo que agrega: “Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas”.

Kurzweil que es el más tecnólogo de todos los futuristas, pone gran énfasis en la nanotecnología y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegará en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nano-robots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots  son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio. También aspira a que la nanotecnología nos lleve más allá de los límites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones sobre el futuro se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele-cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnología, también podrán tenerlos en la realidad.

De igual manera, Kurzweil, considera que la humanidad no es el fin de la evolución sino el principio de una nueva evolución que surgirá producto de una nueva forma de inteligencia que superará a la humana, lo cual será el acontecimiento más importante en la historia humana. Con profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que constituye la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología. Y dice: “Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la sinergia entre humanos y tecnologías”.

Kurzweil es categórico cuando afirma: los que decidan seguir siendo humanos, no tendrán ninguna posibilidad ante las nuevas entidades. Y agrega: “Una legislación eficaz protege a los Mosh, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados”. Se subestima la capacidad de los humanos y su potencial creador.

Kurzweil basa sus ideas sobre el futuro en las siguientes tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio…

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente.  Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre. La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Para los tecno-utópicos, Kurzweil a la cabeza,  solo la tecnología puede salvar a la humanidad por lo que surgen las siguientes preguntas: ¿Puede la tecnología por si sola resolver todos los problemas? ¿Se puede obviar la importancia de la sociedad y sus estructuras actuales sustentadas sobre la hegemonía, la competencia y la ambición de poder que está presente en la naturaleza humana? Cuando analizamos el lenguaje que utilizan, nos damos cuenta, de cómo las consideraciones sociales están presentes en las decisiones tecnológicas y como, las mismas, son consecuencias de muchas de las decisiones futuras; a pesar de sus intentos de querer basarse únicamente en la tecnología como remedio a todos los males.

Libro recomendado: “La singularidad está cerca”

Disponible en Amazon

Nick Bostrom: la amenaza de una superinteligencia artificial

 

La superinteligencia artificial

A la euforia de una singularidad tecnológica de Kurzweil, se une a la predicción, algo preocupante, de Nick Bostrom sobre una superinteligencia artificial, al afirmar que la superinteligencia será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos.

La idea de una superinteligencia artificial nace dentro de la singularidad tecnológica, creada por Vinge, quien la define como máquinas superinteligentes y la  sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas super inteligentes.

Vinge, define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad tecnológica.

Por su parte Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

Creatividad científica
• Sabiduría en general
• Desempeño científico

Los tres son partidarios del avance de la IA producto de las prestaciones de la máquina: más velocidad de procesamiento, más memoria, mejores periféricos, de ahí que Moravec compare la velocidad de procesamiento del cerebro con la de una máquina y tres son los factores para la superinteligencia artificial: la capacidad de la máquina de procesar información cada vez más rápido y de analizar una mayor cantidad de variantes, la representación del procesamiento de la información en forma de redes neuronales similar a como funciona el cerebro y por último el pensamiento profundo que permite el aprendizaje partiendo del análisis de grandes bases de datos.

Hoy todo el interés se centra en el aprendizaje profundo y en el desarrollo de una IA operativa (basada en datos) de ahí que Bostroom, asuma que el avance de la inteligencia artificial en los últimos años se debe al aprendizaje profundo uno de los modelos de la IA que más impacto está teniendo y afirma que la manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. El pensamiento profundo se usa fundamentalmente en el procesamiento de grandes bases de datos basado, estamos hablando de algoritmos “de fuerza bruta” que son capaces de calcular una mayor cantidad de posibilidades. Aunque muchos no aceptan que la mente humana pueda basar su fortaleza en el cálculo y el análisis de datos, estamos ante el modelo de la IA mas aceptado actualmente

Sin dudas, entre los modelos que utiliza la IA está la IA operativa (basada en datos) que utiliza como técnica a las redes neuronales y al pensamiento profundo, en cambio los sistemas expertos están dentro del modelo simbolista que se basa en la representación de la realidad a través de símbolos mentales. Mientras, el modelo conexionista se basa en la representación de las funciones del cerebro por medio de una red neuronal. Son dos modelos diferentes de la representación de un dominio especifico de aplicación. Para la IA simbólica se asume que es mente y se basa en los conocimientos de un experto, en cambio para la IA conexionista se asume que es el cerebro y sus conexiones (redes neuronales) que permite el procesamiento de grades bases de datos. Hasta la fecha no tiene relación un modelo con el otro, aunque es cierto que se habla de lograr un sistema que combine a ambos modelos. Sin olvidar que existen otros muchos modelos de la IA de gran repercusión.

Bostrom refiriéndose al aprendizaje profundo dice: “La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos, aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos” y afirma que este nuevo concepto apunta a la Inteligencia General Artificial.

Y es que desde sus inicios, la aspiración de toda inteligencia artificial ha sido convertirse en una inteligencia artificial avanzada (general) ya que la IA avanzada es una IA de propósito general, capaz de resolver cualquier tipo de tarea, las IA desarrolladas hasta el momento son IA específica, solo resuelve un tipo de tarea, incluso el aprendizaje profundo, hasta la fecha, solo resuelve un tipo de tarea, de lo cual Bostron está consciente cuando dice: En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero crea cierta confusión cuando dice: pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico. Y habla de sistema híbridos.

Actualmente se aspira a lograr una IA (sistema hibrido) que sea capaz de combinar el simbolismo (lógico o semántico), cuya aplicación fueron los sistemas expertos, con el conexionismo (redes neuronales) que utiliza las técnicas de aprendizaje profundo. Pero estos sistemas híbridos siguen resolviendo una sola tarea (IA especifica). Es la idea de combinar una IA especifica simbólica, basada en la representación de conocimientos por medio de reglas con un IA especifica conexionista, de momento específica, basada en buscar patrones comunes en grandes estructuras de datos por medio del aprendizaje profundo. Tanto la IA simbólica como la IA conexionista siguen trabajando por resolver cualquier tipo de tarea (IA general o avanzada). Otra cosa seria la superinteligencia artificial, pienso que no se puede hablar de superinteligencia artificial hasta que no se haya alcanzado una IA avanzada (general) de cualquier tipo.

Tipos de IA avanzada (de propósito general)

  • IA cognitiva, lograr una representación de la realidad tanto simbólica como conexionista para cualquier tarea
  • IA operativa, logra una representación por medio de redes neuronales aplicadas a grandes bases de datos y utilizando el aprendizaje profundo.
  • IA colectiva, se basa en la interacción de diferentes agentes que al integrarse forman una inteligencia colectiva y son capaces de actuar de forma colaborativa, donde la inteligencia está distribuida y es compartida.
  • IA enactiva, es producto de la construcción de la realidad por medio de la interacción con el entorno basado en la actuación del agente que busca la asimilación de la realidad (aprendizaje) de forma activa

En algunas de sus entrevista Bostron le quita importancia a Kurzweil, cuando se habla de una IA poshumana y contrariamente a lo que insinúa Bostrom, Kurzweil es el líder indiscutible de este enfoque de carácter tecno-religioso (el ideal de alcanzar la vida eterna) y es que todo depende del enfoque de la IA, ya que las crisis que ha sufrido la IA, sus altas y bajas, ha sido debido a los desacuerdos entre cada enfoque. Una cosa es el enfoque tecno-religioso, sobre las posibilidades de la IA en el futuro y sobre todo su influencia en la evolución de la humanidad y el surgimiento de una poshumanidad. Y otra cosa son los métodos, teorías, líneas de investigación y técnicas que se utilizan en la inteligencia artificial. Donde Kurzweil no es un investigador de primera línea, en cambio sí es referencia imprescindible sobre las máquinas del futuro, donde Bostrom es otro de sus ideólogos.

Con respecto a la inteligencia artificial, Bostrom se muestra partidario de una IA débil cuando dice: La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Y luego le resta importancia al modelo conexionista basado en redes neuronales cuando dice: “que la IA se inspire en el cerebro es una decisión más bien táctica” y afirma el objetivo principal no es tratar de replicar la mente humana. Aquí no hace distinción entre cerebro y mente, una cosa es replicar las funciones del cerebro (conexionismo) y otra cosa es representar los estados de la mente (simbolismo). Replicar la mente humana era la idea fundamental en Kurzweil, quien aspira a la poshumanidad, actualmente se transa tanto en reproducir la mente como el cerebro humano y lograr la conciencia como un proceso espontaneo (conciencia trivial), Por su parte Bostrom parece negar la idea de un proyecto poshumano: el sueño de Kurzweil de que la propia IA sea capaz de reconstruir las capacidades y la conciencia humana.

Bostron cree que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías, y afirma: Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada” Bostrom apuesta únicamente por el desarrollo tecnológico e ignora cuantas cosas se pudieran hacer si fuéramos mejores seres humanos, más bondadosas, más solidario, más responsables con nuestro entorno, etc. Sigue pensando en máquinas centradas en la tecnología y aun peor, supedita el desarrollo de las tecnologías al desarrollo de una super IA, ve a la super IA como la desencadenadora de todas las tecnologías.

Los riesgos de una superinteligencia artificial

En nuestro tiempo existe una gran preocupación por que las máquinas ocupen los puestos de trabajo de los humanos, a Bostrom como filosofo tecnológica le preocupa más que los descubrimientos sean realizados por las máquinas y considera que la super IA sería el último invento que realizará la humanidad, por tanto, las investigaciones serán desarrolladas por las super IA y es obvio que las máquinas serían capaces de realizar cualquier tarea y los humanos no tendrán nada que hacer.

Viéndolo desde otra óptica, la inteligencia artificial prestara un servicio a la humanidad, ya desde hoy está sucediendo con Google, Facebook, Amazon, Apple, etc., donde ese servicio que presta la IA será recibido por las personas como usuarios, el problema radica en si los humanos serán usuarios pasivos que esperan que las IA decidan por ellos y por las soluciones de les ofrezcan esas superinteligencias, por lo que dejaran de participar en el desarrollo y los humanos se convertirán  en meros consumidores. Podemos aceptar la idea de un humano feliz que ya no tiene que trabajar en el desarrollo tecnocientífico sino en trabajos relacionados con la cultura, el deporte, artesanía, mientras las grandes producciones las realizan las máquinas. No se puede olvidar que el capitalismo nos lleva a una relación cliente-servidor, siempre tiene que haber un consumidor para el cual producir y el propio sistema se encargara (ley del mercado) de que existan usuarios, a no ser que desaparezca el capitalismo y entonces surja un nuevo orden con la participación de los humanos o sin los humanos, de ahí la importancia de las sinergias humanos tecnologías que se están produciendo y saber cuáles favorecen un orden mundial basado en la cooperación entre humanos y máquinas o basado en la competencia o basado en la fusión entre humanos y máquinas o basado en el desarrollo exclusivo de las máquinas.

Para Bostorm, el problema está en la transición hasta la era de la inteligencia artificial a lo que dice: “tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad”, se refiere a una IA que no este alineada con nuestros propósitos, y agrega: “no somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización”.

Creo que el problema es que son muchos los que están desarrollando la inteligencia artificial: academias, transnacionales, militares, gobiernos, etc. Entonces, ¿podemos hacerlo bien a la primera? Por poner un ejemplo, ¿se pueden poner de acuerdo a gobiernos que están compitiendo por la hegemonía o a grandes empresas que compiten por los mercados? Estamos hablando de una IA alineada con los propósitos de quien. Es bueno recordar que aún no hemos podido desarrollar una IA avanzada de propósito general (multitarea), seguimos trabajando sobre IA específicas y todo indica que de surgir una super IA no será los los próximos años y no creo que Bostrom ni Kurzweil, por solo citar dos de los grandes pensadores sobre el futuro, lleguen a verla en vida. Aunque Bostrom ya tiene la solución al problema sobre la transición a la era de la IA, y propone que debemos acercarnos a la revolución de la IA de forma coordinada y dice: “Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo”. Aquí me surge una duda. ¿Por qué tiene que ser un proyecto elitista, donde no todos pueden participar de forma abierta? Para algo están las redes sociales, ya es hora de romper el esquema académico de que solo unos pocos pueden aportar.

Con respecto al proyecto internacional, Bostrom considera que la solución al problema de la transición a la era de la IA, consiste fundamentalmente en destinar recursos para desarrollar métodos de control que sean escalables, y vuelve sobre la idea de alinearla con los valores humanos. Se está hablando de recursos para desarrollar métodos de control vitalicios, que sigan controlando a la IA aunque siga haciéndose más y más inteligente. Pero existe una contradicción si la IA se hace más inteligente que los humanos ¿No encontrará formas de burlar ese control? Además, estamos hablando de máquinas que serán capaces de auto programarse y de construir otras máquinas inteligentes. ¿Aceptaran las maquinas ser controladas por los humanos, para que estén alineadas con los humanos, y más aún cuando descubran que los humanos no están alineados entre sí?

Lo anterior nos lleva a como introducir los valores humanos en una máquina. Reproduzco textualmente como piensa Bostrom que se debe hacer: “Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustaría que fueran interpretados, y la manera de hacerlo es con el aprendizaje automático. No podemos especificar en un lenguaje informático lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podrá mejorar su comprensión de lo que quieren decir nuestras palabras en un sentido más profundo”.

Bostrom habla de los objetivos que queremos incorporar al sistema, se habla de aprendizaje automático para que las máquinas aprendan lo que queremos que hagan. Estamos hablando de una IA que aprenda los valore humanos en un mundo basado en las ganancias. Hoy las IA están surgiendo dentro de las transnacionales por lo que estará orientada al mercado y los humanos no pasan de ser sus usuarios y su objetivo será como venderle nuevos productos

Con respecto a los riesgos de una IA, Nick Bosrtron considera dos clases de amenazas:

  • Por problemas en la alineación de objetivos
  • Que los humanos usen esta poderosa tecnología de forma maliciosa e irresponsable

En el primer caso Bostrom dice: “se está creando algo que sería muy inteligentes y que podría ser también muy poderoso, si no sismos capaces de saber cómo controlarlo, podría surgir un sistema superinteligente que daría prioridad a alcanzar sus propios valores en detrimentos de los nuestros”. ¿Y no podrían ser los valores de una super IA mejores que el de los humanos?

En el segundo, le preocupa que sea utilizada no solo para ayudarnos a ser más productivos sino también, para librar guerras u oprimirnos unos a otros. Y es que Históricamente una parte de la humanidad se ha beneficiado en detrimento de la otra parte, mientras una parte se hace rica y poderosa otra se hace pobre y a nadie le importa la miseria en que viven. Lo lógico dado nuestro sistema es que si las máquinas son más inteligentes que los humanos terminaran haciéndose poderosas y gobernaran a los humanos. Lo que nos conduce a que no solo hay que construir una IA que sea beneficiosa y que este alineada a los objetivos humanos sino también formar humanos responsables que respondan a objetivos superiores como la solidaridad, el altruismo, el amor, etc.)

En realidad, el problema consiste en ¿Quién controla a los humanos? Seguimos ignorando que los problemas son creados por los humanos y mantenemos la misma actitud que cuando fueron creados y asumimos que con las tecnologías se pueden resolver. Por lo que la futura superinteligencia artificial solo tendrá dos opciones: o combate a los efectos y de acuerdo a su interpretación, tratarán de disminuirlos (o de aumentarlos), o combate la causa y destruye a la humanidad. Y ese es el verdadero problema ¿Qué pasará cuando las máquinas superinteligentes, descubran que el problema es la propia humanidad? Una solución es reprogramar a los humanos a imagen y semejanza de las supermáquinas, otra sacar del juego a los humanos y convertirlo en mascotas o en reliquias y la última (la más fácil)  eliminar a la raza humana.

Libro recomendado:

“Superinteligencia artificial, caminos, peligros, estrategias” .

Disponible en Amazon

Libros publicados hasta la fecha

Estos son todos los libros que tengo publicados hasta la fecha

Inteligencia artificial, el futuro del hombre

IA_futuro_del_hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”. Leer más

 

El gran desafío de la humanidad

El libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.

Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Leer más

Zaida, cuentos de ciencia ficción

Zaida-33

Zaida es una selección de cuentos cortos de ciencia ficción donde los temas van desde mundos virtuales, en el que cada personaje busca la felicidad que no encuentra en su vida real, o la desdicha de un paria o la crítica a una sociedad de consumo. No escapa a una sátira sobre las leyes de la robótica o al humor de contagio, un ser traumatizado lleno de complejos y de odio hacia la humanidad. Así como la reflexión sobre dos vidas párelas que transcurren al mismo tiempo entre dos personas con estatus social totalmente diferente, donde las comodidades de una casa inteligente contrastan con la vida miserable de un ser sin esperanza. Leer más

 

Crisis en el siglo XXI

Crisis_en_el_siglo_xxi

Una de las mayores amenazas que enfrenta la humanidad consiste en la degradación del planeta y los efectos que se están produciendo por las acciones humanas dada su actitud irresponsable con la naturaleza. El libro comienza con el cuestionamiento realizado por Bucky Fuller: “El desafío: Si el éxito o el fracaso del planeta y de los seres humanos depende de cómo soy y lo que hago… ¿Cómo sería yo? ¿Qué haría yo?”.

A lo largo del libro en sus cuatro capitulo se reflexiona sobre los desafíos que enfrentamos y las crisis que se han producido y que se tornarán cada vez más compleja durante el siglo XXI. Leer más.

Cosmovisión poética

Cosmovision

Es una obra donde la melancolía se funde con el universo, donde las tardes cuentan su historia y la luz brota de un alma solitaria azotada a veces por la lluvia, otras por el frió del olvido o por las sombras que amenazan una existencia agonizante.
Siempre desde la nostálgica visión de un mundo que se desconfigura que se vuelve cada vez más ajeno y distante, ante un alma que crea su propia visión y busca abrirse a la naturaleza y compartir su dolor con las estrellas.
Un alma a la que nada consuela y que vaga por el mundo componiendo sueños que viajan con el viento que levantan olas y que arrastran desamores, angustia y una infinita tristeza que se pierde más allá del crepúsculo. Leer más.

 

Sistemas Expertos

Sistemas ExpertosDurante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada. Leer más.