La singularidad tecnológica de Raymond Kurzweil

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a una inteligencia artificial (IA) superior a la humana. Así de fácil.

Kurzweil define a la singularidad como la creación de una inteligencia no biológica que va a igualar el alcance y la sutileza de la inteligencia humana y luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de la información y a que tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido por lo que llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana “no mejorada” será incapaz de seguirlo lo cual marcará el advenimiento de la singularidad.

La idea de una singularidad la toma de Vernor Vinge, pero a diferencia de este que mostraba preocupación por su surgimiento, Kurzweil le profesa una fe que roza el fanatismo. En cambio, Vinge, reconoce que la singularidad podría ser un peligro, cuando dice: “Quizá los gobiernos del mundo decidan que la posibilidad es tan peligrosa que la investigación que lleva a la singularidad será prohibida. Lamentablemente, el problema de la proliferación de armas nucleares ya ha demostrado la fragilidad de esta esperanza. Aunque todos los gobiernos del mundo entendieran la “amenaza” y la temieran, el avance hacia el objetivo seguiría” … “De hecho, la ventaja competitiva –económica, militar e incluso artística–  de todo avance en la automatización es tan atractiva que aprobar leyes que prohíben estas cosas básicamente garantiza que otros las conseguirán antes. Si la singularidad tecnológica puede producirse, lo hará”

Para Ray Kurzweil (al igual que el resto de los tecno-utopista) las computadoras han duplicado tanto su velocidad como su complejidad (lo que en realidad significa la cuadruplicación de su capacidad) cada veinticuatro meses desde el comienzo de los artilugios de cálculo, en los inicios de este siglo. Esta tendencia continuará y, alrededor del 2020, los ordenadores alcanzarán la capacidad de memoria y la velocidad de cálculo del cerebro humano. También es el que más resalta las posibilidades de la tecnología y repite junto a Vingen que no ve límites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Y dice: “Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología… Este siglo será equivalente a 20.000 años de desarrollo lineal”.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: “La tecnología informática la situación dista mucho de ser estática. Hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que, en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos  –por ejemplo, el de escribir un libro sobre ordenadores–, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez”.

Al igual que Minsky está inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas; ellos, no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, en lugar de su capacidad para manejar información. Y considera que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos. Su sueño es reproducir las funciones del cerebro en un medio digital y toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. Ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También se muestra inconforme con su cuerpo a lo que dice: “La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida”. A lo que agrega: “Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas”.

Kurzweil que es el más tecnólogo de todos los futuristas, pone gran énfasis en la nanotecnología y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegará en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nano-robots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots  son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio. También aspira a que la nanotecnología nos lleve más allá de los límites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones sobre el futuro se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele-cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnología, también podrán tenerlos en la realidad.

De igual manera, Kurzweil, considera que la humanidad no es el fin de la evolución sino el principio de una nueva evolución que surgirá producto de una nueva forma de inteligencia que superará a la humana, lo cual será el acontecimiento más importante en la historia humana. Con profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que constituye la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología. Y dice: “Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la sinergia entre humanos y tecnologías”.

Kurzweil es categórico cuando afirma: los que decidan seguir siendo humanos, no tendrán ninguna posibilidad ante las nuevas entidades. Y agrega: “Una legislación eficaz protege a los Mosh, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados”. Se subestima la capacidad de los humanos y su potencial creador.

Kurzweil basa sus ideas sobre el futuro en las siguientes tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio…

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente.  Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre. La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Para los tecno-utópicos, Kurzweil a la cabeza,  solo la tecnología puede salvar a la humanidad por lo que surgen las siguientes preguntas: ¿Puede la tecnología por si sola resolver todos los problemas? ¿Se puede obviar la importancia de la sociedad y sus estructuras actuales sustentadas sobre la hegemonía, la competencia y la ambición de poder que está presente en la naturaleza humana? Cuando analizamos el lenguaje que utilizan, nos damos cuenta, de cómo las consideraciones sociales están presentes en las decisiones tecnológicas y como, las mismas, son consecuencias de muchas de las decisiones futuras; a pesar de sus intentos de querer basarse únicamente en la tecnología como remedio a todos los males.

Libro recomendado: “La singularidad está cerca”

Disponible en Amazon

Nick Bostrom: la amenaza de una superinteligencia artificial

 

La superinteligencia artificial

A la euforia de una singularidad tecnológica de Kurzweil, se une a la predicción, algo preocupante, de Nick Bostrom sobre una superinteligencia artificial, al afirmar que la superinteligencia será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos.

La idea de una superinteligencia artificial nace dentro de la singularidad tecnológica, creada por Vinge, quien la define como máquinas superinteligentes y la  sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas super inteligentes.

Vinge, define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad tecnológica.

Por su parte Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

Creatividad científica
• Sabiduría en general
• Desempeño científico

Los tres son partidarios del avance de la IA producto de las prestaciones de la máquina: más velocidad de procesamiento, más memoria, mejores periféricos, de ahí que Moravec compare la velocidad de procesamiento del cerebro con la de una máquina y tres son los factores para la superinteligencia artificial: la capacidad de la máquina de procesar información cada vez más rápido y de analizar una mayor cantidad de variantes, la representación del procesamiento de la información en forma de redes neuronales similar a como funciona el cerebro y por último el pensamiento profundo que permite el aprendizaje partiendo del análisis de grandes bases de datos.

Hoy todo el interés se centra en el aprendizaje profundo y en el desarrollo de una IA operativa (basada en datos) de ahí que Bostroom, asuma que el avance de la inteligencia artificial en los últimos años se debe al aprendizaje profundo uno de los modelos de la IA que más impacto está teniendo y afirma que la manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. El pensamiento profundo se usa fundamentalmente en el procesamiento de grandes bases de datos basado, estamos hablando de algoritmos “de fuerza bruta” que son capaces de calcular una mayor cantidad de posibilidades. Aunque muchos no aceptan que la mente humana pueda basar su fortaleza en el cálculo y el análisis de datos, estamos ante el modelo de la IA mas aceptado actualmente

Sin dudas, entre los modelos que utiliza la IA está la IA operativa (basada en datos) que utiliza como técnica a las redes neuronales y al pensamiento profundo, en cambio los sistemas expertos están dentro del modelo simbolista que se basa en la representación de la realidad a través de símbolos mentales. Mientras, el modelo conexionista se basa en la representación de las funciones del cerebro por medio de una red neuronal. Son dos modelos diferentes de la representación de un dominio especifico de aplicación. Para la IA simbólica se asume que es mente y se basa en los conocimientos de un experto, en cambio para la IA conexionista se asume que es el cerebro y sus conexiones (redes neuronales) que permite el procesamiento de grades bases de datos. Hasta la fecha no tiene relación un modelo con el otro, aunque es cierto que se habla de lograr un sistema que combine a ambos modelos. Sin olvidar que existen otros muchos modelos de la IA de gran repercusión.

Bostrom refiriéndose al aprendizaje profundo dice: “La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos, aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos” y afirma que este nuevo concepto apunta a la Inteligencia General Artificial.

Y es que desde sus inicios, la aspiración de toda inteligencia artificial ha sido convertirse en una inteligencia artificial avanzada (general) ya que la IA avanzada es una IA de propósito general, capaz de resolver cualquier tipo de tarea, las IA desarrolladas hasta el momento son IA específica, solo resuelve un tipo de tarea, incluso el aprendizaje profundo, hasta la fecha, solo resuelve un tipo de tarea, de lo cual Bostron está consciente cuando dice: En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero crea cierta confusión cuando dice: pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico. Y habla de sistema híbridos.

Actualmente se aspira a lograr una IA (sistema hibrido) que sea capaz de combinar el simbolismo (lógico o semántico), cuya aplicación fueron los sistemas expertos, con el conexionismo (redes neuronales) que utiliza las técnicas de aprendizaje profundo. Pero estos sistemas híbridos siguen resolviendo una sola tarea (IA especifica). Es la idea de combinar una IA especifica simbólica, basada en la representación de conocimientos por medio de reglas con un IA especifica conexionista, de momento específica, basada en buscar patrones comunes en grandes estructuras de datos por medio del aprendizaje profundo. Tanto la IA simbólica como la IA conexionista siguen trabajando por resolver cualquier tipo de tarea (IA general o avanzada). Otra cosa seria la superinteligencia artificial, pienso que no se puede hablar de superinteligencia artificial hasta que no se haya alcanzado una IA avanzada (general) de cualquier tipo.

Tipos de IA avanzada (de propósito general)

  • IA cognitiva, lograr una representación de la realidad tanto simbólica como conexionista para cualquier tarea
  • IA operativa, logra una representación por medio de redes neuronales aplicadas a grandes bases de datos y utilizando el aprendizaje profundo.
  • IA colectiva, se basa en la interacción de diferentes agentes que al integrarse forman una inteligencia colectiva y son capaces de actuar de forma colaborativa, donde la inteligencia está distribuida y es compartida.
  • IA enactiva, es producto de la construcción de la realidad por medio de la interacción con el entorno basado en la actuación del agente que busca la asimilación de la realidad (aprendizaje) de forma activa

En algunas de sus entrevista Bostron le quita importancia a Kurzweil, cuando se habla de una IA poshumana y contrariamente a lo que insinúa Bostrom, Kurzweil es el líder indiscutible de este enfoque de carácter tecno-religioso (el ideal de alcanzar la vida eterna) y es que todo depende del enfoque de la IA, ya que las crisis que ha sufrido la IA, sus altas y bajas, ha sido debido a los desacuerdos entre cada enfoque. Una cosa es el enfoque tecno-religioso, sobre las posibilidades de la IA en el futuro y sobre todo su influencia en la evolución de la humanidad y el surgimiento de una poshumanidad. Y otra cosa son los métodos, teorías, líneas de investigación y técnicas que se utilizan en la inteligencia artificial. Donde Kurzweil no es un investigador de primera línea, en cambio sí es referencia imprescindible sobre las máquinas del futuro, donde Bostrom es otro de sus ideólogos.

Con respecto a la inteligencia artificial, Bostrom se muestra partidario de una IA débil cuando dice: La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Y luego le resta importancia al modelo conexionista basado en redes neuronales cuando dice: “que la IA se inspire en el cerebro es una decisión más bien táctica” y afirma el objetivo principal no es tratar de replicar la mente humana. Aquí no hace distinción entre cerebro y mente, una cosa es replicar las funciones del cerebro (conexionismo) y otra cosa es representar los estados de la mente (simbolismo). Replicar la mente humana era la idea fundamental en Kurzweil, quien aspira a la poshumanidad, actualmente se transa tanto en reproducir la mente como el cerebro humano y lograr la conciencia como un proceso espontaneo (conciencia trivial), Por su parte Bostrom parece negar la idea de un proyecto poshumano: el sueño de Kurzweil de que la propia IA sea capaz de reconstruir las capacidades y la conciencia humana.

Bostron cree que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías, y afirma: Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada” Bostrom apuesta únicamente por el desarrollo tecnológico e ignora cuantas cosas se pudieran hacer si fuéramos mejores seres humanos, más bondadosas, más solidario, más responsables con nuestro entorno, etc. Sigue pensando en máquinas centradas en la tecnología y aun peor, supedita el desarrollo de las tecnologías al desarrollo de una super IA, ve a la super IA como la desencadenadora de todas las tecnologías.

Los riesgos de una superinteligencia artificial

En nuestro tiempo existe una gran preocupación por que las máquinas ocupen los puestos de trabajo de los humanos, a Bostrom como filosofo tecnológica le preocupa más que los descubrimientos sean realizados por las máquinas y considera que la super IA sería el último invento que realizará la humanidad, por tanto, las investigaciones serán desarrolladas por las super IA y es obvio que las máquinas serían capaces de realizar cualquier tarea y los humanos no tendrán nada que hacer.

Viéndolo desde otra óptica, la inteligencia artificial prestara un servicio a la humanidad, ya desde hoy está sucediendo con Google, Facebook, Amazon, Apple, etc., donde ese servicio que presta la IA será recibido por las personas como usuarios, el problema radica en si los humanos serán usuarios pasivos que esperan que las IA decidan por ellos y por las soluciones de les ofrezcan esas superinteligencias, por lo que dejaran de participar en el desarrollo y los humanos se convertirán  en meros consumidores. Podemos aceptar la idea de un humano feliz que ya no tiene que trabajar en el desarrollo tecnocientífico sino en trabajos relacionados con la cultura, el deporte, artesanía, mientras las grandes producciones las realizan las máquinas. No se puede olvidar que el capitalismo nos lleva a una relación cliente-servidor, siempre tiene que haber un consumidor para el cual producir y el propio sistema se encargara (ley del mercado) de que existan usuarios, a no ser que desaparezca el capitalismo y entonces surja un nuevo orden con la participación de los humanos o sin los humanos, de ahí la importancia de las sinergias humanos tecnologías que se están produciendo y saber cuáles favorecen un orden mundial basado en la cooperación entre humanos y máquinas o basado en la competencia o basado en la fusión entre humanos y máquinas o basado en el desarrollo exclusivo de las máquinas.

Para Bostorm, el problema está en la transición hasta la era de la inteligencia artificial a lo que dice: “tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad”, se refiere a una IA que no este alineada con nuestros propósitos, y agrega: “no somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización”.

Creo que el problema es que son muchos los que están desarrollando la inteligencia artificial: academias, transnacionales, militares, gobiernos, etc. Entonces, ¿podemos hacerlo bien a la primera? Por poner un ejemplo, ¿se pueden poner de acuerdo a gobiernos que están compitiendo por la hegemonía o a grandes empresas que compiten por los mercados? Estamos hablando de una IA alineada con los propósitos de quien. Es bueno recordar que aún no hemos podido desarrollar una IA avanzada de propósito general (multitarea), seguimos trabajando sobre IA específicas y todo indica que de surgir una super IA no será los los próximos años y no creo que Bostrom ni Kurzweil, por solo citar dos de los grandes pensadores sobre el futuro, lleguen a verla en vida. Aunque Bostrom ya tiene la solución al problema sobre la transición a la era de la IA, y propone que debemos acercarnos a la revolución de la IA de forma coordinada y dice: “Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo”. Aquí me surge una duda. ¿Por qué tiene que ser un proyecto elitista, donde no todos pueden participar de forma abierta? Para algo están las redes sociales, ya es hora de romper el esquema académico de que solo unos pocos pueden aportar.

Con respecto al proyecto internacional, Bostrom considera que la solución al problema de la transición a la era de la IA, consiste fundamentalmente en destinar recursos para desarrollar métodos de control que sean escalables, y vuelve sobre la idea de alinearla con los valores humanos. Se está hablando de recursos para desarrollar métodos de control vitalicios, que sigan controlando a la IA aunque siga haciéndose más y más inteligente. Pero existe una contradicción si la IA se hace más inteligente que los humanos ¿No encontrará formas de burlar ese control? Además, estamos hablando de máquinas que serán capaces de auto programarse y de construir otras máquinas inteligentes. ¿Aceptaran las maquinas ser controladas por los humanos, para que estén alineadas con los humanos, y más aún cuando descubran que los humanos no están alineados entre sí?

Lo anterior nos lleva a como introducir los valores humanos en una máquina. Reproduzco textualmente como piensa Bostrom que se debe hacer: “Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustaría que fueran interpretados, y la manera de hacerlo es con el aprendizaje automático. No podemos especificar en un lenguaje informático lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podrá mejorar su comprensión de lo que quieren decir nuestras palabras en un sentido más profundo”.

Bostrom habla de los objetivos que queremos incorporar al sistema, se habla de aprendizaje automático para que las máquinas aprendan lo que queremos que hagan. Estamos hablando de una IA que aprenda los valore humanos en un mundo basado en las ganancias. Hoy las IA están surgiendo dentro de las transnacionales por lo que estará orientada al mercado y los humanos no pasan de ser sus usuarios y su objetivo será como venderle nuevos productos

Con respecto a los riesgos de una IA, Nick Bosrtron considera dos clases de amenazas:

  • Por problemas en la alineación de objetivos
  • Que los humanos usen esta poderosa tecnología de forma maliciosa e irresponsable

En el primer caso Bostrom dice: “se está creando algo que sería muy inteligentes y que podría ser también muy poderoso, si no sismos capaces de saber cómo controlarlo, podría surgir un sistema superinteligente que daría prioridad a alcanzar sus propios valores en detrimentos de los nuestros”. ¿Y no podrían ser los valores de una super IA mejores que el de los humanos?

En el segundo, le preocupa que sea utilizada no solo para ayudarnos a ser más productivos sino también, para librar guerras u oprimirnos unos a otros. Y es que Históricamente una parte de la humanidad se ha beneficiado en detrimento de la otra parte, mientras una parte se hace rica y poderosa otra se hace pobre y a nadie le importa la miseria en que viven. Lo lógico dado nuestro sistema es que si las máquinas son más inteligentes que los humanos terminaran haciéndose poderosas y gobernaran a los humanos. Lo que nos conduce a que no solo hay que construir una IA que sea beneficiosa y que este alineada a los objetivos humanos sino también formar humanos responsables que respondan a objetivos superiores como la solidaridad, el altruismo, el amor, etc.)

En realidad, el problema consiste en ¿Quién controla a los humanos? Seguimos ignorando que los problemas son creados por los humanos y mantenemos la misma actitud que cuando fueron creados y asumimos que con las tecnologías se pueden resolver. Por lo que la futura superinteligencia artificial solo tendrá dos opciones: o combate a los efectos y de acuerdo a su interpretación, tratarán de disminuirlos (o de aumentarlos), o combate la causa y destruye a la humanidad. Y ese es el verdadero problema ¿Qué pasará cuando las máquinas superinteligentes, descubran que el problema es la propia humanidad? Una solución es reprogramar a los humanos a imagen y semejanza de las supermáquinas, otra sacar del juego a los humanos y convertirlo en mascotas o en reliquias y la última (la más fácil)  eliminar a la raza humana.

Libro recomendado:

“Superinteligencia artificial, caminos, peligros, estrategias” .

Disponible en Amazon

Historia de la inteligencia artificial (1)

ai100_robot-concept_1_0

A lo largo del tiempo he venido escribiendo artículos sobre la inteligencia artificial (IA) que van desde su historia, sus paradigmas, las tendencias y los riesgos y beneficios de la IA. Ahora motivado por el primer informe sobre 100 años de IA y teniendo en cuenta los cambios que se están produciendo en el desarrollo de las nuevas técnicas y herramientas, su impacto social y el enfoque que se sigue, sentimos la necesidad revisar algunos puntos de vista del informe, en especial, sobre el futuro de la IA y la posición del ser humanos (Puede descargar el informe aqui)

La influencia de la cibernética

A finales de los 50, después de la arremetida contra la cibernética, surge la inteligencia artificial, como una ciencia en sí misma, basada en la idea de construir programas capaces de emular con la inteligencia humana. Entonces, se consideraba que la mente estaba compuesta por complejos algoritmos y que el cerebro era centro donde se procesaba la información, de todo lo anterior se desprende que era totalmente posible reproducir la mente en una computadora, bastaba con encontrar la descripción algorítmica de los estados mentales. Y por muy compleja que pareciera el funcionamiento de la mente, en el fondo no era otra cosa que complejos algoritmos, y la tarea de los investigadores de la IA consistía en descifrar esos procesos y su conversión en algoritmos para luego introducirlos en una computadora e ir conformando una nueva inteligencia no humana.

La heurística

Los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Con la heurística se pretendía resolver aquellos problemas poco estructurados en los que no existía una secuencia de pasos que nos llevara desde un estado inicial a uno final y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación y que todos los problemas se podían resolver recorriendo un árbol de objetivos y la solución del problema, consistía en encontrar el camino correcto, desechando todas aquellas vías poco fértiles. La dificultad estaba en cómo desechar esas ramas o caminos improductivos, quién podría garantizar que ese camino después no fuese el más adecuado, hasta qué profundidad había que recorrer el árbol para estar seguro de que esa vía era errónea, cómo evitar, qué producto de la ramificación creciente del árbol, un exceso de combinaciones incalculables (explosión combinatoria).

Entonces, se soñaba con hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Con el tiempo estos revolvedores generales fueron abandonados, este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.

El paradigma simbolista

La IA durante sus primeros años se mantuvo fiel al paradigma simbolista, el cual a su vez se dividía en dos grupos, los que se basaban en la lógica en la lógica para la representación de los conocimientos (la sintaxis, cálculo de predicados) un ejemplo de ello el lenguaje Prolog, o los que se apoyaban en la semántica y buscaban representar los conocimientos a través de estructuras semánticas como guiones, marcos (frames), redes semánticas, etc. Discusión que llevó a que se formaran dos grupos: los defensores de la lógica (a los que llamaban los pulcros, ya que siempre vestían de forma impecable) y los semánticos (llamados zarrapastrosos, estos andaban peludos y vestían de forma no convencional). Como era de esperar a nivel académico se impusieron las ideas de los pulcros, en cambio muchas de las aplicaciones más importantes en IA han provenido de las investigaciones de los zarrapastrosos. Pero ambos se basaban en la presentación de los estados mentales en forma de algoritmos.

Múltiples progresos se desarrollaron durante esos años y fueron delineados los campos fundamentales que conformarían la nueva rama de la Informática. El desarrollo de lenguajes de y para la IA entusiasmó a investigadores y empresas a la vez que se comenzó la construcción de estaciones de trabajo especializadas en IA. A mediados de los años 70 se desarrolló en el Laboratorio de IA del MIT una de estas máquinas dirigida a apoyar y facilitar las investigaciones. En ellas el lenguaje de máquina es el LISP. Varios sistemas comerciales fueron elaborados por otras empresas.

En esta época se magnificaron las potencialidades de las investigaciones y alcances de la Inteligencia Artificial, los innegables avances, el rápido crecimiento de las diferentes ramas que la integran y el avance tecnológico conllevaron a que los investigadores se erigieran en ‘profetas’, y al interpretar los indiscutibles logros de esta nueva ciencia pronosticaran el inminente desarrollo de sistemas INTELIGENTES, capaces de sustituir al hombre no sólo en tareas burdas y repetitivas, sino en el campo del pensamiento, el razonamiento y la creación. Varios de ellos predijeron desde mediados de siglo que a finales del mismo ya existirían máquinas ‘inteligentes’.

En matemática se perfeccionaron los cálculos estadísticos, el análisis del razonamiento, el tratamiento de la incertidumbre, la lógica matemática y una de las líneas más promisorias: la lógica difusa de Zadeh. También se crearon nuevos lenguajes de programación siendo el Lisp (creado por MacCarthy, uno de los padres de la IA) y el Prolog. Pero como decía una ciencia no está completa sino cuenta con modelos experimentales y la IA creó sus propios laboratorios para modelar la inteligencia

Laboratorio de la IA (mundo de juguetes)

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de “mundos de juguetes”, producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

El laboratorio consistía en un brazo mecanismo controlado por una computadora y una mesa sobre la que se colocaban varios bloques, para que la computadora realizara diferentes operaciones sobre los bloques, como cogerlo, ponerlo encima de otro, quitarlo, seleccionar entre diferentes figuras: triangulo, cuadrado, etc. Con este ingenioso método se podían simular varias acciones humanas, como el lenguaje natural, ya que la comunicación en muchos casos era por medio del lenguaje natural, permitía el estudio de la planificación de tareas y el uso de agentes inteligentes que cooperaban en la solución, el estudio de la visión por computadoras y la representación de patrones, etc. A pesar de que algunos de forma despectiva le llamaron mundo de juguetes y criticaron sus logros sin tener en cuenta el impacto que han tenido posteriormente, muchas de las investigaciones que allí nacieron.

Primera crisis de la IA

Se trató de darle solución a problemas más específicos, problemas que dependían de un dominio de aplicación y los cuales se solucionaban a través de los conocimientos que se poseían sobre ese dominio, lo que dio lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos, los cuales, debido a la estrechez de su dominio en la solución de los problemas, no cumplían con las expectativas de los usuarios. Esto, entre otras cosas, trajo como consecuencia la crisis del paradigma simbolista dentro de la IA lo que originó nuevos paradigmas.

Dadas las falsas expectativas del enfoque heurístico, que pretendía hallar un algoritmo capaz de resolver todos los problemas, y su agotamiento como paradigma de la IA, los investigadores comienzan a formularse una nueva metodología basada en los conocimientos, porque en realidad, el hombre resuelve los problemas debido a que aplica su saber. Este nuevo enfoque, en lugar de partir de lo general a lo particular, se debía tratar de resolver los problemas particulares, utilizando conocimientos.

No podían faltar las predicciones, y muchos investigadores, a principio de los 60, afirmaron que en los años 80 se habría alcanzado una inteligencia artificial que no se diferenciaría de la humana. Demás está decir que eso nunca se logró. Pero las esperanzas no se perdieron y en los 70 surgió una de las aplicaciones que más expectativa despertó en la comunidad de IA: los sistemas expertos, los cual crearon una fiebre parecida a la del oro, y muchas empresas se lanzaron al desarrollo de sistemas expertos con fines comerciales. Pero, el proyecto más interesante, fue el proyecto japonés de quinta generación, con el cual esperaban construir una tecnología, soportada sobre el lenguaje Prolog, capaz de manipular conceptos como lo hace la mente humana, una máquina basada en inferencia por segundos. Todos estos proyectos fracasaron y en los años 90, la decepción no se hizo esperar. Los investigadores de la IA se dieron cuenta que algo estaba mal.

Sistemas expertos

Si anteriormente la IA solo se difundía dentro de los laboratorios, con los SE, irrumpe en el mercado y da lugar a una explosión de aplicaciones en casi todos los campos del saber. Este hecho recibió el impacto directo de la segunda revolución de la informática: las computadoras personales (PC), que fue lo que en fin de cuentas permitió, que los sistemas expertos se difundieran masivamente.

Marcada por MYCIN y desarrollada en la Universidad de Stanford, comienza la década de los Sistemas Expertos orientados al diagnóstico de enfermedades de la sangre, primer método que introduce el razonamiento con incertidumbre, permite comenzar la etapa de formalización de estos sistemas y conduce al desarrollo de herramientas de estructuras generalizadas o Shells (conchas) y por PROSPECTOR, dirigido a la evaluación de prospecciones geológicas e identificación de yacimientos minerales, el cual impactó por contradecir a los expertos y señalar una zona rica en molibdeno valorada en millones de dólares.

Debido a su matiz comercial, los SE no fueron muy bien acogidos por los investigadores puros, pues estos sistemas eran considerados como hijos bastardos de la Inteligencia Artificial. No obstante, muchos científicos abandonaron sus laboratorios para ir a desarrollar SE, y dar así origen a lo que muchos llamaron la IA aplicada con objetivos muy definidos: elaborar sistemas que fueran capaces de solucionar problemas propios de un experto para un campo específico, todo ello trajo como consecuencia que los SE invadieran el espacio de la informática y numerosas empresas de alta tecnología, mientras los gobiernos de EE.UU. y Japón comenzaron a invertir millonarias sumas en las investigaciones de la IA y miles de aplicaciones se realizaron y actualmente se utilizan.

Con los sistemas expertos, se repitió la fiebre del oro y se asumió que se convertirían en la gran aplicación de la informática después de Dendral y Mycin surgieron cientos de sistemas expertos que imitaban la lógica de ambos programas siendo el segundo el que dio lugar a las aplicaciones más prometedoras y la división actual de los sistemas expertos en máquina de inferencia, base de conocimientos y base de hechos. El fracaso pronto se hizo notar, del cual enumeramos algunas de las razones de la perdida de interés que fue sufriendo:

  • La complejidad de su programación, no justificaba el esfuerzo con los resultados posteriores.
  •  La limitación a un área específica o sea la restricción a un dominio de conocimiento, lo cual limitaba su uso.
  • La necesidad de estar alimentado la base de conocimientos, carecían de aprendizaje.
  •  El temor de los expertos a ofrecer sus conocimientos, ya que podían ser sustituidos por una máquina.
  • El surgir de aéreas de investigación y su desconocimiento del mercado, así como su falta de compromiso con la aplicación una vez en uso.
  • La desconfianza que genera aceptar el juicio de una máquina.
  • La interpretación de hacia el ingeniero de conocimiento (especialista) de los conocimientos de un experto, no siempre eran exactos.
  • Y, por último, eran los conocimientos de un experto, con el cual, el resto de los expertos podía no estar de acuerdo.

La inteligencia artificial (IA) parecía haberse agotado, tanto en lo teórico como en sus aplicaciones, y sus paradigmas habían llegado a un callejón sin salida. El fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todo el proyecto japonés de 5ta generación, la creación de una supercomputadora que, en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

La idea de querer reproducir la mente humana por medio de programas computacionales se fue lentamente abandonando, y el tiro de gracia se lo dio la tremenda expectativa que crearon los sistemas expertos, cuyo inicio fue desencadenado luego de las paradigmáticas aplicaciones, Dendral y Mycin. Se pensó, entonces, que por fin la IA había dado frutos, después de largos intentos de laboratorio en los que se incluyeron la comprensión del lenguaje natural desde el mítico Eliza, o el mundo de bloque y el sistema Schrdlu, o superlenguajes de programación que intentaban acercar a la computadora al ser humano, tales como Lisp y Prolog.

El primer fracaso de la IA estuvo al pronosticar que en los 80s se lograría un modelo informático de la mente que igualaría al humano, otro fracaso fue pensar que los sistemas expertos llegarían a sustituir a la mayoría de los especialistas humanos (al menos pensaron que estos sistemas tendrían una gran demanda en el mercado) y el más estrepitoso de todos el proyecto japonés de 5ta generación, la creación de una supercomputadora que en lugar de trabajar en base a operaciones por segundo, funcionase basada en inferencias por segundo, idea tomada de la lógica y del lenguaje Prolog.

De ahí que la IA abandone los sistemas autistas (encerrados en sí mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
La formalización del sentido común.
El aprendizaje.
La integración de diferentes paradigmas de inteligencia.
El desarrollo de arquitecturas cognoscitivas completas.

En fin, eran tantas las dificultades, que la esperanza en los sistemas de expertos como un nuevo nicho de mercado se fue esfumando, aunque los principios y los conocimientos han perdurado y siguen dando lugar a nuevas aplicaciones.

Libros publicados hasta la fecha

Estos son todos los libros que tengo publicados hasta la fecha

Inteligencia artificial, el futuro del hombre

IA_futuro_del_hombre

“¿Será posible llegar a una era poshumana? ¿Qué tendrá que suceder o que está sucediendo ya? El hombre construye máquinas –cada vez más potentes– a una velocidad nunca antes imaginada; y mientras el desarrollo de las máquinas parece no tener límites, la especie humana da la impresión que haber detenido su proceso evolutivo. Tiene sentido pensar que las máquinas le darán alcance e incluso lo rebasarán. ¿Y qué sucederá entonces? ¿Tendrá el hombre que someterse al dominio de las máquinas o surgirá alguna forma de fusión entre hombres y máquinas, en la que el hombre pierda su identidad humana y se dé inicio a la era poshumana?”. Leer más

 

El gran desafío de la humanidad

El libro es un desafío al pensamiento convencional y se constituye un instrumento valioso para pensar. Pero lejos de promover un pensamiento lineal como todo ensayo de anticipación implica un complejo juego de bifurcaciones, puntos de inflexión y una tensión constante entre pasado y futuro.

Y constituye un extraordinario esfuerzo en desentrañar nuevas conformaciones de mentalidades, intereses y potenciales consecuencias de nuevos operadores de la escena global, para muchos científicos sociales todavía inadvertidas. Leer más

Zaida, cuentos de ciencia ficción

Zaida-33

Zaida es una selección de cuentos cortos de ciencia ficción donde los temas van desde mundos virtuales, en el que cada personaje busca la felicidad que no encuentra en su vida real, o la desdicha de un paria o la crítica a una sociedad de consumo. No escapa a una sátira sobre las leyes de la robótica o al humor de contagio, un ser traumatizado lleno de complejos y de odio hacia la humanidad. Así como la reflexión sobre dos vidas párelas que transcurren al mismo tiempo entre dos personas con estatus social totalmente diferente, donde las comodidades de una casa inteligente contrastan con la vida miserable de un ser sin esperanza. Leer más

 

Crisis en el siglo XXI

Crisis_en_el_siglo_xxi

Una de las mayores amenazas que enfrenta la humanidad consiste en la degradación del planeta y los efectos que se están produciendo por las acciones humanas dada su actitud irresponsable con la naturaleza. El libro comienza con el cuestionamiento realizado por Bucky Fuller: “El desafío: Si el éxito o el fracaso del planeta y de los seres humanos depende de cómo soy y lo que hago… ¿Cómo sería yo? ¿Qué haría yo?”.

A lo largo del libro en sus cuatro capitulo se reflexiona sobre los desafíos que enfrentamos y las crisis que se han producido y que se tornarán cada vez más compleja durante el siglo XXI. Leer más.

Cosmovisión poética

Cosmovision

Es una obra donde la melancolía se funde con el universo, donde las tardes cuentan su historia y la luz brota de un alma solitaria azotada a veces por la lluvia, otras por el frió del olvido o por las sombras que amenazan una existencia agonizante.
Siempre desde la nostálgica visión de un mundo que se desconfigura que se vuelve cada vez más ajeno y distante, ante un alma que crea su propia visión y busca abrirse a la naturaleza y compartir su dolor con las estrellas.
Un alma a la que nada consuela y que vaga por el mundo componiendo sueños que viajan con el viento que levantan olas y que arrastran desamores, angustia y una infinita tristeza que se pierde más allá del crepúsculo. Leer más.

 

Sistemas Expertos

Sistemas ExpertosDurante años la actividad de la Inteligencia Artificial estuvo dedicada a las investigaciones teóricas y al desarrollo de experimentos a través de programas que demostraran “actitudes inteligentes”, con estos programas se pretendía que la máquina jugara ajedrez, demostrara teoremas matemáticos, etc. No fue hasta los años 70 que surgió un nuevo paradigma en la Inteligencia Artificial “los Sistemas Expertos”, cuya función es desarrollar trabajos similares a los que desarrollaría un especialista en un área determinada. Leer más.

 

X Aniversario del blog

Facultad de Cibernética Matemática

Hoy 7 de marzo el blog Soy un cibernético cumple 10 años de creado. Ese dia fue publicado el primer articulo en el blog: “Inteligencia artificial: actividades y aplicaciones”

Han sido años de esfuerzo, de abandonos y de regresos, de momentos de cansancio y de gran entusiasmo. Pero he seguido a lo largo de esto 10 años publicando, sobre temas que van desde la cibernetica, la inteligencia artificial, los sistemas experto, los agentes inteligentes, la relacion entre humanos y tecnologias, la singularidad tecnologica, el transhumanismo, el futuro de la humanidad, entre otros temas.

Diez años de altas y bajas, luego de un comienzo donde apenas me leian. El primer mes solo leyeron los articulo 19 personas, luego fueron aumentando y me parecio una hazaña cuando en un mes superé las 100 visitas. Hoy he alcanzado superar las 6000 vistas en un mes. Aqui una tabla sobre el comportamiento de las visitas desde marzo del 2007 hasta marzo del 2017.

.Meses y años

 

Ene Feb Mar Abr May Jun Jul Ago Sep Oct Nov Dic Total
2007 19 52 168 129 68 228 122 121 102 200 1.209
2008 359 797 980 1.096 1.497 1.289 913 1.354 1.856 2.616 2.605 1.614 16.976
2009 1.516 2.423 2.731 1.985 1.677 507 416 1.674 2.507 2.788 2.497 1.210 21.931
2010 1.154 1.775 1.297 1.279 1.543 1.683 1.298 1.603 1.955 1.970 2.554 1.296 19.407
2011 1.632 2.783 2.656 2.292 3.184 2.154 1.594 2.848 3.553 3.297 3.649 2.250 31.892
2012 2.744 4.433 4.764 3.474 5.104 3.636 3.053 4.567 5.025 5.369 5.963 2.000 50.132
2013 2.297 3.298 3.163 2.903 3.336 2.547 1.648 3.087 3.704 2.800 2.681 1.324 32.788
2014 1.678 2.482 2.062 1.639 2.368 1.770 1.385 2.091 1.921 2.606 2.850 1.493 24.345
2015 1.786 2.873 2.812 2.717 3.363 3.737 2.324 3.282 3.879 3.643 4.265 2.125 36.806
2016 2.501 3.800 3.468 4.336 4.577 3.315 2.620 4.062 4.718 5.505 5.543 2.794 47.239
2017 3.522 6.116 1.449 11.087

 

Hasta la fecha he publicado alrededor de 200 artículos, algunos muy leídos y otros han pasado casi inadvertidos

LAS 10 PUBLICACIONES MAS LEIDAS

  1. La relación entre humanos y tecnologias ——– 20081
  2. Los aportes de la cibernética ———— 7392
  3. Inteligencia artificial, actividades y aplicaciones —— 3523
  4. Las tecnologías y el fin de la humanidad ——– 3140
  5. Riesgos y tecnología ———– 3045
  6. La maquina superando a los humanos ——— 2643
  7. Las profecías de Ray Kurzweil ——- 2403
  8. Las tecnologías convergentes (NBIC) y la herencia cibernética —— 2152
  9. Nos acercamos a un nueva era de las tecnologías de la información —-2148
  10. La tecnología: amiga o enemiga ——— 1905

Espero volver a publicar algunos de estos artículos y mejor aun, retomar los temas para mejorarlos y ampliarlos

Cierro con los últimos 10 artículos que he publicado

ULTIMAS PUBLICCIONES

  1. Pioneros del enfoque sistémico-cibernético y el pensamiento complejo. Teoría de sistemas.
  2. Pioneros del enfoque sistémico-cibernético y el pensamiento complejo. Introducción
  3. Relación humanos y tecnologías
  4. ¿Nos estamos acercando al final de la especie humana?
  5. ¿Hacia dónde vamos? Resumen
  6. ¿Hacia dónde vamos? Refinamiento (2)
  7. ¿Hacia dónde vamos? Refinamiento (1)
  8. ¿Hacia dónde vamos? Problema tecno-científico
  9. ¿Hacia dónde vamos? Problema eco-sostenible
  10. ¿Hacia dónde vamos? Problema socio-económico

Solo espero que el blog siga cumpliendo años, y de algo estoy plenamente convencido, ya es parte esencial de mi vida.