Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción

Riesgos del futuro

El tema de los riesgos existenciales desarrollado por el filósofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial (Super IA) y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad (Nick Bostrom: la amenaza de una superinteligencia artificial).

No hace mucho el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Empezamos por Max Tegmark, físico e investigador en el MIT, escritor del libro “Vida 3.0”. El cual plantea tres interrogantes:

– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo, las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.

Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otro paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

El dilema de la superinteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir, pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes.

Max Termark está consciente del problema que enfrentamos cuando dice: “Creo que nuestro futuro puede ser muy interesante si ganamos la carrera entre el poder creciente de la tecnología y la sabiduría con la que se gestiona esa tecnología (dilema planteado por el bioeticista norteamericano Van R. Potter). Para conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual consistía en aprender de nuestros errores. Inventamos el fuego, la fastidiamos unas cuantas veces y después inventamos el extintor; inventamos el coche, la volvimos a fastidiar varias veces e inventamos el cinturón de seguridad y el airbag. Pero con una tecnología tan potente como las armas atómicas o la inteligencia artificial sobrehumana no vamos a poder aprender de nuestros errores. Tenemos que ser proactivos”

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

A lo que Termark afirma: “En diez años, si no hacemos nada, vamos a ver más desigualdad económica. Y, por último, hay mucha polémica sobre el tiempo necesario para crear una inteligencia artificial general, pero más de la mitad de los investigadores en IA creen que sucederá en décadas. En 40 años nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la IA. Ese es el escenario catastrófico. Para evitarlo necesitamos que la gente se una a la conversación”.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, (Riesgos y beneficios de una inteligencia artificial avanzada desde un enfoque sistémico-cibernético)  tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llegó a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podrían convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Volviendo a Max Termark quien en su libro Vida 3.0, divide el desarrollo de la vida en tres fases:

  • Vida 1.0 (fase biológica): su hardware y software son fruto de la evolución. Surgió hace unos 4.000 millones de años. Es producto de la relación entre humanos-heramientas-naturaleza, se logra cierta sinergia entre humanos y animales. El ser humano se integra al entorno natural.
  • Vida 2.0 (fase cultural): su hardware es fruto de la evolución: diseña buena parte de su software. Surgió hace unos cien milenios. Relación entre humanos-maquinas-humanos. Se logra cierta sinergia entre los humanos por medio de alguna forma de organización, principalmente, con fines económicos. El humano se integra al entorno social, cultural y económico
  • Vida 3.0 (fase tecnológica): diseña tanto su hardware como su software. Aparece en el siglo XX y, sobre todo, siglo XXI. Relación entre humanos-tecnologías-máquinas inteligentes. Se logra cierta sinergia entre humanos y máquinas por medio de la interacción (o fusión) entre ambos. El humano se integra a un entorno artificial

A lo largo de su libro Termark da su definición de lo que es la Vida y su evolución desde la vida 1.0 pasando por la 2.0 hasta la 3.0. Habla de los escenarios futuros en cada escenario plantea su plausibilidad, los inconvenientes y analiza por qué puede o no puede suceder así como del impacto de una explosión de inteligencia (Los riesgos existenciales de una singularidad tecnológica 1). Al igual que Bostrom se inclina por el aprendizaje profundo, la técnica de IA más utilizada, sobre todo por las grandes transnacionales que marcan las pautas en la tecnología de información con Google a la cabeza. Sin embargo, existen otras líneas de investigación, como la que lleva a cabo Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contenga todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras (Paradigmas y tendencias en la investigación de la IA).

Termark también se preocupa por el tema de si las inteligencias artificiales generales (yo prefiero avanzadas) tendrán conciencias, para Kurzweil la consciencia es algo implícito a la inteligencia (conciencia trivial) para otros como Bostrom carece de importancia si las máquinas tienen conciencia o no. Al respecto Termark asume una posición realista cuando dice: “La importancia de si las IA son conscientes es relevante de cara a los problemas éticos y filosóficos que deben resolverse de cara a la irrupción de la IA en nuestras vidas”.

Otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

A Termark le preocupa como los líderes tecnológicos que están construyendo la IA son muy idealistas. Y agrega: “Quieren que esto sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de las compañías que están desarrollando la IA, la principal es ganar dinero. Siempre harás más dinero si reemplazas humanos por máquinas que puedan hacer los mismos productos más baratos. No haces más dinero diseñando una IA que es más bondadosa. Hay una gran presión económica para hacer que los humanos sean obsoletos”. Con lo que coincido plenamente

Y es que son muchos los creen que el surgimiento de una superinteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superiinteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostará por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Libro recomendado: “Vida 3.0” 

La singularidad tecnológica de Raymond Kurzweil

No todas las personas saben lo que quieren hacer con su vida, y más difícil aun saber lo que debe hacer toda la humanidad y cuál es su destino. Ray Kurzweil es uno de esos raros casos que tiene muy clara su idea de cuál es el mejor futuro para la humanidad. Sus ideas podrán gustarnos o no, pero su esfuerzo por conocer el futuro de la humanidad, es uno de los más originales y abarcadores. Y aunque sus ideas parten de la archiconocida ley de Moore, basada en el Hard y en el aumento de la velocidad de procesamiento de la información, enfocado dentro de una inteligencia artificial fuerte, donde cerebro y computadora son sistemas procesadores de información y en la conclusión de que la velocidad de procesamiento de las computadoras superará a la velocidad del cerebro por lo que, inevitablemente, llegaremos a una inteligencia artificial (IA) superior a la humana. Así de fácil.

Kurzweil define a la singularidad como la creación de una inteligencia no biológica que va a igualar el alcance y la sutileza de la inteligencia humana y luego la va a sobrepasar, debido a la aceleración continua de las tecnologías de la información y a que tendrá acceso a su propio diseño y será capaz de mejorarse a sí misma en un ciclo de rediseño cada vez más rápido por lo que llegaremos a un punto donde el progreso tecnológico será tan rápido que la inteligencia humana “no mejorada” será incapaz de seguirlo lo cual marcará el advenimiento de la singularidad.

La idea de una singularidad la toma de Vernor Vinge, pero a diferencia de este que mostraba preocupación por su surgimiento, Kurzweil le profesa una fe que roza el fanatismo. En cambio, Vinge, reconoce que la singularidad podría ser un peligro, cuando dice: “Quizá los gobiernos del mundo decidan que la posibilidad es tan peligrosa que la investigación que lleva a la singularidad será prohibida. Lamentablemente, el problema de la proliferación de armas nucleares ya ha demostrado la fragilidad de esta esperanza. Aunque todos los gobiernos del mundo entendieran la “amenaza” y la temieran, el avance hacia el objetivo seguiría” … “De hecho, la ventaja competitiva –económica, militar e incluso artística–  de todo avance en la automatización es tan atractiva que aprobar leyes que prohíben estas cosas básicamente garantiza que otros las conseguirán antes. Si la singularidad tecnológica puede producirse, lo hará”

Para Ray Kurzweil (al igual que el resto de los tecno-utopista) las computadoras han duplicado tanto su velocidad como su complejidad (lo que en realidad significa la cuadruplicación de su capacidad) cada veinticuatro meses desde el comienzo de los artilugios de cálculo, en los inicios de este siglo. Esta tendencia continuará y, alrededor del 2020, los ordenadores alcanzarán la capacidad de memoria y la velocidad de cálculo del cerebro humano. También es el que más resalta las posibilidades de la tecnología y repite junto a Vingen que no ve límites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Y dice: “Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología… Este siglo será equivalente a 20.000 años de desarrollo lineal”.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: “La tecnología informática la situación dista mucho de ser estática. Hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que, en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos  –por ejemplo, el de escribir un libro sobre ordenadores–, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez”.

Al igual que Minsky está inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas; ellos, no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, en lugar de su capacidad para manejar información. Y considera que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos. Su sueño es reproducir las funciones del cerebro en un medio digital y toma la idea de la ingeniería inversa y la aplica a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento. Para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano. Nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. Ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También se muestra inconforme con su cuerpo a lo que dice: “La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida”. A lo que agrega: “Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas”.

Kurzweil que es el más tecnólogo de todos los futuristas, pone gran énfasis en la nanotecnología y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegará en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nano-robots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots  son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio. También aspira a que la nanotecnología nos lleve más allá de los límites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones sobre el futuro se encuentran escanear el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y tele-cargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnología, también podrán tenerlos en la realidad.

De igual manera, Kurzweil, considera que la humanidad no es el fin de la evolución sino el principio de una nueva evolución que surgirá producto de una nueva forma de inteligencia que superará a la humana, lo cual será el acontecimiento más importante en la historia humana. Con profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que constituye la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología. Y dice: “Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del quehacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos… Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la sinergia entre humanos y tecnologías”.

Kurzweil es categórico cuando afirma: los que decidan seguir siendo humanos, no tendrán ninguna posibilidad ante las nuevas entidades. Y agrega: “Una legislación eficaz protege a los Mosh, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados”. Se subestima la capacidad de los humanos y su potencial creador.

Kurzweil basa sus ideas sobre el futuro en las siguientes tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio…

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente.  Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre. La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Para los tecno-utópicos, Kurzweil a la cabeza,  solo la tecnología puede salvar a la humanidad por lo que surgen las siguientes preguntas: ¿Puede la tecnología por si sola resolver todos los problemas? ¿Se puede obviar la importancia de la sociedad y sus estructuras actuales sustentadas sobre la hegemonía, la competencia y la ambición de poder que está presente en la naturaleza humana? Cuando analizamos el lenguaje que utilizan, nos damos cuenta, de cómo las consideraciones sociales están presentes en las decisiones tecnológicas y como, las mismas, son consecuencias de muchas de las decisiones futuras; a pesar de sus intentos de querer basarse únicamente en la tecnología como remedio a todos los males.

Libro recomendado: “La singularidad está cerca”

Disponible en Amazon

Nick Bostrom: la amenaza de una superinteligencia artificial

 

La superinteligencia artificial

A la euforia de una singularidad tecnológica de Kurzweil, se une a la predicción, algo preocupante, de Nick Bostrom sobre una superinteligencia artificial, al afirmar que la superinteligencia será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos.

La idea de una superinteligencia artificial nace dentro de la singularidad tecnológica, creada por Vinge, quien la define como máquinas superinteligentes y la  sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas super inteligentes.

Vinge, define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad tecnológica.

Por su parte Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

Creatividad científica
• Sabiduría en general
• Desempeño científico

Los tres son partidarios del avance de la IA producto de las prestaciones de la máquina: más velocidad de procesamiento, más memoria, mejores periféricos, de ahí que Moravec compare la velocidad de procesamiento del cerebro con la de una máquina y tres son los factores para la superinteligencia artificial: la capacidad de la máquina de procesar información cada vez más rápido y de analizar una mayor cantidad de variantes, la representación del procesamiento de la información en forma de redes neuronales similar a como funciona el cerebro y por último el pensamiento profundo que permite el aprendizaje partiendo del análisis de grandes bases de datos.

Hoy todo el interés se centra en el aprendizaje profundo y en el desarrollo de una IA operativa (basada en datos) de ahí que Bostroom, asuma que el avance de la inteligencia artificial en los últimos años se debe al aprendizaje profundo uno de los modelos de la IA que más impacto está teniendo y afirma que la manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. El pensamiento profundo se usa fundamentalmente en el procesamiento de grandes bases de datos basado, estamos hablando de algoritmos “de fuerza bruta” que son capaces de calcular una mayor cantidad de posibilidades. Aunque muchos no aceptan que la mente humana pueda basar su fortaleza en el cálculo y el análisis de datos, estamos ante el modelo de la IA mas aceptado actualmente

Sin dudas, entre los modelos que utiliza la IA está la IA operativa (basada en datos) que utiliza como técnica a las redes neuronales y al pensamiento profundo, en cambio los sistemas expertos están dentro del modelo simbolista que se basa en la representación de la realidad a través de símbolos mentales. Mientras, el modelo conexionista se basa en la representación de las funciones del cerebro por medio de una red neuronal. Son dos modelos diferentes de la representación de un dominio especifico de aplicación. Para la IA simbólica se asume que es mente y se basa en los conocimientos de un experto, en cambio para la IA conexionista se asume que es el cerebro y sus conexiones (redes neuronales) que permite el procesamiento de grades bases de datos. Hasta la fecha no tiene relación un modelo con el otro, aunque es cierto que se habla de lograr un sistema que combine a ambos modelos. Sin olvidar que existen otros muchos modelos de la IA de gran repercusión.

Bostrom refiriéndose al aprendizaje profundo dice: “La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos, aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos” y afirma que este nuevo concepto apunta a la Inteligencia General Artificial.

Y es que desde sus inicios, la aspiración de toda inteligencia artificial ha sido convertirse en una inteligencia artificial avanzada (general) ya que la IA avanzada es una IA de propósito general, capaz de resolver cualquier tipo de tarea, las IA desarrolladas hasta el momento son IA específica, solo resuelve un tipo de tarea, incluso el aprendizaje profundo, hasta la fecha, solo resuelve un tipo de tarea, de lo cual Bostron está consciente cuando dice: En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero crea cierta confusión cuando dice: pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico. Y habla de sistema híbridos.

Actualmente se aspira a lograr una IA (sistema hibrido) que sea capaz de combinar el simbolismo (lógico o semántico), cuya aplicación fueron los sistemas expertos, con el conexionismo (redes neuronales) que utiliza las técnicas de aprendizaje profundo. Pero estos sistemas híbridos siguen resolviendo una sola tarea (IA especifica). Es la idea de combinar una IA especifica simbólica, basada en la representación de conocimientos por medio de reglas con un IA especifica conexionista, de momento específica, basada en buscar patrones comunes en grandes estructuras de datos por medio del aprendizaje profundo. Tanto la IA simbólica como la IA conexionista siguen trabajando por resolver cualquier tipo de tarea (IA general o avanzada). Otra cosa seria la superinteligencia artificial, pienso que no se puede hablar de superinteligencia artificial hasta que no se haya alcanzado una IA avanzada (general) de cualquier tipo.

Tipos de IA avanzada (de propósito general)

  • IA cognitiva, lograr una representación de la realidad tanto simbólica como conexionista para cualquier tarea
  • IA operativa, logra una representación por medio de redes neuronales aplicadas a grandes bases de datos y utilizando el aprendizaje profundo.
  • IA colectiva, se basa en la interacción de diferentes agentes que al integrarse forman una inteligencia colectiva y son capaces de actuar de forma colaborativa, donde la inteligencia está distribuida y es compartida.
  • IA enactiva, es producto de la construcción de la realidad por medio de la interacción con el entorno basado en la actuación del agente que busca la asimilación de la realidad (aprendizaje) de forma activa

En algunas de sus entrevista Bostron le quita importancia a Kurzweil, cuando se habla de una IA poshumana y contrariamente a lo que insinúa Bostrom, Kurzweil es el líder indiscutible de este enfoque de carácter tecno-religioso (el ideal de alcanzar la vida eterna) y es que todo depende del enfoque de la IA, ya que las crisis que ha sufrido la IA, sus altas y bajas, ha sido debido a los desacuerdos entre cada enfoque. Una cosa es el enfoque tecno-religioso, sobre las posibilidades de la IA en el futuro y sobre todo su influencia en la evolución de la humanidad y el surgimiento de una poshumanidad. Y otra cosa son los métodos, teorías, líneas de investigación y técnicas que se utilizan en la inteligencia artificial. Donde Kurzweil no es un investigador de primera línea, en cambio sí es referencia imprescindible sobre las máquinas del futuro, donde Bostrom es otro de sus ideólogos.

Con respecto a la inteligencia artificial, Bostrom se muestra partidario de una IA débil cuando dice: La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Y luego le resta importancia al modelo conexionista basado en redes neuronales cuando dice: “que la IA se inspire en el cerebro es una decisión más bien táctica” y afirma el objetivo principal no es tratar de replicar la mente humana. Aquí no hace distinción entre cerebro y mente, una cosa es replicar las funciones del cerebro (conexionismo) y otra cosa es representar los estados de la mente (simbolismo). Replicar la mente humana era la idea fundamental en Kurzweil, quien aspira a la poshumanidad, actualmente se transa tanto en reproducir la mente como el cerebro humano y lograr la conciencia como un proceso espontaneo (conciencia trivial), Por su parte Bostrom parece negar la idea de un proyecto poshumano: el sueño de Kurzweil de que la propia IA sea capaz de reconstruir las capacidades y la conciencia humana.

Bostron cree que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías, y afirma: Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada” Bostrom apuesta únicamente por el desarrollo tecnológico e ignora cuantas cosas se pudieran hacer si fuéramos mejores seres humanos, más bondadosas, más solidario, más responsables con nuestro entorno, etc. Sigue pensando en máquinas centradas en la tecnología y aun peor, supedita el desarrollo de las tecnologías al desarrollo de una super IA, ve a la super IA como la desencadenadora de todas las tecnologías.

Los riesgos de una superinteligencia artificial

En nuestro tiempo existe una gran preocupación por que las máquinas ocupen los puestos de trabajo de los humanos, a Bostrom como filosofo tecnológica le preocupa más que los descubrimientos sean realizados por las máquinas y considera que la super IA sería el último invento que realizará la humanidad, por tanto, las investigaciones serán desarrolladas por las super IA y es obvio que las máquinas serían capaces de realizar cualquier tarea y los humanos no tendrán nada que hacer.

Viéndolo desde otra óptica, la inteligencia artificial prestara un servicio a la humanidad, ya desde hoy está sucediendo con Google, Facebook, Amazon, Apple, etc., donde ese servicio que presta la IA será recibido por las personas como usuarios, el problema radica en si los humanos serán usuarios pasivos que esperan que las IA decidan por ellos y por las soluciones de les ofrezcan esas superinteligencias, por lo que dejaran de participar en el desarrollo y los humanos se convertirán  en meros consumidores. Podemos aceptar la idea de un humano feliz que ya no tiene que trabajar en el desarrollo tecnocientífico sino en trabajos relacionados con la cultura, el deporte, artesanía, mientras las grandes producciones las realizan las máquinas. No se puede olvidar que el capitalismo nos lleva a una relación cliente-servidor, siempre tiene que haber un consumidor para el cual producir y el propio sistema se encargara (ley del mercado) de que existan usuarios, a no ser que desaparezca el capitalismo y entonces surja un nuevo orden con la participación de los humanos o sin los humanos, de ahí la importancia de las sinergias humanos tecnologías que se están produciendo y saber cuáles favorecen un orden mundial basado en la cooperación entre humanos y máquinas o basado en la competencia o basado en la fusión entre humanos y máquinas o basado en el desarrollo exclusivo de las máquinas.

Para Bostorm, el problema está en la transición hasta la era de la inteligencia artificial a lo que dice: “tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad”, se refiere a una IA que no este alineada con nuestros propósitos, y agrega: “no somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización”.

Creo que el problema es que son muchos los que están desarrollando la inteligencia artificial: academias, transnacionales, militares, gobiernos, etc. Entonces, ¿podemos hacerlo bien a la primera? Por poner un ejemplo, ¿se pueden poner de acuerdo a gobiernos que están compitiendo por la hegemonía o a grandes empresas que compiten por los mercados? Estamos hablando de una IA alineada con los propósitos de quien. Es bueno recordar que aún no hemos podido desarrollar una IA avanzada de propósito general (multitarea), seguimos trabajando sobre IA específicas y todo indica que de surgir una super IA no será los los próximos años y no creo que Bostrom ni Kurzweil, por solo citar dos de los grandes pensadores sobre el futuro, lleguen a verla en vida. Aunque Bostrom ya tiene la solución al problema sobre la transición a la era de la IA, y propone que debemos acercarnos a la revolución de la IA de forma coordinada y dice: “Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo”. Aquí me surge una duda. ¿Por qué tiene que ser un proyecto elitista, donde no todos pueden participar de forma abierta? Para algo están las redes sociales, ya es hora de romper el esquema académico de que solo unos pocos pueden aportar.

Con respecto al proyecto internacional, Bostrom considera que la solución al problema de la transición a la era de la IA, consiste fundamentalmente en destinar recursos para desarrollar métodos de control que sean escalables, y vuelve sobre la idea de alinearla con los valores humanos. Se está hablando de recursos para desarrollar métodos de control vitalicios, que sigan controlando a la IA aunque siga haciéndose más y más inteligente. Pero existe una contradicción si la IA se hace más inteligente que los humanos ¿No encontrará formas de burlar ese control? Además, estamos hablando de máquinas que serán capaces de auto programarse y de construir otras máquinas inteligentes. ¿Aceptaran las maquinas ser controladas por los humanos, para que estén alineadas con los humanos, y más aún cuando descubran que los humanos no están alineados entre sí?

Lo anterior nos lleva a como introducir los valores humanos en una máquina. Reproduzco textualmente como piensa Bostrom que se debe hacer: “Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustaría que fueran interpretados, y la manera de hacerlo es con el aprendizaje automático. No podemos especificar en un lenguaje informático lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podrá mejorar su comprensión de lo que quieren decir nuestras palabras en un sentido más profundo”.

Bostrom habla de los objetivos que queremos incorporar al sistema, se habla de aprendizaje automático para que las máquinas aprendan lo que queremos que hagan. Estamos hablando de una IA que aprenda los valore humanos en un mundo basado en las ganancias. Hoy las IA están surgiendo dentro de las transnacionales por lo que estará orientada al mercado y los humanos no pasan de ser sus usuarios y su objetivo será como venderle nuevos productos

Con respecto a los riesgos de una IA, Nick Bosrtron considera dos clases de amenazas:

  • Por problemas en la alineación de objetivos
  • Que los humanos usen esta poderosa tecnología de forma maliciosa e irresponsable

En el primer caso Bostrom dice: “se está creando algo que sería muy inteligentes y que podría ser también muy poderoso, si no sismos capaces de saber cómo controlarlo, podría surgir un sistema superinteligente que daría prioridad a alcanzar sus propios valores en detrimentos de los nuestros”. ¿Y no podrían ser los valores de una super IA mejores que el de los humanos?

En el segundo, le preocupa que sea utilizada no solo para ayudarnos a ser más productivos sino también, para librar guerras u oprimirnos unos a otros. Y es que Históricamente una parte de la humanidad se ha beneficiado en detrimento de la otra parte, mientras una parte se hace rica y poderosa otra se hace pobre y a nadie le importa la miseria en que viven. Lo lógico dado nuestro sistema es que si las máquinas son más inteligentes que los humanos terminaran haciéndose poderosas y gobernaran a los humanos. Lo que nos conduce a que no solo hay que construir una IA que sea beneficiosa y que este alineada a los objetivos humanos sino también formar humanos responsables que respondan a objetivos superiores como la solidaridad, el altruismo, el amor, etc.)

En realidad, el problema consiste en ¿Quién controla a los humanos? Seguimos ignorando que los problemas son creados por los humanos y mantenemos la misma actitud que cuando fueron creados y asumimos que con las tecnologías se pueden resolver. Por lo que la futura superinteligencia artificial solo tendrá dos opciones: o combate a los efectos y de acuerdo a su interpretación, tratarán de disminuirlos (o de aumentarlos), o combate la causa y destruye a la humanidad. Y ese es el verdadero problema ¿Qué pasará cuando las máquinas superinteligentes, descubran que el problema es la propia humanidad? Una solución es reprogramar a los humanos a imagen y semejanza de las supermáquinas, otra sacar del juego a los humanos y convertirlo en mascotas o en reliquias y la última (la más fácil)  eliminar a la raza humana.

Libro recomendado:

“Superinteligencia artificial, caminos, peligros, estrategias” .

Disponible en Amazon

Ciencia cognitiva y la inteligencia artificial

Surgimiento

En 1948 se celebró en el Instituto de Tecnología de California un simposio multidisciplinar sobre los mecanismos cerebrales de la conducta, conocido como Simposio de Hixon. Allí participaron destacados científicos de la época como John von Neumann quien propuso la metáfora computacional, el matemático y neurofisiología Warren McCulloch que expuso una teoría sobre cómo el cerebro procesa la información y el psicólogo Karl Lashley quien alertó sobre la incapacidad del conductismo para explicar conductas organizadas complejas. Este simposio, junto a la conferencia de Dartmouth donde fue acuñado el término “inteligencia artificial, celebrada en 1956, crearon las bases para que en ese mismo año tuviera lugar en el Instituto Tecnológico de Massachusetts (MIT) un nuevo simposio, dando a lugar al surgimiento del paradigma cognitivista, en el que asistieron personalidades como: el psicólogo George Miller, el lingüista Noam Chonsky, el informático Allen Newell, el economista Herbert Simon entre otros

Definición

La ciencia cognitiva busca ser el estudio del conocimiento de forma científica e interdisciplinar, abarcando inteligencia artificial, la psicología, la lingüística, la neurociencia, la filosofía y la antropología.

Según Thagard, el propósito principal de la Ciencia Cognitiva es explicar cómo se piensa, estando la mayoría de los científicos cognitivos de acuerdo en que el conocimiento consiste en representaciones mentales. Las representaciones mentales serían las formas mentales que tenemos de lo que nos rodea, las representaciones del mundo.

Modelos de las representaciones mentales

Para Thagard, las principales formas de entender cómo se piensa o de modelar actualmente las representaciones mentales son:

  • La lógica trata las representaciones como inferencias deductivas
  • Las reglas son estructuras del tipo “si… entonces…”,
  • Los conceptos serían algo así como “esquemas mentales” que se corresponderían con situaciones típicas,
  • Las analogías son adaptaciones de situaciones ya conocidas
  • Las imágenes se corresponderían con “dibujos mentales”,
  • Las conexiones neurales son representaciones como patrones de actividad de una red de neuronas

 Los supuestos teóricos de la ciencia cogntiva

Las ciencias cognitivas son aquellas que comparten el paradigma cognitivista (Carpintero, 1996). Éste consta de dos supuestos teóricos fundamentales (García, 2001):

  • El primero es la metáfora computacional, que consiste en la mencionada analogía según la cual la mente es un procesador de información semejante a una computadora electrónica.
  • El segundo es la tesis internalista que establece la existencia de representaciones mentales y que reclama un nivel de análisis propio para estudiarlas al margen de los factores biológicos y de algunos de los factores ambientales que las afectan.

 Veamos las definiciones dadas por Manuel Carabantes en su tesis doctorante sobre inteligencia artificial (1):

La metáfora computacional, también conocida como la tesis del procesamiento de información, caracteriza los procesos cognitivos como manipulación y operación con la información de modo análogo a como lo hace una computadora electrónica. En virtud de la teoría de la información de Shannon y Weaver se supone que el contenido de la información es irrelevante para su procesamiento. Daría igual, por tanto, que los estados internos del sistema intencional contuvieran representaciones simbólicas, analógicas, procedimentales o de cualquier otro tipo (García, 1996, p. 304).

La tesis internalista establece que para explicar adecuadamente la actividad humana o de cualquier otro sistema intencional que opere con causalidad final se requiere postular la existencia de procesos cognitivos, caracterizados como estados internos que dan cuenta, representan, conocen o informan de alguna realidad. Además, el cognitivismo reclama un nivel de análisis propio para estudiar dichos estados internos al margen de los factores biológicos y de algunos de los factores ambientales que los afectan. Se trata de una tesis opuesta a la pretensión conductista de eliminar de la psicología el estudio de la vida psíquica.

Actualmente existe una discusión sobre si la teoría representacional sigue siendo el fundamento de la ciencia cognitiva o si debe se sustituida por una teoría no representacionista o si la ciencia cognitiva debe ser ampliado e incluir otras formas de representación.

Para Francisco Varela, quien es un defensor de una ciencia cognitivo ampliada (2), considera que la importancia de la ciencia cognitiva es que por primera vez la ciencia (es decir, el conjunto de científicos que definen qué debe ser ciencia) reconoce plenamente la legitimidad de las investigaciones sobre el conocimiento mismo, en todos sus niveles, más allá de los límites tradicionalmente impuestos por la psicología o la epistemología. Por otra parte considera que la ciencia cognitiva se encuentra en su tercera etapa.

Etapas de la ciencia cognitiva:

  1. Simbólica
  2. Emergente (conexionista)
  3. Inactiva

Las dos primeras cumplen con la teoría representacional, la última (enactiva) rompe con ese esquema al proponer un enfoque no representacional partiendo de la corporeidad del conocimiento como un proceso vivido. Aquí Varela está aceptando que el conocimiento, actualmente es representacional y puede ampliarse asumiendo la compatibilidad con un conocimiento corpóreo.

Dada la relación tan estrecha entre la ciencia cognitiva y la IA vamos a detenernos en los modelos de la inteligencia artificialc (ver Paradigmas y tendencias en la investigación de la IA)

Modelos de la IA

Los modelos de la IA sirven tanto para la IA general como para la IA específica y para la futura super IA, aunque u aplicación ha sido fundamentalmente en la IA específica.

  • Modelo simbólico – Lógico: reglas de producción o semántico: conceptos
  • Modelo conexionista o emergente – Redes neuronales.
  • Modelo evolutivo – Algoritmo genético.
  • Modelo colectivo o colaborativo – Sistemas multiagentes
  • Modelo corpóreo – Robótica del desarrollo (agentes reactivos).
  • Modelo operativo (basado en datos) – Aprendizaje profundo.

Los modelos de tipo conexionista (conexionista, evolutivo, colectivo). Se basan en unidades interconectadas.

Las unidades interconectadas pueden ser

  • Neuronas
  • Genes
  • Agentes inteligentes

No se puede olvidar que, hasta la fecha, los modelos de la IA deben poder reproducirse en las computadoras, las cuales son cada vez más potentes, lo cual permite nuevas formas de programación teniendo en cuenta las actuales prestaciones de las máquinas que permiten un aumento cada vez mayor de almacenamiento, procesamiento de la información y conexión, lo cual ha facilitado el surgimiento de una IA operativa basada en datos

Hoy algunos, proponen salirse de la ciencia cognitiva otros hablan de ciencias cognitivas con el fin de aceptar los diferentes enfoques y aunque Varela defiende la idea de una ciencia cognitiva ampliada con el enfoque enactivo, en los últimos años de su vida, hablaba de dos enfoques: el enfoque tradicional-abstracto y el enfoque moderno-enactivo. Esto me recuerda al paradigma tradicional-mecanicista y el paradigma complejo-sistémico, los cuales tienen un carácter filosófico y para muchos son irreconciliables. En cambio, Varela propone sus dos enfoques implicados con la ciencia.

Entonces (siguiendo a Varela) tendríamos dos paradigmas científicos:

  1. Paradigma representacionista con un enfoque tradicional-abstracto: racionalista, cartesiano, objetivista
  2. Paradigma no representacionista (construccionista) con su enfoque moderno-enactivo: concreto, encarnado, incorporado, vivido

Por otra parte, Varela defiende la inclusión del enfoque enactivo en la ciencia cognitiva cuando en realidad el enactivismo está más cerca del pensamiento sistémico-complejo que del pensamiento racionalista-reduccionista. Son muchos los que ubican a Varela dentro de la ciencia de la complejidad.

Volviendo a la inteligencia artificial, yo me atrevería a agrupar a los modelos de la IA de la siguiente forma.

Paradigma representacionista. Enfoque tradicional-abstracto

  • Modelo simbólico-lógico (representación en reglas) – IA simbólica
  • Modelo conexionista – IA conexionista (subsimbólica)
  • Modelo computacional (BD) – IA operativa

Paradigma construccionista. Enfoque moderno-enactivo

  • Modelo simbólico-semántico (representación en conceptos) – IA semántica
  • Modelo emergente-colectivista – IA colaborativa
  • Modelo enactivo – IA corpórea

El modelo semántico, aunque se inserta dentro del representacionismo ya contenía elementos menos abstractos, tomados de la vida, tales como escenarios, estructuras complejas, redes semánticas, guiones, etc.

La clasificación de los paradigmas anteriores nos lleva irremediablemente a las “ciencias cognitivas” dividida en ciencia cognitiva representacionista y ciencia cognitiva no representacionista (construccionista), la primera enmarcada dentro de un pensamiento racionalista-reduccionista y la segunda dentro de un pensamiento complejo-sistémico, este último defendido por pensadores como Morin (pensamiento complejo), Capra (cosmovisión de la complejidad) y Maldonado (ciencia de la complejidad) por nombrar solo tres.

Personalmente no creo que sea posible conciliar el pensamiento racionalista-reduccionista-abstracto-aislacionista con el pensamiento complejo-sistémico-concreto-colectivista (aunque si pueden complementarse) como tampoco veo posible el desarrollo de una IA operativa basada en datos (centrada en la computadora) con el desarrollo de una IA corpórea (centrada en lo humano). De esto hablaremos en un próximo artículo.

 Referencias

  •  Carabantes, López, Manuel. Inteligencia artificial: condiciones de posibilidad técnicas y sociales para la creación de máquinas pensantes (2014)
  • Varela, Francisco. El fenómeno de la vida (2000)

Imagen: Wikipedia

 

 

 

 

S

¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.