Nick Bostrom: la amenaza de una superinteligencia artificial (1)

 

La superinteligencia artificial

A la euforia de una singularidad tecnológica de Kurzweil, se une a la predicción, algo preocupante, de Nick Bostrom sobre una superinteligencia artificial, al afirmar que la superinteligencia será quizás el último invento que la raza humana necesita hacer, ya que esta (luego) se ocupará de la civilización en todos sus aspectos.

La idea de una superinteligencia artificial nace dentro de la singularidad tecnológica, creada por Vinge, quien la define como máquinas superinteligentes y la  sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada año y medio, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas super inteligentes.

Vinge, define una máquina superinteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad tecnológica.

Por su parte Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

Creatividad científica
• Sabiduría en general
• Desempeño científico

Los tres son partidarios del avance de la IA producto de las prestaciones de la máquina: más velocidad de procesamiento, más memoria, mejores periféricos, de ahí que Moravec compare la velocidad de procesamiento del cerebro con la de una máquina y tres son los factores para la superinteligencia artificial: la capacidad de la máquina de procesar información cada vez más rápido y de analizar una mayor cantidad de variantes, la representación del procesamiento de la información en forma de redes neuronales similar a como funciona el cerebro y por último el pensamiento profundo que permite el aprendizaje partiendo del análisis de grandes bases de datos.

Hoy todo el interés se centra en el aprendizaje profundo y en el desarrollo de una IA operativa (basada en datos) de ahí que Bostroom, asuma que el avance de la inteligencia artificial en los últimos años se debe al aprendizaje profundo uno de los modelos de la IA que más impacto está teniendo y afirma que la manera de procesar la información es similar en muchas maneras a como lo hace nuestra mente humana. El pensamiento profundo se usa fundamentalmente en el procesamiento de grandes bases de datos basado, estamos hablando de algoritmos “de fuerza bruta” que son capaces de calcular una mayor cantidad de posibilidades. Aunque muchos no aceptan que la mente humana pueda basar su fortaleza en el cálculo y el análisis de datos, estamos ante el modelo de la IA mas aceptado actualmente

Sin dudas, entre los modelos que utiliza la IA está la IA operativa (basada en datos) que utiliza como técnica a las redes neuronales y al pensamiento profundo, en cambio los sistemas expertos están dentro del modelo simbolista que se basa en la representación de la realidad a través de símbolos mentales. Mientras, el modelo conexionista se basa en la representación de las funciones del cerebro por medio de una red neuronal. Son dos modelos diferentes de la representación de un dominio especifico de aplicación. Para la IA simbólica se asume que es mente y se basa en los conocimientos de un experto, en cambio para la IA conexionista se asume que es el cerebro y sus conexiones (redes neuronales) que permite el procesamiento de grades bases de datos. Hasta la fecha no tiene relación un modelo con el otro, aunque es cierto que se habla de lograr un sistema que combine a ambos modelos. Sin olvidar que existen otros muchos modelos de la IA de gran repercusión.

Bostrom refiriéndose al aprendizaje profundo dice: “La expectación se crea porque parece ser una forma más «general» de estructurar la inteligencia, un tipo de algoritmo que tiene la capacidad general de aprender de los datos, aprender de la experiencia y construir representaciones a partir de un patrón presente en dichos datos que no ha sido explícitamente pre-programado por humanos” y afirma que este nuevo concepto apunta a la Inteligencia General Artificial.

Y es que desde sus inicios, la aspiración de toda inteligencia artificial ha sido convertirse en una inteligencia artificial avanzada (general) ya que la IA avanzada es una IA de propósito general, capaz de resolver cualquier tipo de tarea, las IA desarrolladas hasta el momento son IA específica, solo resuelve un tipo de tarea, incluso el aprendizaje profundo, hasta la fecha, solo resuelve un tipo de tarea, de lo cual Bostron está consciente cuando dice: En algunos casos, estos sistemas de aprendizaje profundo modernos se utilizan específicamente para reconocimiento de imágenes y de voz, pero crea cierta confusión cuando dice: pero muchos otros sistemas empleados por las empresas siguen siendo en su mayoría sistemas expertos en aplicaciones para un propósito específico. Y habla de sistema híbridos.

Actualmente se aspira a lograr una IA (sistema hibrido) que sea capaz de combinar el simbolismo (lógico o semántico), cuya aplicación fueron los sistemas expertos, con el conexionismo (redes neuronales) que utiliza las técnicas de aprendizaje profundo. Pero estos sistemas híbridos siguen resolviendo una sola tarea (IA especifica). Es la idea de combinar una IA especifica simbólica, basada en la representación de conocimientos por medio de reglas con un IA especifica conexionista, de momento específica, basada en buscar patrones comunes en grandes estructuras de datos por medio del aprendizaje profundo. Tanto la IA simbólica como la IA conexionista siguen trabajando por resolver cualquier tipo de tarea (IA general o avanzada). Otra cosa seria la superinteligencia artificial, pienso que no se puede hablar de superinteligencia artificial hasta que no se haya alcanzado una IA avanzada (general) de cualquier tipo.

Tipos de IA avanzada (de propósito general)

  • IA cognitiva, lograr una representación de la realidad tanto simbólica como conexionista para cualquier tarea
  • IA operativa, logra una representación por medio de redes neuronales aplicadas a grandes bases de datos y utilizando el aprendizaje profundo.
  • IA colectiva, se basa en la interacción de diferentes agentes que al integrarse forman una inteligencia colectiva y son capaces de actuar de forma colaborativa, donde la inteligencia está distribuida y es compartida.
  • IA enactiva, es producto de la construcción de la realidad por medio de la interacción con el entorno basado en la actuación del agente que busca la asimilación de la realidad (aprendizaje) de forma activa

En algunas de sus entrevista Bostron le quita importancia a Kurzweil, cuando se habla de una IA poshumana y contrariamente a lo que insinúa Bostrom, Kurzweil es el líder indiscutible de este enfoque de carácter tecno-religioso (el ideal de alcanzar la vida eterna) y es que todo depende del enfoque de la IA, ya que las crisis que ha sufrido la IA, sus altas y bajas, ha sido debido a los desacuerdos entre cada enfoque. Una cosa es el enfoque tecno-religioso, sobre las posibilidades de la IA en el futuro y sobre todo su influencia en la evolución de la humanidad y el surgimiento de una poshumanidad. Y otra cosa son los métodos, teorías, líneas de investigación y técnicas que se utilizan en la inteligencia artificial. Donde Kurzweil no es un investigador de primera línea, en cambio sí es referencia imprescindible sobre las máquinas del futuro, donde Bostrom es otro de sus ideólogos.

Con respecto a la inteligencia artificial, Bostrom se muestra partidario de una IA débil cuando dice: La inteligencia artificial trata principalmente de encontrar formas de hacer que las máquinas resuelvan problemas difíciles. Y luego le resta importancia al modelo conexionista basado en redes neuronales cuando dice: “que la IA se inspire en el cerebro es una decisión más bien táctica” y afirma el objetivo principal no es tratar de replicar la mente humana. Aquí no hace distinción entre cerebro y mente, una cosa es replicar las funciones del cerebro (conexionismo) y otra cosa es representar los estados de la mente (simbolismo). Replicar la mente humana era la idea fundamental en Kurzweil, quien aspira a la poshumanidad, actualmente se transa tanto en reproducir la mente como el cerebro humano y lograr la conciencia como un proceso espontaneo (conciencia trivial), Por su parte Bostrom parece negar la idea de un proyecto poshumano: el sueño de Kurzweil de que la propia IA sea capaz de reconstruir las capacidades y la conciencia humana.

Bostron cree que la superinteligencia sería una especie de tecnología de propósito general, porque permitiría inventar otras tecnologías, y afirma: Creo que todas esas tecnologías y otras que aún no hemos imaginado podrían ser desarrolladas por máquinas con superinteligencia y probablemente en un período relativamente corto después de su llegada” Bostrom apuesta únicamente por el desarrollo tecnológico e ignora cuantas cosas se pudieran hacer si fuéramos mejores seres humanos, más bondadosas, más solidario, más responsables con nuestro entorno, etc. Sigue pensando en máquinas centradas en la tecnología y aun peor, supedita el desarrollo de las tecnologías al desarrollo de una super IA, ve a la super IA como la desencadenadora de todas las tecnologías.

Los riesgos de una superinteligencia artificial

En nuestro tiempo existe una gran preocupación por que las máquinas ocupen los puestos de trabajo de los humanos, a Bostrom como filosofo tecnológica le preocupa más que los descubrimientos sean realizados por las máquinas y considera que la super IA sería el último invento que realizará la humanidad, por tanto, las investigaciones serán desarrolladas por las super IA y es obvio que las máquinas serían capaces de realizar cualquier tarea y los humanos no tendrán nada que hacer.

Viéndolo desde otra óptica, la inteligencia artificial prestara un servicio a la humanidad, ya desde hoy está sucediendo con Google, Facebook, Amazon, Apple, etc., donde ese servicio que presta la IA será recibido por las personas como usuarios, el problema radica en si los humanos serán usuarios pasivos que esperan que las IA decidan por ellos y por las soluciones de les ofrezcan esas superinteligencias, por lo que dejaran de participar en el desarrollo y los humanos se convertirán  en meros consumidores. Podemos aceptar la idea de un humano feliz que ya no tiene que trabajar en el desarrollo tecnocientífico sino en trabajos relacionados con la cultura, el deporte, artesanía, mientras las grandes producciones las realizan las máquinas. No se puede olvidar que el capitalismo nos lleva a una relación cliente-servidor, siempre tiene que haber un consumidor para el cual producir y el propio sistema se encargara (ley del mercado) de que existan usuarios, a no ser que desaparezca el capitalismo y entonces surja un nuevo orden con la participación de los humanos o sin los humanos, de ahí la importancia de las sinergias humanos tecnologías que se están produciendo y saber cuáles favorecen un orden mundial basado en la cooperación entre humanos y máquinas o basado en la competencia o basado en la fusión entre humanos y máquinas o basado en el desarrollo exclusivo de las máquinas.

Para Bostorm, el problema está en la transición hasta la era de la inteligencia artificial a lo que dice: “tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad”, se refiere a una IA que no este alineada con nuestros propósitos, y agrega: “no somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización”.

Creo que el problema es que son muchos los que están desarrollando la inteligencia artificial: academias, transnacionales, militares, gobiernos, etc. Entonces, ¿podemos hacerlo bien a la primera? Por poner un ejemplo, ¿se pueden poner de acuerdo a gobiernos que están compitiendo por la hegemonía o a grandes empresas que compiten por los mercados? Estamos hablando de una IA alineada con los propósitos de quien. Es bueno recordar que aún no hemos podido desarrollar una IA avanzada de propósito general (multitarea), seguimos trabajando sobre IA específicas y todo indica que de surgir una super IA no será los los próximos años y no creo que Bostrom ni Kurzweil, por solo citar dos de los grandes pensadores sobre el futuro, lleguen a verla en vida. Aunque Bostrom ya tiene la solución al problema sobre la transición a la era de la IA, y propone que debemos acercarnos a la revolución de la IA de forma coordinada y dice: “Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo”. Aquí me surge una duda. ¿Por qué tiene que ser un proyecto elitista, donde no todos pueden participar de forma abierta? Para algo están las redes sociales, ya es hora de romper el esquema académico de que solo unos pocos pueden aportar.

Con respecto al proyecto internacional, Bostrom considera que la solución al problema de la transición a la era de la IA, consiste fundamentalmente en destinar recursos para desarrollar métodos de control que sean escalables, y vuelve sobre la idea de alinearla con los valores humanos. Se está hablando de recursos para desarrollar métodos de control vitalicios, que sigan controlando a la IA aunque siga haciéndose más y más inteligente. Pero existe una contradicción si la IA se hace más inteligente que los humanos ¿No encontrará formas de burlar ese control? Además, estamos hablando de máquinas que serán capaces de auto programarse y de construir otras máquinas inteligentes. ¿Aceptaran las maquinas ser controladas por los humanos, para que estén alineadas con los humanos, y más aún cuando descubran que los humanos no están alineados entre sí?

Lo anterior nos lleva a como introducir los valores humanos en una máquina. Reproduzco textualmente como piensa Bostrom que se debe hacer: “Tenemos que definir los objetivos que queremos incorporar al sistema de IA para que interpreten estos valores como nos gustaría que fueran interpretados, y la manera de hacerlo es con el aprendizaje automático. No podemos especificar en un lenguaje informático lo que entendemos por justicia, placer o amor porque son conceptos muy complejos. En cambio, si programamos al sistema para que aprenda, podrá mejorar su comprensión de lo que quieren decir nuestras palabras en un sentido más profundo”.

Bostrom habla de los objetivos que queremos incorporar al sistema, se habla de aprendizaje automático para que las máquinas aprendan lo que queremos que hagan. Estamos hablando de una IA que aprenda los valore humanos en un mundo basado en las ganancias. Hoy las IA están surgiendo dentro de las transnacionales por lo que estará orientada al mercado y los humanos no pasan de ser sus usuarios y su objetivo será como venderle nuevos productos

Con respecto a los riesgos de una IA, Nick Bosrtron considera dos clases de amenazas:

  • Por problemas en la alineación de objetivos
  • Que los humanos usen esta poderosa tecnología de forma maliciosa e irresponsable

En el primer caso Bostrom dice: “se está creando algo que sería muy inteligentes y que podría ser también muy poderoso, si no sismos capaces de saber cómo controlarlo, podría surgir un sistema superinteligente que daría prioridad a alcanzar sus propios valores en detrimentos de los nuestros”. ¿Y no podrían ser los valores de una super IA mejores que el de los humanos?

En el segundo, le preocupa que sea utilizada no solo para ayudarnos a ser más productivos sino también, para librar guerras u oprimirnos unos a otros. Y es que Históricamente una parte de la humanidad se ha beneficiado en detrimento de la otra parte, mientras una parte se hace rica y poderosa otra se hace pobre y a nadie le importa la miseria en que viven. Lo lógico dado nuestro sistema es que si las máquinas son más inteligentes que los humanos terminaran haciéndose poderosas y gobernaran a los humanos. Lo que nos conduce a que no solo hay que construir una IA que sea beneficiosa y que este alineada a los objetivos humanos sino también formar humanos responsables que respondan a objetivos superiores como la solidaridad, el altruismo, el amor, etc.)

En realidad, el problema consiste en ¿Quién controla a los humanos? Seguimos ignorando que los problemas son creados por los humanos y mantenemos la misma actitud que cuando fueron creados y asumimos que con las tecnologías se pueden resolver. Por lo que la futura superinteligencia artificial solo tendrá dos opciones: o combate a los efectos y de acuerdo a su interpretación, tratarán de disminuirlos (o de aumentarlos), o combate la causa y destruye a la humanidad. Y ese es el verdadero problema ¿Qué pasará cuando las máquinas superinteligentes, descubran que el problema es la propia humanidad? Una solución es reprogramar a los humanos a imagen y semejanza de las supermáquinas, otra sacar del juego a los humanos y convertirlo en mascotas o en reliquias y la última (la más fácil)  eliminar a la raza humana.

Libro recomendado:

“Superinteligencia artificial, caminos, peligros, estrategias” . Disponible en Amazon

 

 

 

¿Está cerca el fin de la especie humana?

La singularidad tecnológica o el fin de la especie humana

Antes de llegar a una singularidad tecnológica hay que ver si antes no se extingue la humanidad. La pregunta es: ¿Quién está más cerca la singularidad tecnológica o el fin de la especie humana? No sé ustedes, pero tengo la ligera impresión, que nos estamos acercando al fin de la especie humana.

Los riesgos existenciales

Hoy se ha puesto de moda el término: riesgos existenciales los cuales se refieren al surgimiento de una situación amenazante de carácter terminal y alcance global que pone en peligro la existencia humana y su característica más peligrosa es que la humanidad no cuenta con mecanismos efectivos para su control. Según el filósofo sueco Nick Bostrom, lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad

Los riesgos existenciales son las amenazas que están surgiendo desde el presente y que en el futuro podrían llevar a la extinción de la especie humana. Para muchos vamos a ciegas al futuro guiados por la ley del mercado y no por intereses verdaderamente humanos. Si el mayor peligro para el fin de la humanidad a mediados y finales del siglo XXI, era el de una guerra nuclear, hoy a comienzos del siglo XXI, aparecen otros problemas que se presentan como más posibles y catastróficos.

Afirmación que parece confirmar el equipo de científicos que trabajan en el Instituto del Futuro de la Humanidad de la Universidad de Oxford, quienes están investigando cuál es el mayor peligro para la supervivencia del Hombre como especie. Los mismos han llegado a la conclusión que la supervivencia de la humanidad está en riesgo, por la amenaza de una pandemia, un bombardeo nuclear, meteorito u otro tipo de catástrofe; pero el mayor riesgo proviene de nosotros mismo. El director del instituto, el Nick Bostrom, en el documento Riesgo existencial como prioridad global, argumenta que los dirigentes internacionales tienen que prestarle mucha atención a una serie de amenazas y advierte: “lo que está en juego no puede ser más importante: si nos equivocamos, éste puede ser el último siglo de la humanidad”. A lo que insiste Son amenazas sobre las que no tenemos historial de supervivencia”.

Vamos a ver los algunos de los riesgos existenciales debido al mal uso que el ser humano le ha dado a la ciencia y la tecnología lo cual puede llevar a la destrucción de la vida producto de la negligencia o del ansia de poder.

El mal uso de la tecnología, con fines hegemónicos, el consumismo y el militarismo entre otros factores, ha traído como consecuencia, la contaminación, la degradación de los ecosistemas y el agotamiento de los recursos. En el mal uso de las tecnologías, también se consideran los errores humanos y los escenarios que tienen que ver con la acción humana, por eso no se tienen en cuenta otros como los supervolcanes, tsunami, choque con un meteorito, etc. En el caso de las pandemias estas pueden ser productos de la propagación de un nuevo virus, de la mala manipulación humana de los virus y de experimentos no seguros.

Riesgos existenciales

  • Guerras nucleares: La carrera armamentista con armas cada vez más destructivas y autónomas. El peligro de una guerra mundial
  • Control del estado: Un estado que lo controla y lo sabe todo
  • Pandemias: La propagación de un nuevo virus, la mala manipulación humana de los virus y escape de un virus del laboratorio
  • La venta ilegal de armas cada vez con más poder destructivo y el incremento del terrorismo
  • Inteligencia artificial mal programada
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a sí mismas)

El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano. Amenazas tan reales que ya se están sintiendo sus efectos en todas partes del mundo y si no se toman medidas sus efectos sobre el planeta, las especies y la propia raza humana podrían ser irreversibles y destruir todo lo vivo.

Los peligros de la extinción humana pueden provenir por fuerzas externas, por accidentes humanos o por autoextinción

1.- Extinción por fuerzas externas. Ej., choque con un meteorito, explosiones solares. Son los acontecimientos no creados por el ser humano.

2.- Extinción por accidentes humanos o por la acción indirecta de los humanos. Ej., mal uso de las tecnologías, guerra nuclear, contaminación del planeta, pandemias

3.-Autoextinción. Destrucción consciente de la especie humana, producto de la naturaleza destructiva del ser humano o con fines de crear una especie “superior”. La autoextinción es casi imposible de detener si no se cambia la mentalidad del ser humano.

¿Cuáles son las mayores amenazas?

Según el Centro para el Estudio de Riesgo existencial de la Universidad de Cambridge las “cuatro grandes amenazas” a la especie humana son: la inteligencia artificial, el cambio climático, la guerra nuclear y la biotecnología.

La inteligencia artificial

Dentro del mal uso de la tecnologías tenemos, una inteligencia artificial (IA) que  por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, ya que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones.

La manera en la que la inteligencia artificial (IA) interactuará con el mundo exterior es otro de los temores. Esa “inteligencia” informática puede ser una herramienta poderosa para la industria, medicina, agricultura o el manejo de la economía. Pero también es completamente indiferente a cualquier perjuicio fortuito. Se puede producir una IA que por errores en la programación pueda asumir objetivos diferentes a los esperados, errores que, aunque no sean intencionales, no podemos olvidar que los programadores están inmersos en un contexto de poder y que muchos de estos programas son financiados por instituciones militares, por lo que no sería extraño que la IA respondiera a fines hegemónicos y fuera una herramienta en manos de políticos cuyo interés se base en el dominio y el control. Y en este contexto no se puede descartar que la criatura se virara contra su creador. Para evitar los posibles riesgos se trabaja en la construcción de una IA avanzada (superinteligencia) alineada con los intereses humanos. La pregunta es: ¿Cuáles son los intereses humanos? Programas actuales para el desarrollo de la IA: Satanford, 100 años para la IA, MIRI, Opend IA (Musk), Google, IBM, Microsoft, etc., todos, de alguna forma, buscan construir cuanto antes una IA que responda a sus intereses, buenos o malos, pero intereses al fin.

Daniel Dewey, quien se enfoca en superinteligencia artificial, habla de una “explosión de inteligencia” en la que el poder acelerado de las computadoras se vuelve menos predecible y controlable. “La inteligencia artificial es una de las tecnologías que pone más y más poder en paquetes más y más pequeños”, dice, quien antes trabajó en Google. “Así como con la biotecnología y la nanotecnología, se pueden hacer cosas que resultan en reacciones en cadena, y con muy pocos recursos se pueden emprender proyectos que pueden afectar a todo el mundo”.  “Ésta no es una ficción distópica: la brecha entre la velocidad del avance tecnológico y nuestro conocimiento de sus implicaciones es real”, recalca Bostrom. Ya Van R. Potter, el bioeticista norteamericano, hacía referencia a la necesidad de alcanzar los conocimientos necesarios para poder manejarnos con las tecnologías y de la necesidad de crear un puente entre las humanidades y las ciencias.

Los robots, representan otra seria amenaza; han ido adquiriendo diversas formas de semi-autonomía, además de ser capaz de encontrar fuentes de energía por su cuenta y poder elegir de forma independiente los objetivos a atacar con armas. Algunos expertos y académicos han cuestionado el uso de robots de combate militar, sobre todo cuando estos robots se les da un cierto grado de funciones autónomas.

El cambio climático

Mientras las anteriores pueden suceder, este ya está sucediendo. Los anteriores son una acumulación de conocimientos y desarrollo de aplicaciones peligrosas que pueden desencadenar en la destrucción del planeta. Aquí estamos hablando de los efectos que se están produciendo producto del uso negligente de las tecnologías.

  • Contaminación.
  • Degradación de los ecosistemas.
  • Agotamiento de los recursos.
  • Crecimiento incontrolado de la población mundial.
  • Desequilibrios insostenibles.
  • Conflictos destructivos.
  • Pérdida de diversidad biológica y cultural.
  • Acelerado cambio climático.

El calentamiento global, se refiere al calentamiento causado por la tecnología humana desde el siglo XIX y se refleja las variaciones anormales en el clima tales como: el aumento de los mares, derretimiento de glaciares, sequías, etc. Se ha sugerido que el calentamiento global fuera de control puede convertir a la Tierra en un planeta caliente como Venus. En situaciones menos extremas podría provocar que el fin de la civilización tal como la conocemos.

Con respecto a la aceleración, según datos de las Naciones Unidas, tenemos:

  • Un crecimiento muy superior al que se había producido desde el comienzo de la civilización hasta 1950.
  • Los 20 países más ricos del mundo han consumido en el último siglo más materia prima y más recursos energéticos no renovables, que toda la humanidad a lo largo de su historia y prehistoria.
  • Desde mediados del siglo XX han nacido más seres humanos que en toda la historia de la humanidad.

Por lo que es casi seguro que cuando se alcance la primera mitad del siglo XXI se haya consumido más recursos del planeta que en toda la historia anterior (incluido la segunda mitad del siglo XX, que a su vez había consumido más recursos que en toda la historia). De mantenerse esta aceleración, que parece no tener límites, debida al ansia de consumismo y al egoísmo humano. Teniendo en cuento que los recursos del planeta son limitados; el agotamiento de los recursos es solo cuestión de tiempo.

Por lo que, según estos datos, sino se hace nada, es muy posible que la aceleración de la degradación del planeta le gane la competencia a la aceleración de las tecnologías y su sueño de una poshumanidad.

La guerra nuclear

Carrera armamentista vs Desarme global

Los escenarios que se han explorado con mayor frecuencia son la guerra nuclear y los dispositivos Doomsday. Hay dificultad para predecir si esto llevará al exterminio de la humanidad, sin embargo, un invierno nuclear causaría una conmoción considerable en las civilizaciones avanzadas. ¿Es posible que las grandes potencias en su soberbia y afán de poder nos arrastren a la tercera guerra mundial?

La guerra como confrontación directa podrá no surgir, pero la carrera armamentista y los enfrentamientos, ya son un hecho y nadie duda que esto se puede ir de las manos y desencadenar en una confrontación mundial. La creación actual de bloques militares, tal como sucedió en las guerras mundiales anteriores, de por sí, son un mal síntoma. Todo indica que ya están todos los ingredientes para la tercera guerra mundial, solo falta el detonante.

La pregunta es: ¿Estamos de acuerdo con que las grandes potencias sigan competiendo en una carrera armamentista que hunde al mundo en la pobreza y que amenaza con convertirse en la tercera guerra mundial que arrastraría a la humanidad (a todos por igual) a su propia destrucción? ¿Qué papel puede jugar la sociedad civil en aras de producir cambios sociales que controlen estas acciones?

Si en la anterior nos referíamos a una extinción por accidentes humanos, en las guerras nucleares estamos hablando de una de las formas de auto extinción donde la lucha por el poder llega a límites extremos y dada la inconformidad de la especie humana con su propia condición esta de forma voluntaria puede proponerse la extinción de los seres humanos con el fin de sustituirla por otra más avanzada. Se trata de sustituir el proceso evolutivo biológico por un proceso artificial que lleve a la creación de un súper humano que por medio de la tecnología se convierta en la cima de la evolución. En nuestros tiempos debido al desarrollo tecnológico, las amenazas aún son mayores: una guerra nuclear, terrorismo biotecnológico, auto extinción voluntaria en aras de una nueva humanidad. La historia tiene varios ejemplos de culturas que han sido aniquiladas en aras de una nueva civilización.

La biotecnología

La biotecnología podría conducir a la creación de una pandemia, una guerra química podría ser llevada al extremo, la nanotecnología podría conducir a la plaga gris en la que robots auto-replicantes, fuera de control, consumen toda la materia viva en la tierra, mientras se reproducen de forma acelerada. En ambos casos, ya sea deliberadamente o por accidente.

La biología sintética, en la que la biología se encuentra con la ingeniería, promete importantes beneficios médicos. A Bostrom le inquietan las secuelas inesperadas de la manipulación de las fronteras de la biología humana. La creación de nuevos organismos, por ejemplo, puede tener efectos secundarios ecológicos desconocidos.

Seán O’Heigeartaigh, un experto en evolución molecular, desconfía de las buenas intenciones mal informadas, pues en los experimentos se hacen modificaciones genéticas, desmantelando y reconstruyendo las estructuras genéticas. “Lo más probable es que no se propongan hacer algo dañino”, apunta, pero subraya que siempre existe el peligro de que se dispare una secuencia de eventos no anticipada o de que algo se torne nocivo cuando se transfiera a otro ambiente. “Estamos desarrollando cosas que pueden resultar profundamente mal”, declara O’Heigeartaigh. Estos no son conceptos abstractos, asegura. “Con cualquier nueva poderosa tecnología –opina O’Heigeartaigh–, debemos pensar detenidamente en qué sabemos, pero quizás es más importante en este momento estar conscientes de lo que no estamos seguros de saber”.

La nanotecnología, trabaja a nivel molecular o atómico, también podría tornarse en algo altamente destructivo si se usa para la guerra, apunta Bostrom. Por ello, escribió que los gobiernos futuros enfrentarán el gran reto de controlar y restringir su mal uso.

Ideología transhumanista

Con respecto al futuro de la humanidad, que podemos esperar: ¿Se aceptará la ideología transhumanista? ¿Estarán las tecnologías de mejoramiento al alcance de todos? ¿Existirá una raza de superhumanos (si la guerra o la contaminación no acaba antes con el planeta) que someterá a los humanos? Son muchos los que piensan que es necesario tomar el control de la evolución humana y avanzar hacia una transhumanidad y ven, como lo mejor, la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes (nano, bio, info y cogno) se pueda alcanzar la poshumanidad.

Actualmente ya algunos están pagando por que se les congele (criogenizar) sus cuerpos al morir; no todos, aunque lo deseen, pueden pagarlo; otros congelan sus cabezas, para cuando la tecnología haya madurado, los revivan y puedan disfrutar de una vida poshumana. De momento es solo un negocio donde ya algunas compañías están recibiendo sus ganancias. Esto según Bostrom podría crear una sobrepoblación, para la que no se estaría preparado, de hecho, ya estamos ante un crecimiento incontrolado de la población.

Y es que la relación entre humanos y tecnologías, cada vez, se hace más compleja, y es que las tecnologías van dejando de ser un medio para convertirse un fin en sí mismas. Según nos vayamos acercando a la construcción de una superestructura social donde humanos y tecnologías comparten las decisiones. El problema radica, en ¿cómo van a incorporarse las tecnologías al progreso humano? ¿Sabemos hacia dónde vamos? Podemos creer ciegamente en un futuro luminoso, si ni siquiera tenemos el control de nuestras vidas. Hoy sabemos que nuestra actitud hacia el planeta era errónea, que vivimos en un planeta finito que se deteriora rápidamente por la acción humana, que vivimos en red y que las crisis se propagan cada vez con más rapidez y que el mundo cada vez se hace más amenazado e inseguro, y lo peor que la amenaza proviene del propio ser humano.

Los problemas actuales

Dentro de las amenazas que enfrenta la humanidad están las del presente, las que ya estamos sintiendo sus efectos y las futuras, las que producto de nuestro sistema social y económico, estructurado sobre la base del poder, podrían conducirnos a una mala utilización de las tecnologías, ya sea por errores o con fines destructivos. A las amenazas futuras. ¿Se agudizarán los problemas del presente?

En la actualidad se ignoran los verdaderos problemas: la sinergia que se está produciendo entre humanos y tecnologías y la relación que está surgiendo entre el progreso humano y el progreso tecnológico. Y, sobre todo, la falta de una cosmovisión que nos lleve a un progreso humano verdaderamente digno, donde la humanidad, sin diferencias, pueda desarrollar todo su potencial

Problemas actuales

  • Desempleo: Aumento del desempleo: ¿Se irá aumentando el desempleo según surja la IA? ¿Qué harán los luditas? ¿No surgirán enfrentamientos sociales?
  • Perdida de intimidad: ¿Quién controlará la información y los procesos en su beneficio? ¿Qué harán con ella?
  • Control de internet: ¿Surgirán super-monopolios o estados con el control absoluto de sus ciudadanos? ¿De quién será propiedad la super IA?
  • Aumento de los derechos de la sociedad civil: Le darán las tecnologías emergentes mayor participación y surgirá una sociedad civil fuerte que pueda librarse del control del estado y de las transnacionales.
  • Falta de compromiso de los gobiernos con el sistema de salud
  • IA abierta: Como hacer accesible los códigos de la IA. Un ejemplo de código abierto es el proyecto Open AI, creado por Elon Musk.
  • Sociedad basada en la colaboración: Dado los dos puntos anteriores que nos llevan a una sociedad más abierta y participativa como se podría ir transformando en una sociedad colaborativa e ir dejando atrás las competencias y las desigualdades.

Los problemas del presente son bien conocidos, y no creo que sean una sorpresa para nadie. Solo que al igual que con la IA queremos encontrarles solución a problemas más abstractos y dejar de lado los problemas más comunes.

Hoy se habla de una tecnoética, de una bioética global, de una meta-tecnología, pero todo apunta al mismo problema la necesidad de no ir a ciegas al futuro. No se puede caer en el optimismo de una singularidad tecnológica y vivir deslumbrado por un futuro donde las tecnologías superan a la inteligencia humana sin ver los grandes problemas del presente y el peligro que encierra una tecnología cada vez más potente y destructiva, a merced de un sistema consumista, cuya negligencia (para ser benignos) incita a la ganancia a toda costa sin importar los riesgos ni la destrucción a que esto podría conducirnos.

 

¿Qué es la inteligencia artificial?

Durante esta serie de artículos que publicaremos estaremos haciendo alusión al estudio cien años sobre IA (AI100) y al excelente artículo de López Mantaras sobre el futuro de la IA. Comenzaremos por el estudio AI100, el cual llega a la conclusión de que no existe una definición precisa de la IA.

 En el estudio (AI100) en uno de sus párrafos se afirma lo siguiente

Una imagen precisa y sofisticada de IA, una que compite con su popular representación: se ve obstaculizada al principio por la dificultad de precisar una definición de inteligencia artificial. En los enfoques que el Panel de Estudio consideró, ninguno sugiere que actualmente haya una IA de “propósito general”.

Luego, más adelante, en el informe se trata de definir la IA

Curiosamente, la falta de una definición precisa y universalmente aceptada de IA probablemente ha ayudado al campo a crecer, florecer y avanzar a un ritmo cada vez más acelerado. Los practicantes, investigadores y desarrolladores de IA son guiados por un rudo sentido de dirección y un imperativo para “seguir adelante”. Aun así, queda una definición importante y Nils J. Nilsson ha proporcionado una útil: “La inteligencia artificial es esa actividad dedicada a hacer que las máquinas sean inteligentes, y la inteligencia es esa calidad que permite que una entidad funcione de manera apropiada y con previsión en su entorno”.

En esta definición, personalmente, me deja ciertas lagunas:

1ro. Que las máquinas sean inteligentes, ¿nos estamos refiriendo a una inteligencia general (multitarea) o una inteligencia especifica

2do. Que funcione de manera apropiada y con previsión en su entorno ¿a qué entorno se refiere, cuando las IA hasta la fecha han sido desarrolladas ajenas a su entorno, de ahí que muchos le llamen sistemas autistas.

Por su parte López Mantaras en su articulo El futuro de la IA: hacia inteligencias artificiales realmente inteligentes, da la siguiente definición de IA., dice lo siguiente:

El objetivo último de la IA, lograr que una máquina tenga una inteligencia de tipo general similar a la humana, es uno de los objetivos más ambiciosos que se ha planteado la ciencia. Por su dificultad, es comparable a otros grandes objetivos científicos como explicar el origen de la vida, el origen del universo o conocer la estructura de la materia. A lo largo de los últimos siglos, este afán por construir máquinas inteligentes nos ha conducido a inventar modelos o metáforas del cerebro humano…Actualmente el modelo dominante es el modelo computacional basado en el ordenador digital y, por consiguiente, es el modelo que se contempla en este artículo.

Definición con la cual, a pesar de su restricción, me siento identificado, pero, para comprender esta definición necesitamos saber a qué le llama inteligencia de tipo general, lo cual veremos en el próximo artículo, ahora vamos a hacer un poco de historia y con ello aclarar los conceptos de IA fuerte e IA débil (similar a la humana).

Algo de historia (ver Inteligencia artificial el futuro del hombre)

La Inteligencia Artificial (IA) surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en sí misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora. Lo que dio origen a la metáfora de la computadora como modelo de los procesos mentales, que insiste en la semejanza entre el hardware y el cerebro. De hecho, la realización y el perfeccionamiento de las computadoras numéricas partieron de analogías con el sistema nervioso. El propio John von Neumann solía hablar de “órganos” para referirse a los componentes de la computadora. Se hizo popular la definición de la computadora como un “cerebro electrónico”. Con la llegada de los primeros lenguajes de programación evolucionados y posteriormente con la aparición de la Inteligencia Artificial, las comparaciones con el hardware empezaron a tener menos aceptación.

Desde sus inicios podemos hablar de dos enfoques de la Inteligencia Artificial (IA), de una parte, la IA fuerte y de la otra, memos categórica a la hora de interpretar los hechos: la IA débil (ver La inteligencia artificial, algunos conceptos).

  • IA fuerte: Construir programas que emulen el comportamiento inteligente de los humanos como: el pensamiento, el aprendizaje, la visión, la resolución de problemas, la creatividad, etc. Ya que estos modos de comportamiento se pueden explicar algorítmicamente en términos de estados mentales.
  • IA débil: Construir máquinas capaces de resolver problemas que requieran de inteligencia. Para ello se construyen programas que tengan un comportamiento inteligente sin importar si emula o no a la inteligencia humana.

Siguiendo las ideas de John Searle: “La IA débil tiene por único objetivo simular estados mentales sin pretender por ello que las computadoras tengan conciencia, … El objetivo de la IA fuerte, por el contrario, es una computadora con conciencia”.

Y aquí es cuando surgió una interrogante, que ha perdurado hasta nuestros días: ¿si somos capaces de reproducir la mente humana en una máquina, esta será consciente? Lo cual llevó a las siguientes definiciones.

  1. La consciencia no se puede atribuir a procesos puramente físicos y, por lo tanto, es inaccesible incluso a un abordaje científico arbitrariamente avanzado (metafísico)
  2. La consciencia surge de procesos puramente físicos del cerebro pero sostiene que estos son tan complejos o tan alejados de la comprensión científica, que prácticamente no hay esperanza de que podamos duplicarlos (físico/irreproducible).
  3. Es posible que podamos comprender y duplicar los procesos que dan lugar a la consciencia, aunque esto quizás resulte una labor extremadamente difícil (físico/reproducible).
  4. La consciencia no es algo tan especial que una máquina a la que se haya provisto de suficiente inteligencia, con el tiempo adquirirá consciencia de manera más o menos automática (trivial).

Los defensores de la IA fuerte están convencidos de que se podrán reproducir todas las capacidades humanas, incluyendo la consciencia en una máquina. Y aunque esta idea ha ido variando con el tiempo, no ha cambiado en su esencia.

Paradigma simbolista.

Para algunos, los humanos y las computadoras son dos especies de un mismo género: los sistemas de procesamiento de la información. Aceptar a la mente humana como una forma de procesamiento de la información trae como consecuencia que se produzcan dos fenómenos inversos:

  • La generalización de los sistemas procesadores de información.
  • La simplificación de la mente humana (reduccionismo).

El problema radica en la generalización que se le quiere dar a los sistemas de procesamiento de la información. Hay palabras que, para los creadores de teorías, toman un significado especial (trascendental) y se convierten en un “símbolo” cargado de significados adicionales, en muchos casos abiertos a nuevas manipulaciones, que se adaptan a la interpretación del contexto de la teoría, como es el caso del término “procesamiento de la información”.

Veamos algunos apuntes a la definición de Lopez Mantaras

Paradigma simbólico (hipótesis): la naturaleza del sustrato (circuito electrónico o redes neuronales) carece de importancia siempre y cuando dicho sustrato permite procesar símbolos.

Lo anterior se trata de una hipótesis, por tanto, no se puede ni aceptar ni rechazarla a priori.

La IA es el campo dedicado a verificar esta hipótesis: verificar si una computadora convencionalmente programada es capaz o no de tener conducta inteligente de tipo general.

Sistema simbólico físico (SSF): Sistema capaz de manipular símbolos, generar nuevos símbolos, crear y modificar relaciones entre símbolos, almacenar símbolos, etc. Los símbolos son físicos y tienen un sustrato físico-electrónico.

Sustrato de los símbolos:

  • Físico-electrónico (computador)
  • Físico-biológico (seres humanos)

Computadora: los símbolos se realizan mediante circuitos electrónicos digitales

Seres humanos: los símbolos se realizan mediante redes de neuronas.

Para concluir con Mantaras, podemos decir que tanto las computadoras como los seres humanos son capaces de procesar símbolos (en general, procesar información)

La metáfora del computador

La metáfora del computador surge casi desde los inicios de la computación. ¿A qué se debe esto? Antes, las máquinas solo sustituían cualidades físicas de los humanos tales como: fuerza, traslación, precisión. Piensen en los medios de transporte, las grúas, los microscopios, etc. Con las computadoras se pretende que estas realicen los cálculos, al igual que los hace la mente para resolver los problemas técnicos. De ahí que una primera metáfora fue llamarle “cerebros electrónicos”. Metáfora que cayó en desuso. Por otra más sutil y trascendente: la computadora puede sustituir al hombre en todas sus actividades ya que ambos son “sistemas basados en el procesamiento de la información”.

La metáfora reduce el concepto de inteligencia a procesamiento de la información lo cual hace que se pueda hablar de inteligencia en la máquina, pero también a nivel social, redefine el concepto de inteligencia en términos computacionales, crea una cultura social y una pedagogía orientada a la formación del pensamiento algorítmico en los jóvenes científicos. Ya que, si se parte de la idea de que todo es algoritmizable, entonces, la limitación no está en la máquina, sino en la incapacidad del hombre para hacer los algoritmos. El hombre debe aprender a hacer algoritmos para la máquina. Lo que nos puede llevar a la conclusión de que el hombre sólo sabe lo que es capaz de algoritimizar, por lo que, algoritmizar; se entiende como comprender.

De lo anterior se desprende, por ejemplo, que, para yo entender un fenómeno, debo ser capaz primero de construir una serie de conceptos que me permitan una descripción algorítmica de ese fenómeno. Es evidente que el fenómeno en sí, se pierde entre tanta formalización. Al final, que nos queda, una representación algorítmica de una interpretación matemática –entiéndase formalizada–de un fenómeno.

La simplificación de la mente humana (reduccionismo).

El reduccionismo afirma que se pueden explicar los fenómenos reduciéndolos a un nivel más elemental. Por ejemplo: la conducta humana puede reducirse a estudios neurofisiológicos (incluso sobre animales), el estudio del cerebro puede reducirse a la biología celular, etc. La IA es reduccionista, ya que trata de reducir los procesos de la mente (que son complejos) a sencillos procesamientos de la información. Siguiendo la metáfora del computador, la mente es un sistema de procesamiento de la información que cumple con las leyes de la manipulación de símbolos.

La generalización de los sistemas procesadores de información.

Cuando hablamos de la generalización de los sistemas procesadores de la información, por ejemplo: estamos considerando que cuando un sistema es capaz de vencer al campeón del mundo en ajedrez se ha logrado igualar o superar la inteligencia humana, lo cual es falso en realidad estamos ante una IA especifica que solo puede jugar ajedrez. Estamos asumiendo que un caso particular como jugar ajedrez por una máquina tenga un carácter general

Podemos decir que el gran problema a la hora de definir la IA ha sido, precisamente darles un carácter general a los sistemas de IA que estaban desarrollando, en realidad se asumía que una IA capaz de resolver un problema específico, sería capaz de resolver cualquier tipo de tarea, solo había que agregarle los algoritmos adecuados, o sea, un programa capaz de jugar ajedrez, se podría, sin mucho esfuerzo, adaptarlo para que jugara a las damas. En la práctica no resultó así, cada programa requiere de su propia representación del problema y, hasta el momento, no es posible convertir una IA específica, aplicada a un dominio, en una IA general multitarea (sin mencionar el sentido común que puede cambiar de un dominio a otro), de ahí el fracaso de construir un solucionador general de problemas o del proyecto de quinta generación japonés.

En el próximo artículo hablaremos sobre las características de la IA. También seguiremos haciendo referencia al estudio AI100