Riesgos del futuro

El tema de los riesgos existenciales desarrollado por el filósofo y transhumanista Nick Bostrom, es el punto de partida para señalar los peligros de la inteligencia artificial, me llama la atención que cada vez se separan más los ideólogos del transhumanismo de los defensores de una singularidad tecnológica y es que mientras a los primeros les preocupa más las tecnologías para el mejoramiento de las facultades humanas a los segundos le fascina la idea de una super inteligencia artificial (Super IA) y la explosión de inteligencia que se producirá. Y precisamente es de la posibilidad de que surja una superinteligencia y el impacto que tendrá sobre la humanidad (Nick Bostrom: la amenaza de una superinteligencia artificial).

No hace mucho el sitio Edge lanzó la siguiente pregunta a un grupo de científicos, filósofos y escritores: ¿Qué piensas sobre máquinas que piensan? Y me gustaría ir comentando algunas de las publicaciones. Empezamos por Max Tegmark, físico e investigador en el MIT, escritor del libro “Vida 3.0”. El cual plantea tres interrogantes:

– ¿Qué le pasará a los humanos si las máquinas gradualmente lo van reemplazando en el mercado de trabajo?
– Si las máquinas llegaran a competir con los seres humanos en todas las actividades intelectuales
– ¿Qué pasará luego de que una explosión de inteligencia de las máquinas deje muy atrás a la inteligencia humana y en ese caso, cuál será el papel de los seres humanos?

El primer caso, es un problema que se remonta al ludismo y su rechazo a las tecnologías, y es que cualquier tecnología va a sustituir a los humanos, primero la mano de obra, después las tareas intelectuales y por último las investigaciones, la buena noticia es que, a su vez crean nuevos puestos de trabajo, por ejemplo, las tecnologías de la información son un ejemplo: programadores de aplicaciones informáticas, operadores de máquinas, instaladores de sistemas, la lista en bastante larga. El problema es adaptarse al cambio.

Para el segundo caso no basta con adaptarse una vez que se produzca el cambio, ya hay que estar preparado para el cambio, y mejor aun, ser actores sociales del cambio. Pienso que la estructura social actual, basada en la competencia no favorece una relación humano-tecnología colaborativa y más bien nos conducirá a un enfrentamiento, si desde hoy no se va creando una estructura social basada en la colaboración entre humanos que permita que las IAs se integren de forma natural a ese contexto colaborativo.

Otro paso importante es la definición del espacio vital de cada cual, en especial en que línea las máquinas serán mejores que los humanos y en cuales los humanos serán mejores, y cómo será la complementación entre ambos.

El dilema de la superinteligencia consiste en si se debe desarrollar una inteligencia superior a los humanos o no. Y si decide desarrollarla, estaremos ante otro dilema: se debe controlar o no. Las posiciones son encontradas; los que están a favor de prohibir las ven como un peligro, sería otra inteligencia que al final terminaría por desplazar a los humanos. Los que piensan que se debería construir, pero bajo ciertas normas o controles y los que creen que la super IA es lo mejor que nos puede pasar y lo ideal es que suceda cuanto antes.

Max Termark está consciente del problema que enfrentamos cuando dice: “Creo que nuestro futuro puede ser muy interesante si ganamos la carrera entre el poder creciente de la tecnología y la sabiduría con la que se gestiona esa tecnología (dilema planteado por el bioeticista norteamericano Van R. Potter). Para conseguirlo, tenemos que cambiar estrategias. Nuestra estrategia habitual consistía en aprender de nuestros errores. Inventamos el fuego, la fastidiamos unas cuantas veces y después inventamos el extintor; inventamos el coche, la volvimos a fastidiar varias veces e inventamos el cinturón de seguridad y el airbag. Pero con una tecnología tan potente como las armas atómicas o la inteligencia artificial sobrehumana no vamos a poder aprender de nuestros errores. Tenemos que ser proactivos”

Otro cuestionamiento consiste en si las tecnologías son un proceso inevitable de crecimiento (aceleración tecnológica) que no se puede detener, este es un problema atañe a toda la sociedad e implica riesgos sociales y económicos y puede desencadenar una lucha por construir una superinteligencia privada que permita el monopolio de la información.

A lo que Termark afirma: “En diez años, si no hacemos nada, vamos a ver más desigualdad económica. Y, por último, hay mucha polémica sobre el tiempo necesario para crear una inteligencia artificial general, pero más de la mitad de los investigadores en IA creen que sucederá en décadas. En 40 años nos arriesgamos a perder completamente el control del planeta a manos de un pequeño grupo de gente que desarrolle la IA. Ese es el escenario catastrófico. Para evitarlo necesitamos que la gente se una a la conversación”.

Ahora en bien, caso de desarrollarse una IA superior a los humanos esta debe estar bajo el control humano o debe ser autónoma (auto programarse a si misma).

En caso que sea autónoma deberá
– Integrarse al contexto social (sistema neoliberal)
– Tener su propio espacio vital
– Tener conciencia (máquinas espirituales)
– Programadas para que respondan a los intereses humanos (tener en cuenta todos los casos)

Con respecto a programar una IA que responda a los intereses humanos, (Riesgos y beneficios de una inteligencia artificial avanzada desde un enfoque sistémico-cibernético)  tendríamos que construir una super inteligencia a prueba de humanos, capaz de diferencias las bromas de lo que es en serio, de comprender las pasiones humanas, de tener sentido común, de tolerar las idioteces humanas y de diferenciar las buenas de las malas intenciones. No estaríamos cometiendo el mismo error de los años 8Os de aspirar a construir una IA capaz de resolver los problemas más complejos sin tener vivencias, y aunque la IA era capaz de resolver problemas matemáticos de alto nivel pero era incapaz de encontrar soluciones triviales que un niño podía resolver al momento. Entonces se llegó a la conclusión que la máquina era muy buena para los problemas que requerían de análisis lógico (ya esto se sabía, y se decía que todas las funciones mentales se podrían convertir en algoritmos) pero era ineficaz ante los problemas que requerían de sentido común, y esto si era nuevo. Y es un freno con el que se ha topado la IA desde entonces.

Volviendo a Max Termark quien en su libro Vida 3.0, divide el desarrollo de la vida en tres fases:

  • Vida 1.0 (fase biológica): su hardware y software son fruto de la evolución. Surgió hace unos 4.000 millones de años. Es producto de la relación entre humanos-heramientas-naturaleza, se logra cierta sinergia entre humanos y animales. El ser humano se integra al entorno natural.
  • Vida 2.0 (fase cultural): su hardware es fruto de la evolución: diseña buena parte de su software. Surgió hace unos cien milenios. Relación entre humanos-maquinas-humanos. Se logra cierta sinergia entre los humanos por medio de alguna forma de organización, principalmente, con fines económicos. El humano se integra al entorno social, cultural y económico
  • Vida 3.0 (fase tecnológica): diseña tanto su hardware como su software. Aparece en el siglo XX y, sobre todo, siglo XXI. Relación entre humanos-tecnologías-máquinas inteligentes. Se logra cierta sinergia entre humanos y máquinas por medio de la interacción (o fusión) entre ambos. El humano se integra a un entorno artificial

A lo largo de su libro Termark da su definición de lo que es la Vida y su evolución desde la vida 1.0 pasando por la 2.0 hasta la 3.0. Habla de los escenarios futuros en cada escenario plantea su plausibilidad, los inconvenientes y analiza por qué puede o no puede suceder así como del impacto de una explosión de inteligencia (Los riesgos existenciales de una singularidad tecnológica 1). Al igual que Bostrom se inclina por el aprendizaje profundo, la técnica de IA más utilizada, sobre todo por las grandes transnacionales que marcan las pautas en la tecnología de información con Google a la cabeza. Sin embargo, existen otras líneas de investigación, como la que lleva a cabo Roney Brooks, investigador del MIT, quien se dio a la tarea de construir pequeños robots capaces de ir aprendiendo de su entorno, en lugar de querer desarrollar un sistema que contenga todos los conocimientos humanos. Otras líneas de investigación están ligadas con las redes neuronales, con el aprendizaje automático, con las plataformas multiagentes y con los algoritmos genéticos, entre otras (Paradigmas y tendencias en la investigación de la IA).

Termark también se preocupa por el tema de si las inteligencias artificiales generales (yo prefiero avanzadas) tendrán conciencias, para Kurzweil la consciencia es algo implícito a la inteligencia (conciencia trivial) para otros como Bostrom carece de importancia si las máquinas tienen conciencia o no. Al respecto Termark asume una posición realista cuando dice: “La importancia de si las IA son conscientes es relevante de cara a los problemas éticos y filosóficos que deben resolverse de cara a la irrupción de la IA en nuestras vidas”.

Otra dificultad es, ¿Cómo podrá la IA integrarse al contexto social actual? Se habla de una versión inicial de IA donde se tenga en cuenta cómo será su evolución posterior. Ahora que pasará cuando la IA se comience a desarrollar el contexto actual de poder, irá adquiriendo los conocimientos necesarios para luchar por la hegemonía y terminará inevitablemente controlando a los humanos y no tendrán otra elección que competir con los humanos y con el tiempo pasarán de ser propiedad de los humanos a ser propietarios de las empresas y de todos los recursos, incluyendo a los humanos, por eso para muchos la única opción es fusionarse en toda la línea tecnológica.

A Termark le preocupa como los líderes tecnológicos que están construyendo la IA son muy idealistas. Y agrega: “Quieren que esto sea algo bueno para toda la humanidad. Pero si se mira a las motivaciones de las compañías que están desarrollando la IA, la principal es ganar dinero. Siempre harás más dinero si reemplazas humanos por máquinas que puedan hacer los mismos productos más baratos. No haces más dinero diseñando una IA que es más bondadosa. Hay una gran presión económica para hacer que los humanos sean obsoletos”. Con lo que coincido plenamente

Y es que son muchos los creen que el surgimiento de una superinteligencia artificial (la idea de una singularidad tecnológica) es lo mejor que nos puede suceder, pienso que es un error que el destino de la humanidad se decida cuando surja una superiinteligencia artificial; el destino de la humanidad lo deben decidir los humanos, solo enfrentando sus propias limitaciones, no solo las biológicas como aspiran los transhumanistas, sino las propiamente humanas y se apostará por un progreso humano verdaderamente digno. No podemos evadirnos de los problemas del presente y delegarlos en la IA ya que esta lo que hará será profundizarlos.

Libro recomendado: “Vida 3.0” 

 

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s