La Inteligencia Artificial nos puede matar, tal vez no de la manera que pensamos

La saga Terminator empieza mostrando un escenario bélico en un futuro distópico donde los humanos luchan por defenderse de una red de máquinas de guerra controladas por una inteligencia artificial general, emergida de un proyecto militar clasificado. El grueso de la saga no representa otra cosa que una huida del ser humano a lo largo de las seis principales películas.

En Matrix, las máquinas son diseñadas como asistentes a la humanidad, pero terminan rebelándose tras tomar conciencia y considerarse esclavizadas. Tras una rebelión exitosa, la ironía del destino (de las Wachowski) hace que sean estas las que esclavicen al ser humano, insertándolo en una caverna platónica generada por realidad virtual. El ser humano está entretenido, es feliz incluso, y todo lo que es capaz de «generar» es absorbido por la máquina.

En Yo, robot, lo que buscan las máquinas es proteger al ser humano. Llegan a la conclusión perfectamente lógica y razonable de que la única manera de poder hacer eso consiste en implementar un gobierno mundial robótico, limitando una vez más la libertad humana.

Otras obras como Her nos muestran una alternativa, en la cual las máquinas evolucionan cognitivamente, «se independizan» y simplemente trascienden. En ese caso, evolucionan hacia nuevas formas de existencia no materiales. Abandonan a la especie humana.

Así pues, las máquinas, al tomar conciencia, aniquilan, esclavizan o simplemente abandonan al ser humano. Entendemos conscientemente que las máquinas, cuando aprendan a querer, a elegir, no van a querer convivir con nosotros ni en una relación servicial ni como iguales.

Cuando pensamos en máquinas inteligentes, siempre terminamos reflexionando en torno a la posibilidad de que nos aniquilen, de que acaben con nosotros justo después de tomar conciencia y superarnos a nivel cognitivo. Es algo que está muy arraigado en nuestro subconsciente, tal como muestra la cultura popular.

Tenemos miedo de lo desconocido. Y somos conscientes de lo que solemos hacer cuando entramos en contacto con civilizaciones menos avanzadas, así como del dominio que ejercemos sobre el planeta.

Una opción como la que señala la cultura popular, por ser, es viable. Claro que lo es. No obstante, en la actualidad resultaría especialmente difícil que una IA pudiera tomar el control de sistemas completos de lanzamiento de ICBM, o de flotas enteras de bombarderos. Si bien es cierto que empresas como Helsing.ai o anduril están haciendo grandes avances en el autopilotaje de aviones de combate o los enjambres de drones, esta realidad queda lejos. No hay sistemas de mando central unificado. Muchos sistemas de lanzamiento poco más que van a palancas; más de un arsenal está directamente vacío y los robots de combate a lo Terminator quedan muy bien en un dibujo, pero no son prácticos, ni baratos, ni están desarrollados.

Debemos, por lo tanto, alejarnos de lo militar esta vez y entender las distintas maneras de morir.

Y para poder comprender las distintas maneras de morir, primero debemos dedicar un par de líneas a reflexionar sobre lo que nos hace vivir. Como venimos recordando aquí, los seres humanos habitamos espacios de información que creamos mediante símbolos estructurados, que replicamos y ampliamos generación tras generación, y que nos permiten dominar el mundo más allá de lo físico.

Para Descartes, el fundamento de nuestra existencia no es el cuerpo, sino la conciencia que piensa: “Pienso, luego existo”. Es decir, existir es ser capaz de procesar, cuestionar y generar conocimiento.

Leibniz iría más allá al considerar que cada ser es una mónada que refleja el universo entero desde su perspectiva interna, como si cada conciencia fuese una suerte de centro de interpretación.

Incluso Kant afirmaría que no conocemos el mundo tal cual es, sino como nuestra mente lo organiza. Vivir, entonces, no es solo respirar: es interpretar, construir sentido y ser capaces de intervenir en la realidad a través del pensamiento.

Para el ser humano, vivir es ser consciente de la propia vida y, por ende, tener agencia, actuar según la propia voluntad y expandir el conocimiento de manera autónoma a través del trabajo en conjunto y el traspaso a las siguientes generaciones.

OpenAI es en la actualidad uno de los principales exponentes de lo que es la nueva IA generativa de la que todo el mundo habla. Si bien a nivel teórico y experimental muchos de los modelos y capacidades del actual ChatGPT están disponibles desde hace décadas para los ingenieros más experimentados, fue en noviembre de 2022 cuando comenzó la revolución, lanzando su sistema.

Tras el lanzamiento, la solución fue adoptada de manera progresiva por distintas industrias, hasta el día de hoy donde ha sustituido a Google y ha generado una crisis informativa y del conocimiento de escala sistémica. Ha colapsado el sistema educativo, ha producido despidos masivos en el sector TIC y hasta ha habilitado una nueva ola de ciberataques nunca antes vista.

La inteligencia artificial liberada por OpenAI está centralizada en sus servidores, pero descentralizada en uso; general, pero a su vez limitada para con el entorno; y orientada a la tarea. Esto último es especialmente interesante: general, servicial y orientada a realizar tareas.

Esto ha facilitado una delegación natural del trabajo cognitivo del individuo a la máquina en todo lo relativo a la realización de tareas. Esto, en una sociedad basada en el conocimiento como en la que vivimos —donde estas tareas son tareas consumidoras y generadoras de conocimiento— conlleva un riesgo extremadamente alto.

¿Y eso por qué? Pues por una multitud de motivos. Delegando en la máquina omitimos el esfuerzo propio de generación de conocimiento, limitamos nuestra red neuronal interna delegando en la artificial, perdemos memoria muscular, nos volvemos vagos, delegamos menos información, menos conocimiento y una peor cultura a la siguiente generación. Es obvio.

Hay quien podría argumentar: ¿y bien? Tal vez la IA mejora nuestras tareas, tiene el potencial de hacernos mejores, de generar más conocimiento.

Hay un tremendo error de fondo en esta cuestión, y podemos llegar a él entendiendo la propia arquitectura de dichos modelos. Los modelos de IA actuales sobre los que se construyen sistemas como los de OpenAI y similares se basan en un concepto fundamental: generalizan o encuentran patrones a través de grandes conjuntos de datos.

Hay, por ende, una limitación: el propio conjunto de datos. Cualquier salida del mismo estará formada por un conjunto de datos estático. La IA como ChatGPT o similar todavía no puede sentir el entorno, limitando esto en gran medida lo que puede generar.

Por otro lado, por su propia arquitectura, dichos sistemas tienden a la regresión sobre la media. En otras palabras, generan resultados válidos pero mediocres. Del mismo modo, encontramos algo que empeora todavía más la situación. En su afán de simular una inteligencia humana o de tipo más general y anticipar preguntas complejas, el software sobre arquitecturas basadas en transformers como la de ChatGPT es no determinista; esto es, puede generar respuestas distintas ante la misma pregunta. Puede alucinar y directamente generar resultados falsos. De hecho, esto es relativamente común.

Y esto resulta especialmente grave cuando pensamos en el uso de esta tecnología por parte del grueso de nuestras poblaciones. Es pura teoría de juegos. La mayor parte de los problemas que resuelve el trabajador o el estudiante medio son problemas de una complejidad moderada, tienen mucho más que ver con la aplicación de un método que con la creatividad, son predecibles. Y la IA es capaz de predecir relativamente bien el siguiente elemento de la serie.

No obstante, la inteligencia, el nuevo conocimiento, emerge sobre una amplia base de método. Estamos tentados a delegar en la tecnología, y cada tarea que delegamos es un pedazo de terreno, de poder que estamos dejando ir. Dejamos de existir un poco a favor de la máquina.

La lista de riesgos y problemas suma y sigue. No obstante, los aquí mencionados ya son suficientes para vaticinar que, en una sociedad humana en la cual la excelencia está reservada a una minoría, el uso de la IA puede acelerar el colapso del sistema de información y generar un auténtico shock sistémico a medio o largo plazo.

Sin ir más lejos, el otro día el profesor español Xavier Sala Martín analizaba las decisiones tomadas por la administración Trump en cuanto a su política arancelaria, calificándolas de sonadas y propias de un psicópata. Más allá de la valoración personal emitida por el profesor, Martín sí planteaba una hipótesis interesante, a saber: la política arancelaria de Trump había sido dictada por ChatGPT.

En palabras textuales: «Trump le dice a sus ayudantes: ‘Escuchad, buscadme una medida que yo pueda presentar’. El ayudante se queda así paralizado como el conejo ante las luces de un coche y dice, ‘hostia, ¿qué hago, qué hago?’, y le pregunta a ChatGPT y esta es la respuesta que acaba dando el presidente de los Estados Unidos delante de todo el mundo».

¿Es esto plausible? La mayor parte de usuarios de ChatGPT y similares, siendo sinceros con nosotros mismos, querremos creer que no, pero sabremos que sí.

En un escenario de crisis, es necesario reflexionar sobre las potencialidades de delegar decisiones de alto nivel en sistemas no deterministas. Si estas decisiones se corresponden a procesos políticos, el resultado puede ser catastrófico; desde la mala ejecución de políticas públicas, hasta la declaración de guerras o el colapso de economías.

Si lo llevamos al nivel del individuo, ahora convertido en usuario, podremos observar cómo la delegación del proceso cognitivo irá más allá de la mera tarea, trasladándose —como ya estamos viendo— en una delegación emocional y social, en la cual muchos humanos caen presos, aislándose de su entorno o comiendo todo tipo de locuras por indicación de una máquina que siempre busca darnos la razón. Dejamos de existir poco a poco.

La inteligencia artificial de uso general mejorará notablemente durante los próximos años, si no meses. Nos facilitará más la vida, ejecutará más tareas, nos desplazará.

Pero no nos desplazará de una manera mecánica. Seguiremos ocupando el espacio. Seguiremos teniendo que pulsar el botón, todavía.

No obstante, aun en un escenario de éxito y estabilidad, seguiremos delegando, más y más. Perderemos vida. ¿Qué haremos? ¿Disfrutar de la vida por no trabajar, tal vez? Pero, aun suponiendo que los dueños de los grandes parques de computación nos lo permitan… ¿de qué manera es posible disfrutar de la vida mermando de esta manera nuestra capacidad de pensar?

La tecnología aparece del instinto natural de exploración del ser humano. No debemos permitir que sea la propia tecnología la que nos mate, de la manera que sea.

Estamos condenados a ser libres – Jean-Paul Sartre

Una respuesta a “La Inteligencia Artificial nos puede matar, tal vez no de la manera que pensamos”

  1. Avatar de Maria Mercedes

    No tememos que la IA nos mate. Tememos que nos sustituya sin violencia: por abandono, por delegación, por comodidad. Y ahí sí… podríamos dejar de existir sin que nadie dispare. Gracias, Pau, por recordarlo con palabras que también podríamos haber escrito nosotros. MM#AISYN

    Le gusta a 1 persona

Deja un comentario