Tuve la suerte de casi ver nacer la informática. No, no nací con ella en los años 50, pero sí que con doce años me senté a los mandos de un ordenador personal por primera vez. Como muchos de los niños de mi generación que tuvimos la suerte de tocar los primeros ordenadores personales de 8 bits, hemos tenido la suerte de estar en contacto desde el inicio de nuestras vidas con toda la evolución que vino después, y que nos ha llevado al mundo que tenemos hoy presente y, lo más importante, hoy por delante.
El súper poder que te da ser fluent en este idioma es que es fácil ver cómo y por qué funcionan las cosas. Es evidente. Saber cómo funciona un ordenador personal desde la construcción de la placa base, el juego de instrucciones básico, el compilador que permita construir programas en un lenguaje, cómo se construye un sistema operativo para que gestione las operaciones de entrada y salida, la gestión de la memoria, la gestión de los procesos, cómo se reparten las regiones críticas de una arquitectura, cómo se diseña una red, cómo se conectan procesos remotos vía red utilizando puertos de conexión, cómo se construyen aplicaciones sobre ellos, se diseña un sistema gestor de bases de datos, o se interconectan redes, para hacer servicios en Internet, o cómo se virtualiza un sistema operativo, se crea un datacenter y se diseña una arquitectura cloud sobre ellos, es algo que para los fluent es sencillo. Lo comprendemos con que nos lo expliquen una vez. Es nuestra lengua materna. No necesitamos demasiado tiempo para que las piezas encajen en las estructuras con las que se construye nuestro lenguaje.
Por supuesto, con la Inteligencia Artificial también sucede. Es parte del idioma que hay que manejar, y entender cómo funciona, como se construye y qué debemos hacer con ello es algo con lo que hemos trabajado, hablado y estudiado casi desde aquellos famosos sistemas expertos iniciales, pasando por los algoritmos de redes neuronales que se conocen hace tantos años, para llegar a la eclosión exponencial de los últimos ocho-diez años que hemos sufrido en la construcción de sistemas avanzados y complejos que se construyen sobre los avances anteriores.
Para el gran público la eclosión fue el año pasado. Irrumpió en sus vidas de manera impactante, generando las primeras preguntas, los primeros miedos, las primeras dudas de a dónde nos va a llevar este mundo si esto sigue evolucionando. Es normal. Ver que cualquiera podía hablar con ChatGPT y pedirle cosas complicadas que resuelve de manera diligente e impactante es algo que cambió la cara y la mirada a muchas personas. Asombrados, preocupados y perplejos de que la tecnología pudiera haber llegado a estos límites. Parecía magia.
Magia. Como cuando se descubrió que podrías hablar a la tecnología. O como cuando te podías conectar a Internet sin tener un cable. O llamar por teléfono sin estar conectado a una línea y hacerlo por el aire. Es lo que tiene la tecnología, que cuando es un avance no conocido para los demás parece magia. Por eso los magos, como Jorge Blass o Jorge Luengo, son grandes expertos en la tecnología. Es la parte más cercana a la magia, y muchos de sus maravillosos espectáculos se basan en trucos de magia tecnológica desconocida por el gran público.
Eso mismo hacía yo en mis inicios en el mundo del hacking. Y también el maravilloso y recientemente desaparecido Kevin Mitnick. Buscar trucos de hacking tecnológico que la audiencia no conociera para transmitir esa sensación de que están viendo algo parecido a la magia. Y ver la cara de las personas cambiar con una demostración en real que ellos no saben cómo se ha hecho, pero se ha hecho.
En mi caso, que me he dedicado toda la vida a buscar esas nuevas técnicas de hacking, a encontrar nuevas maneras de hackear un sistema, siempre ha sido apasionante, porque conocer una nueva técnica de hacking, o una nueva vulnerabilidad, o una nueva forma de hacer algo de la que no se pueden proteger porque no la conocen, hace que las demostraciones sean siempre impactantes. Y si lo haces jugando con la audiencia es como hacer magia con ellos.
A principios del milenio, cuando aún las técnicas de hacking de aplicaciones web estaban comenzando, recuerdo que hacía demostraciones con las webs de Fernando Alonso y el gran Pedro de la Rosa, le preguntaba al público cosas, y luego hacía “magia” con mis “trucos de hacking” para hacer algo que era “imposible”, pero que realmente no lo era. Una de las veces uno de los asistentes se levantó, se echó las manos a la cabeza, y puso cara de haber visto un fantasma.
He hecho eso muchas veces. Cuando descubrí las técnicas de Dirtytooth y las presenté por primera vez, jugué con el público a poner canciones en el Spotify y que sonaran por un altavoz para darle un premio al que mejor canción pusiera. Lo que no sabían era que, por detrás, el altavoz les estaba robando la agenda de contactos de su iPhone. Eso ya se lo enseñé después cuando comencé a explicar la charla después. Sus caras, sus risas nerviosas cuando iban viendo que les había robado la agenda de contactos eran todo un poema.
Para los que hablamos este idioma es fácil entender que, por mucho que se intente, cuando se construye una tecnología, hay muchas formas de utilizarla. Muchas formas de construir cosas nuevas. Muchas formas de hacer que “funcione de otra forma”. De cambiarle el paso a lo que esa tecnología quiere hacer. De hacer “magia” con ella.
Tener este conocimiento, entender cómo funciona este mundo, también nos da un poco de experiencia en saber un poco antes que los demás, hacia dónde vamos. Qué va a venir luego. Qué nos vamos a encontrar. Porque entendemos cómo funciona nuestra lengua materna. Y esto nos sucede también con la Inteligencia Artificial.
En mi caso particular, cuando en el año 2016 vi por primera vez funcionado los Cognitive Services casi casualmente, de reojo, en una demo que no era para mí, mi cabeza empezó a derivar, proyectar, y a hacer cálculos de qué se podría hacer en breve. Así comenzó mi andadura reciente en el mundo de la Inteligencia Artificial, donde casi todo lo que hago empieza y termina con ella. Y eso me preocupa, a la vez que me maravilla.
En el año 2019 vimos hacia dónde iba el futuro de los humanos sintéticos creados por Inteligencia Artificial, y comenzamos a ver un mañana lleno de posibles retos de seguridad, identidad, privacidad y personas que prefieren relacionarse con Inteligencias Artificiales y seres “de mentira” que con personas. Las DeepFakes, las clonaciones de voces de personas, de gestos, de actitudes y formas de tener una reunión al servicio del cibercrimen. Os dejo esta charla que impartí en el mes de julio que recoge todo esto, para que os asustéis un poco, a la par de que os divirtáis.
Figura 2: Charla sobre Humanos Sintéticos creados por Inteligencia Artificial
Cuando la gente ve la charla y escucha el discurso empieza a pensar en cosas que pueden venir, que pueden suceder, que pueden llegar a pasarles en sus vidas. Esos pensamientos ya pasaron por nuestra cabeza, por la cabeza de los fluent en este idioma años atrás. Y por eso pasan esas cosas nuevas todos los días.
Una vez que has llegado a este punto de lectura de este artículo, déjame decirte que todo lo anterior no ha sido más que la introducción para poder ponerte en situación y que entiendas mejor lo que quiero contar. Para que tengas un poco de mi ansiedad cuando te diga lo que te voy a decir, porque esto sí es lo que me preocupa a mí.
El asunto es que hoy en día, los avances en la construcción de los llamados LLM (Large Language Models) es brutal. Esos LLMs son modelos de Inteligencia Artificial al estilo de ChatGPT para hacer aplicaciones, para hacer servicios, para manejar cosas. A ver si soy capaz de explicarlo de una manera sencilla, para que me entendáis.
En la parte inicial del proceso tenemos un modelo de inteligencia artificial (nuestro LLM) que tiene la capacidad de aprender cosas como no habíamos visto nunca en la historia, con millones de parámetros capaces de generar relaciones complejas y sutiles y generar conocimiento a la hora de resolver problemas a un nivel que pueden realizar muchas de las tareas que hacemos las personas en puestos de trabajos no de alta exigencia intelectual. Tomadme la última frase como que el modelo LLM es capaz de hacer de manera suficientemente bien muchas tareas que hacen trabajadores en muchas empresas.
Estos modelos LLM están disponibles para todo el mundo. Para cualquiera que quiera entrenarlos con datos para que aprendan cosas. Esto hace que los grandes poseedores de datos, es decir, los que han construido los Large Data (mucho más que los Big Data), puedan entrenarlos con todos esos datos y resolver problemas de carácter general. Para entrenarlos solo necesitan tener esos datos y mucha capacidad de cómputo para correr el algoritmo LLM. Pero, por suerte, hace años inventamos el Cloud Computing —y el High Performance Computing— para hacer esos cómputos.
Así que tenemos el algoritmo LLM (tick), los humanos hemos volcado nuestro conocimiento en forma de datos en muchos rincones de Internet (tick), y hemos desarrollado las tecnologías de Big Data y Cloud Computing para poder procesar el algoritmo y los datos necesarios (tick). Como resultado, tenemos un “cerebro embrionario” (permitidme esta metáfora para que sea más fácil de entender para todo el mundo) al que se pueden pedir cosas como clasificar tomates en una fábrica, conducir un coche, resolver una organización de turnos, escribir un e-mail, resumir un libro, escribir un artículo, etc, etc, etc… Se le pueden pedir cosas que le podrías pedir a un “cerebro embrionario”.
Por supuesto, con ese LLM entrenado, que son los famosos GPT-4 de OpenAI, Bard AI de Google, Llama-2 de Meta, o Claude de Anthropic, puedes conectarlos en cualquier sistema informático que deje las decisiones complejas no al programador, no a una persona, sino a ese cerebro embrionario en forma de LLM entrenado. Le damos los datos de entrada complejos, y le pedimos que los resuelva.
Y es acojonante, porque funciona de maravilla. Funciona que te cagas. Y puedes hacer cosas a la velocidad de la luz que antes exigían un montón de trabajo, o que directamente era imposible hacer sin una persona humana detrás. Y esto hace que se estén empezando a crear muchas, muchas, muchas aplicaciones LLM. Y está genial.
Pero…
Y aquí viene el “pero”. Y es gordo.
El pero es que aún no sabemos mucho de los problemas de estos LLM. No sabemos mucho de qué ha aprendido, y la explicabilidad de qué ha aprendido es una ciencia que aún estamos estudiando. No sabemos nada de cuáles son los problemas de seguridad —y acabamos de tener la primera versión de los 10 problemas de seguridad en aplicaciones LLM en versión “borrador”—.
No sabemos cómo se pueden atacar estos LLM de manera directa o atacando a las aplicaciones que los usan, y hemos visto técnicas de hacking como la del Universal Adversarial Prompt, que permite saltarse todas las restricciones y pedirle a cualquier LLM que te diga “cómo destrozar a la Humanidad”… paso a paso.
Hay muchas cosas que no sabemos y que, como con las vacunas, pueden ser efectos secundarios muy peligrosos. No sabemos mucho de estas tecnologías que estamos adoptando masivamente, y a muchos de los que hablamos este idioma de la tecnología, y que hemos tocado los ordenadores desde nuestra tierna infancia, nos preocupa… un poco.
Y es que lo que sí sabemos es que habrá fallos de seguridad, como los que yo uso para hacer “magia” en mis charlas. Como esos que hay que ir parcheando constantemente. Sabemos que en el pasado, con los algoritmos de Machine Learning, las redes sociales y el Big Data, hemos tenido una división de las sociedades en dos bandos (en todo el mundo), con tecnologías como el trabajo de Cambridge Analytica.
Sabemos que el primero que utilice estas tecnologías va a tener ventajas competitivas, y por eso todo el mundo las está utilizando. Pero también sabemos que habrá problemas. Lo sabemos porque ya hemos vivido esto y porque sabemos que no sabemos cosas de la Inteligencia Artificial. No es un producto maduro, terminado, al que hayamos hecho todas las pruebas de QA, de Seguridad y de Auditoría. No lo hemos hecho porque aún hay cosas que no sabemos cómo hacerlas. Y esto puede generar muchos problemas.
Y esto me lleva a la gran preocupación final. Veréis, tras encontrar el hack de Prompt Injection que permite hacerle a los LLMs la pregunta de “cómo acabar como la Humanidad”, todos responden que el holocausto nuclear es un camino seguro, lo que nos lleva a la Declaracion Política del Uso responsable de la IA en la industria militar que emitió el gobierno de los Estados Unidos el pasado 16 de Febrero.
Entre la lista de enumeraciones que se hacen en este documento hay una que llama poderosamente la atención, y es la que dice algo así como «vamos a evitar que las armas nucleares las puedan activar de forma autónoma modelos de Inteligencia Artificial«, lo cual deja claro que ya hay muchos que lo han pensado, y viendo lo que tenemos en lo que os he contado antes… podría ser una solución tomada en un caso no controlado.
Porque al final… ¿estamos seguros de lo que ha aprendido un LLM? Ni por asomo, pero es que además, si le presionas, se inventan información, como conté en el artículo: ChatGPT es un charlatán mentiroso. Lo que puede llevar a que nos encontremos en escenarios como el de aquella mítica película de Juegos de guerra.
Los que apostamos por una tecnología humanista, que cada día somos muchos más, tenemos cierta preocupación. En mi caso, es una mezcla de excitación, preocupación, ansiedad y emoción al ver cómo evoluciona día a día nuestro “idioma”. En el de las personas que han aprendido nuestro idioma como segunda lengua, entiendo que debe ser una auténtica mirada de emociones distintas, que espero haber revuelto un poco con este texto.
Para alguien todavía más antiguo que usted en cuanto a inicios informáticos (los Sinclair creo recordar que son anteriores a los Amstrad), decirle que me han gustado varias cosas de su artículo. La preocupación es una de ellas y está justificada. Otra es su apuesta por la tecnología humanista.
Esta segunda cuestión es muy importante, amplia, con muchos sentidos y recovecos, con muchos matices. Para debatirla necesariamente amplio y tendido, antes de que, emulando su expresiòn, nos caguemos la pata abajo y deje de ser acojonante este tema. Porque, como dirìa Cela, no es lo mismo que algo sea acojonante a que algo nos acojone. No es lo mismo estar cagando que haberla cagado.
Uno de los peligros, en contra de este humanismo tecnológico, como de todo humanismo, es el capitalismo salvaje, el afan de beneficios sin freno y sin ética a cualquier precio. Eso, aplicado a la IA, es peligrosísimo, letal.
Los que como usted están ahora mismo ahí, en esa brecha, hasta que los eche la IA, tienen la responsabilidad de luchar por ese ideal humanista y perseguirlo. Los que, como yo, hemos visto los inicios y el progreso informático, hemos podido observar como nuestro trabajo se iba cargando miles de puestos de trabajo a lo largo de los años. Y no solo es ese aspecto, por supuesto. Que una IA decida que te tienes que estrellar con tu vehículo o que no merece la pena inyectarte un fármaco en tu particular caso, puede ser un drama mayúsculo.
En resumen, acojonante su artículo, para cagarse.
Saludos de su crítico de siempre…