¿Era Deckard un replicante? Ese es el gran debate en torno a Blade Runner. El protagonista de la película, inspirada en la novela de Philip K. Dick ¿Sueñan los androides con ovejas eléctricas? (1968), mantiene el misterio sobre su figura, un debate que nos acerca a una pregunta importante tantas décadas después: ¿qué nos hace humanos? Según afirma Omar Hatamleh, director de Inteligencia Artificial del Goddard Space Flight Center de la NASA, dentro de 50 años será casi imposible distinguir a un robot humanoide de una persona. El test Voight-Kampff, para distinguir entre humano y replicante, ya no le servirá para nada a Harrison Ford. La amenaza de la IA es tan grande que en marzo de 2023 Yuval Noah Harari, junto a Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron un manifiesto para frenar durante seis meses la “carrera sin control” de los ChatGPT. Ha pasado año y medio y no sólo no se frenó, sino que la IA pisó el pedal de aceleración hasta el fondo. ¿Estamos a tiempo de hacer algo para impedir que la IA nos destruya o es una batalla pérdida? ¿Quién puede matar al algoritmo? En su nuevo libro, Nexus (Debate), el filósofo Yuval Noah Harari —el autor de Sapiens, una obra que ha vendido 25 millones de ejemplares desde su publicación en 2013— relata cómo diferentes sociedades y sistemas políticos han utilizado la información para lograr sus objetivos e imponer el orden, para bien y para mal. Harari centra su obra en el crucial momento al que nos enfrentamos hoy en día, cuando la inteligencia no humana amenaza nuestra propia existencia.
******
TODOS HABLAN, NADIE ESCUCHA: TOTALITARISMO, MENTIRAS Y TEORÍAS CONSPIRATIVAS
En Nexus, Yuval Noah Harari analiza el papel de las redes de información desde la Edad de Piedra hasta la aparición de la IA. Al principio de su intervención, el historiador señaló la contradicción en la que vive nuestra sociedad: «Tenemos la tecnología de la información más importante de la historia, pero la gente parece que no es capaz de hablar». A este respecto, el autor de Homo Deus: Breve historia del mañana puso el ejemplo de lo que ocurre en los Estados Unidos, la imposibilidad de demócratas y republicanos de ponerse de acuerdo en nada. Ese enfrentamiento entre ideologías queda patente en las redes sociales, y acerca de esta cuestión apuntó Harari lo siguiente: «La manera más fácil de capturar la atención es apretar el botón del odio o el botón del miedo y expandir de forma deliberada las teorías conspirativas». También comentó que «los grandes gigantes tecnológicos nos habían prometido que nos iban a conectar a todos y que iban a difundir la verdad. Tenemos una tecnología muy sofisticada para comunicarnos, pero no dialogamos». Para Harari la diferencia esencial entre democracia y un régimen totalitario es «la conversación», que actualmente está en grave peligro por la crisis del periodismo y la propagación de «mentiras y teorías conspirativas» en esas redes sociales.
En relación con lo anterior, Harari habló de lo erróneo que es identificar información con verdad: «La información no es conocimiento. La visión ingenua que domina lugares como Silicon Valley sostiene que con cuanta más información, más sabe la gente. Pero la mayor parte de la información en el mundo es basura. No es verdad. La información verdadera es escasa porque escribir un informe auténtico requiere tiempo, dinero y esfuerzo. Escribir una mentira, una información falsa es sencillo, no necesitas invertir nada. La ficción es barata y la verdad normalmente es complicada. La mayor parte de la gente prefiere historias sencillas. Si queremos que prevalezca la verdad tenemos que invertir en ella. Necesitamos periódicos y sociedades e instituciones académicas. Esta es la gran responsabilidad de las sociedades actuales: resistir a esa visión ingenua, de gente como Elon Musk, de que si hay más información la gente tendrá más posibilidades de conocer la verdad».
El historiador israelí advirtió durante la conferencia de prensa del «potencial totalitario» de la inteligencia artificial y puso varios ejemplos, como el de su país, Israel, «que está construyendo un régimen de vigilancia total» en los territorios ocupados. Según el autor, la «inmensa capacidad» de la IA para recoger y analizar información hará posible «el régimen de vigilancia completa que anule la privacidad», algo que no lograron Hitler o Stalin y que ahora están empezando a aplicar países como Irán, con cámaras de reconocimiento facial que vigilan y castigan la ausencia del velo en las mujeres cuando van en un vehículo. Esos dispositivos de videovigilancia localizan a las mujeres que conducen sin velo, las identifican, su nombre, su teléfono, e inmediatamente ellas reciben un SMS en el que el estado le notifica la infracción y el castigo: deben abandonar su coche, que ha sido confiscado desde ese mismo momento. Esto no es un supuesto de ciencia ficción. Está ocurriendo ahora». Aunque señaló los peligros que relacionan IA y totalitarismo, Yuval Noah Harari hizo una matización muy importante al señalar que esto no es determinista: las sociedades pueden tomar decisiones para revertirlo.
LA RESPONSABILIDAD DE LAS GRANDES CORPORACIONES
Teniendo en cuenta que la revolución de la IA está en sus pasos iniciales, Harari enfatizó la necesidad de hacerse preguntas. «Tiene un enorme potencial positivo. Si hablo poco de ello es porque hay grandes corporaciones extremadamente ricas y poderosas que ya nos inundan con los mensajes positivos e ignoran los peligros», dijo. Por ello, ve crucial generar «un debate sobre la responsabilidad de los gigantes mediáticos» como Facebook, Twitter, Instagram o TikTok. «Las corporaciones deben tener una responsabilidad por lo que deciden sus algoritmos, del mismo modo que el editor del New York Times es responsable de su portada», señaló.
Otro asunto importante, que está debatiéndose ahora mismo en países como España, es saber distinguir entre la censura y los mecanismos de las plataformas para evitar la propagación de mentiras, de bulos. El filósofo comentó que «es importante que la gente sepa ver la diferencia entre los editores humanos y los algoritmos corporativos. La gente tiene derecho a la estupidez, a contar mentiras, salvo casos extremos que define la ley, forma parte de la libertad de expresión», señaló. «El problema no son los humanos sino los algoritmos de corporaciones cuyo modelo de negocio se basa en el engagement, que significa que su prioridad es que la gente pase el mayor tiempo posible en sus plataformas, para vender anuncios y reunir datos que puedan vender a terceros. Hay que tener mucho cuidado con censurar a los usuarios humanos», concluyó.
EL FIN DEL MUNDO QUE HEMOS CONOCIDO
Aunque el libro hace un recorrido desde la antigüedad hasta nuestros días, gran parte de la presentación estuvo centrada en la IA y en su irrupción en nuestras sociedades. Yuval Noah Harari explicó cuál es la característica de la Inteligencia Artificial que la hace diferente de cualquier otra tecnología que hayamos conocido: «La inteligencia artificial es distinta porque no es una herramienta, es una agente, un agente independiente. Las armas atómicas tienen un gran poder, pero ese poder está en manos de seres humanos. La bomba como tal no puede desarrollar ninguna estrategia militar. La inteligencia artificial es distinta; puede tomar decisiones por sí misma». Harari puso el ejemplo de lo que está ocurriendo en los medios de comunicación y las redes sociales con la llegada de la IA: «En un periódico las decisiones más importantes las toma el editor, él es quien decide qué va a ir en primera página, cuál va a ser la portada. Ahora en algunas de las plataformas más importantes del mundo, como Facebook y Twitter, el papel del editor ha sido sustituido por la IA. Son los algoritmos los que deciden cuál es la historia recomendada y cuál es la que está más arriba del feed de noticias. Y además la IA también puede crear nuevas ideas por sí misma. Está fuera de nuestro control. Eso es lo que la hace distinta de cualquier revolución anterior».
Uno de los temores más comunes entre los periodistas asistentes a la rueda de prensa era la capacidad de la IA para construir relatos como los humanos. Harari comentó acerca de este tema: «Los desarrollos más recientes de la IA nos muestran su capacidad para crear historias. Antes había IA para vigilar y destacar qué es lo que llamaba la atención, pero no escribía, ni hacía música ni generaba imágenes. Ahora sí puede hacerlo. Sé que hay gente que dice que esos textos no son muy buenos, partituras sin calidad, vídeos e imágenes con fallos, manos con seis dedos, pero debemos entender que estamos en los primeros pasos de una tecnología que sólo tiene diez años. No hemos visto nada todavía. Si hacemos un paralelismo con la evolución biológica, la IA actual es una ameba, pero que va a tener un desarrollo millones de veces más rápido que el que hemos necesitado nosotros. La IA va a pasar de ameba a dinosaurio en sólo diez o veinte años. Los textos de ChatGPT tienen errores, pero son párrafos, textos, ensayos que tienen sentido. Esto es algo con lo que muchos humanos tienen dificultades. Soy profesor de universidad y a muchos alumnos les cuesta elaborar un ensayo coherente enlazando diversos argumentos. La IA ya lo hace. Los artefactos culturales de los próximos años serán de una inteligencia alien. ¿Qué reacción provocará esto en la sociedad humana? Nadie lo sabe y esa es la gran pregunta».
UN HILITO DE ESPERANZA
La parte final de la comparecencia de Yuval Noah Harari estuvo marcada por la pregunta sobre la posibilidad de que haya algo de luz para esta situación. ¿Puede la IA aportar algo positivo a la humanidad? Su respuesta fue clara: «Sin duda. La IA tiene un potencial enorme. Y tampoco creo que todas las personas de Silicon Valley sean malvados. La IA puede proporcionarnos en los próximos años la mejor atención sanitaria. Hay una falta de médicos en todo el mundo, y la IA puede ofrecer una solución: vigilarnos las 24 horas del día, controlar nuestra presión arterial, tener toda nuestra información biológica… Y todo esto será mucho más barato, y será para todos, incluso para la gente más pobre y la que viva en zonas remotas». Luego puso otro ejemplo sobre las aplicaciones beneficiosas de la IA: «Cada año hay más de un millón de muertos en accidentes de tráfico, la mayoría causados por fallos humanos, muchos por gente que bebe alcohol cuando conduce. Si le das a la IA el control del tráfico con vehículos autónomos puede salvar un millón de vidas: la IA no se va a dormir al volante ni va a beber alcohol». El pensador israelí reconoció en ese momento del discurso que no habla demasiado de los aspectos positivos de la IA, aunque expresó que hay secciones de Nexus en las que sí se expone ese potencial beneficioso pero, según declaró, hay un motivo para centrarse casi en exclusiva en los peligros: «Hay empresas muy ricas que inundan los medios y las plataformas con mensajes muy positivos sobre lo que va a hacer la IA y que tienden a ignorar los peligros. La labor de los filósofos, académicos y pensadores es centrarnos en la parte oscura, aunque eso no quiere decir que sólo haya peligros. No hay que detener esta evolución, lo que estamos diciendo es que hay que invertir más en seguridad. Se trata de aplicar el sentido común, igual que se hace en cualquier otra industria. El problema de la gente del sector de la IA es que están atrapados en una mentalidad de carrera armamentística: no quieren que nadie les gane en la persecución de avances. Y esto es muy peligroso».
Y llegados a este punto, ¿qué nos puede salvar? Yuval Noah Harari lo tiene claro: «La filosofía». «Durante miles de años los filósofos han debatido preguntas teóricas con poco impacto en la sociedad. Poca gente actúa conforme a una filosofía teórica, funcionamos más con las emociones que con las ideas intelectuales. Ahora la filosofía puede empezar a debatir cuestiones muy prácticas. Pongo un ejemplo: ¿qué tiene que hacer el algoritmo en el caso de que un vehículo autónomo vaya a atropellar a dos niños, y la única manera de evitar ese accidente es sacrificar al propietario del coche que está dormido en la parte de atrás? Esta es una pregunta práctica y hay que decirle a la IA qué hacer. Y esta cuestión no es sólo para ingenieros y matemáticos, también es para los filósofos. Todo esto entronca con los conceptos importantes del ser humano como el libre albedrío, el significado de la vida y sobre la necesidad de dar reconocimiento a las diferentes formas de IA como vidas con derechos y una categoría ética en nuestras sociedades».
******
Desde que salimos de la sala del cine, después de extraer la cinta de VHS del reproductor de vídeo, al apagar la televisión con el botón del control remoto, muchos sentimos la misma sensación: todos queríamos vivir lo que vivió el replicante Roy Batty. Quizás ha llegado el ansiado momento de ver naves de ataque en llamas más allá del hombro de Orión, rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. La IA ya está en nuestras vidas, es un proceso irreversible, y si, como advierte Yuval Noah Harari, no hacemos nada por regularla, por controlarla bajo el paraguas de la filosofía, nosotros seremos los que nos perderemos en el tiempo, los seres humanos nos convertiremos en esas lágrimas en la lluvia.
Desde los tiempos más remotos, siempre nos ha salvado la filosofía y no los Chemas Alonsos…
Como su propio país, basado en una gran mentira, una tierra sin pueblo, para un pueblo sin tierra (israel)
Agoniza la privacidad y sus sucursales.
Es muy bueno que Harari ejercite su capacidad reflexiva y que la comparta con el mundo, pero no dejo de sentir en él un deseo extraño de impactar con teorías que llamen la atención. No es un pensador que aprecie lo suficiente como para creerle todo.