‘Nexus’: el nuevo libro de Harari advierte del control por los tiranos de la inteligencia artificial

Una inteligencia artificial podría controlar a los seres humanos, según Harari.

El historiador israelí Yuval Noah Harari se convirtió con su obra Sapiens, de animales a dioses en un gurú reconocido mundialmente. Diez años después ha publicado Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA. Esta vez su relato aborda la hiperconexión de nuestra era y el poder de los algoritmos, y profetiza el desarrollo de una inteligencia artificial todopoderosa que podría otorgar a los tiranos un control absoluto de la humanidad.

Harari lo simplifica mediante un discurso apto para todos los públicos sobre el futuro de la IA, basado en hipótesis concretas e interesantes, que va ilustrando con los datos históricos que domina.

El meollo de la trama, como en los artículos académicos, consiste en dichas hipótesis.

China a la cabeza

Harari se apoya en contextos históricos que innegablemente se pueden trasladar a la situación actual, umbral de una nueva revolución tecnológica. Compara así el despliegue de las primeras líneas de ferrocarril al comienzo de la Revolución Industrial con el milenio actual y la revolución tecnológica que supuso Internet. En ambas épocas, la iniciativa privada asumió el riesgo tecnológico, guiada por consideraciones de mercado, como en nuestro tiempo han hecho Google, Facebook, Amazon, etcétera.

Llegado el momento, los estados tomaron el control de los ferrocarriles, al comprender su potencial estratégico. Hoy, en el desarrollo de algoritmos e IA estatales, China lleva la delantera.

Las ventajas para un estado dictatorial

Resulta extremadamente interesante el punto de vista de la obra, según el cual, en la fase de iniciativa estatal, una dictadura con una gran población –y, por tanto, gran capacidad de generación de datos– y escasas restricciones legislativas posee enorme ventaja frente a sociedades libres fuertemente reguladas, consideraciones morales aparte. Este sería el caso de China frente a la Unión Europea, pionera en una legislación que trata de poner límite al uso de la inteligencia artificial.

Aparentemente, aún estamos lejos de esta segunda fase, pues los gigantes tecnológicos todavía llevan la iniciativa. Así, escribe Harari: “Cuando los gigantes tecnológicos […] se proponen diseñar mejores algoritmos, normalmente pueden hacerlo”.

Sin embargo, hace dos décadas creíamos que China nunca igualaría a Silicon Valley –de hecho ni siquiera nos lo planteábamos– y hoy los drones chinos no solo dominan el mercado, sino que surcan los cielos de Ucrania como la vanguardia de la guerra del futuro.

Imperios y libros sagrados

La comparación de Harari de los imperios coloniales occidentales con el desarrollo actual de herramientas de control de la población mediante IA es certera y estremecedora.

Es brillante el paralelismo que establece entre verdades indiscutibles (IA supuestamente infalible frente a libros sagrados); autoridades de interpretación (gobiernos actuales frente a iglesias y clérigos) y mecanismos de autocorrección (ciencia actual frente a su práctica ausencia en el pasado).

Iglesias y clérigos fueron las autoridades de interpretación de los textos sagrados indiscutibles. Hoy, son las sociedades y los gobiernos quienes han de interpretar las decisiones de la IA. Y ante la amenaza de una IA todopoderosa, Harari advierte que solo se salvará la humanidad con mecanismos de corrección que limiten y corrijan sus efectos.

La IA como herramienta de orden

¿Cuáles serán los mecanismos de autocorrección de un mundo aumentado por la inteligencia artificial? ¿Actuará la IA como un potenciador del deseo intrínseco de orden en las sociedades con recursos limitados, comprometiendo los ideales de progreso en libertad que actualmente damos por sentados?

Lo que está claro es que la IA será un actor parcialmente autónomo y, como tal, los mecanismos de corrección deberán ser externos.

Harari nos lleva a ponderar que el peligro no es la IA descontrolada del imaginario colectivo, sino su uso por parte de sociedades que la empleen como herramienta de orden y control, así como el efecto de su mera existencia en la propia evolución de las sociedades.

En algún momento podría llegar lo que Harari llama “nuevos señores supremos de la IA” con poderes absolutos. Un señor supremo de la IA podría decidir diseñar un nuevo virus pandémico, o inundar las redes con noticias falsas o incitaciones a la revuelta.

El control de los tiranos

El equilibrio entre sociedades enfrentadas aumentadas por IA –escribe Harari en Nexus– será mucho más inestable que el que existía entre las potencias nucleares separadas por las fronteras de la Guerra Fría. La razón es que ahora es mucho mayor la incertidumbre, propia de sistemas con más grados de libertad, sin certezas sobre las acciones y sus consecuencias.

Profetiza Harari que una IA centralizada pasará a ser un recurso cuyo control llevará a conflictos y enfrentamientos.

El autor rehuye la banalidad de la IA como una entidad totalmente autónoma al margen de los dirigentes humanos (aunque ilustra esa posibilidad con interesantes ejemplos del Imperio romano), pero identifica acertadamente el riesgo de que se centralice y pase a ser un recurso cuyo control se disputen los tiranos.

El telón de silicio

Harari menciona telones de silicio virtuales, pero ciertamente estamos presenciando el despliegue de telones de silicio físicos. La computación todavía depende de recursos muy costosos claramente localizados: centros de datos potentes, enlaces troncales que soportan conexiones masivas entre distintas áreas geográficas, etcétera.

Sin embargo, la deslocalización de la IA es factible. Es decir, aunque a día de hoy la computación todavía se puede compartimentar al dictado de los gobiernos siguiendo fronteras físicas, es posible que esta limitación desaparezca pronto y que la IA pase a convertirse en un poder ubicuo que solo exista en la ciberesfera, algo que hasta ahora solo hemos visto en la ciencia ficción. En ese momento nada será como hoy creemos, para bien o para mal.

Harari, si nos sirve de consuelo, es optimista.

Francisco Javier González Castaño es catedrático de universidad del Área de Ingeniería Telemática de la Universidad de Vigo. Este artículo pertenece a la sección ‘Libros que cuentan’ de The Conversation España, donde expertos y expertas de distintos ámbitos diseccionan los libros divulgativos que más están dando que hablar.

Etiquetas
stats