Yuval Noah Harari: “El futuro será producto de una mente alien»

El filósofo Yuval Noah Harari. Foto: Copyright by World Economic Forum/Ciaran McCrickard/CC

La información y la tecnología, como fenómenos intrínsecos a la evolución cultural de los ‘Homo sapiens’, que ha llevado al éxito de supervivencia de la especie, es algo de lo que no duda el profesor israelí Yuval Noah Harari, pero ahora ¿se nos va de las manos? Según su último libro, ‘Nexus’ (Ed. Debate), la respuesta es afirmativa si no hacemos nada para evitarlo, y la culpa la tiene, asegura, esos pocos humanos que tienen en sus manos el control de la humanidad gracias a un uso “irresponsable” de las posibilidades de la inteligencia artificial (IA). “Podríamos decir que, en términos biológicos, es una ameba, pero al ritmo que evoluciona en 20 años esa ameba puede ser un dinosaurio y no sabemos cómo será ni lo que hará”.

Así de contundente se mostraba el escritor en una rueda de prensa internacional, y virtual desde Washington D.C., para todo el mundo hispano. Con más de 100 periodistas conectados, gracias precisamente a la tecnología, Harari tenía un mensaje claro para Elon Musk o Mark Zuckerberg: “Han descubierto que la gente se queda más tiempo en sus redes pulsando el botón del odio, el miedo y la rabia. A más tiempo, más negocio con anuncios, más datos de los usuarios que venden a terceros”. Y eso, asegura, es peligroso y es su responsabilidad.

Harari, que triunfó con su libro Sapiens, donde defiende cómo la capacidad de cooperar y crear lo inexistente (dinero, religiones, fronteras…) está detrás de la dominación del planeta por nuestra especie, ahora se revuelve contra una IA que, denuncia, nos quitará la independencia a los humanos. “En un periódico, el director decide, pero en Facebook o en X (antes Twitter) lo hace el algoritmo de la IA, que ya produce imágenes, contenidos, música, código y que podría crear una IA más potente fuera de control humano, lo que la distingue de cualquier tecnología previa”, augura. “Es más peligrosa que la bomba H”.

El autor, cuyas tesis en obras anteriores han sido contestadas por algunos científicos, especialmente prehistoriadores, considera “una visión ingenua” pensar, como dice el magnate Musk, propietario de X, que tener más información es adquirir más conocimiento en estos tiempos, porque “la verdad es rara y una información auténtica requiere tiempo e inversión, mientras que la ficción es barata y además sencilla, que es lo que quiere la gente”. En Nexus pone el foco en esa capacidad de la nueva tecnología para crear historias no reales, “y ese es el primer paso, porque apenas tiene 10 años de desarrollo; podríamos decir que, en términos biológicos, es una ameba, pero al ritmo que evoluciona en 20 años esa ameba puede ser un dinosaurio y no sabemos cómo será ni lo que hará”.

Ciertamente, reconoce que ahora hay fallos en esta nueva inteligencia, pero está convencido de que se superarán: “Es verdad que hay errores, como los que vemos en ChatGPT, pero también los cometemos los humanos y la realidad es que en toda nuestra historia todo ha sido producto de nuestra mente humana y, desde ahora, lo será de una mente alien que no sabemos qué hará”. Eso sí, una mente alien alimentada con la información que se pone a su disposición.

Con este escenario, ¿vamos hacia un totalitarismo tecnológico? Harari responde que hay componentes que apoyan esta tesis, si no se toman las decisiones adecuadas. Como historiador que es, recuerda totalitarismos del pasado, como el de Hitler o el de Stalin, que no sólo querían controlar físicamente a la gente, sino su pensamiento: “Ellos no podían hacerlo, tenían límites, pero la IA permite una vigilancia total a través del móvil, las cámaras en las ciudades, los ordenadores, el reconocimiento facial y de voz… Es capaz de gestionar esa gran cantidad de información”. Y como muestra, pone de ejemplo al gobierno de su propio país, Israel, que tiene monitorizados a los habitantes de los territorios ocupados de Palestina; o al de Irán, que ha instalado en las calles cámaras con un software de reconocimiento facial para denunciar a las mujeres que van sin velo, sin tener que pararlas en las calles y generar conflicto social.

Este tipo de tecnologías al servicio de determinados poderes considera que son peligrosas en manos de gigantes tecnológicos y de sus algoritmos, aunque, según su propia tesis, en el futuro serán independientes del control humano. La cuestión es cómo controlarlas sin limitar con ello la libertad de expresión: “Estoy de acuerdo con que las empresas deben evitar la censura, pero el problema no está en el contenido de origen humano que se vuelca ahí, sino en la decisión del algoritmo de una red social para divulgar solo los mensajes de odio o conspiranoicos, porque llaman más la atención y así estas corporaciones ganan más dinero. También generamos contenidos positivos, de compasión, pero resulta que el algoritmo expande las fake news. La responsabilidad radica en esas empresas, porque saben que, a más tiempo enganchados a Tik Tok, más ganan. Y eso no es libertad de prensa”.

Esta capacidad de manipular el pensamiento humano considera que beneficia las tendencias tanto de extrema derecha como de extrema izquierda, porque “coinciden en la desconfianza en las instituciones creadas para promover la verdad, como la ciencia o los medios de comunicación”, aunque reconoce que también hay periodistas a los que no les interesa esa verdad y diseminan mentiras para apoyar a una facción del poder. “Cuando no se confía en ninguna institución, éstas colapsan y llega la dictadura”.

Pese a todo lo anterior, niega que sea un militante contra la IA, y ve su potencial para mejorar la salud humana, con un monitoreo constante de nuestro cuerpo, o para evitar accidentes de tráfico gracias a la conducción autónoma de vehículos. “Pero en Nexus me centro en lo negativo, porque hay ya muchas empresas que hablan de lo bueno e ignoran los peligros de su lado oscuro. No se trata de detener la IA, pero sí de invertir más en la seguridad; con un 20% de lo que se gasta en ella, sería bastante para protegernos de lo pernicioso, porque hay que evitar que el algoritmo entre a decidir cómo es la cultura, la política, la sociedad. Y no se puede decir que esos peligros ya se abordarán en el camino, hay que hacerlo ya”.

En todo este panorama considera que los filósofos deberían tener un protagonismo que han perdido a lo largo de la historia. “Ellos se plantean preguntas existenciales sobre ética del comportamiento que son casos prácticos hoy. En caso de un accidente inevitable, ¿debe un coche autónomo atropellar a un niño o al pasajero que va atrás dormido? La IA no es solo es un asunto de informáticos e ingenieros. También de filósofos que reflexionen sobre el significado de la vida”.

Deja tu comentario

¿Qué hacemos con tus datos?

En elasombrario.com le pedimos su nombre y correo electrónico (no publicamos el correo electrónico) para identificarlo entre el resto de las personas que comentan en el blog.

No hay comentarios

Te pedimos tu nombre y email para poder enviarte nuestro newsletter o boletín de noticias y novedades de manera personalizada.

Solo usamos tu email para enviarte el newsletter y lo hacemos mediante MailChimp.