Inteligencia Artificial, ¿una puerta a la utopía?, ¿o a la distopía?
Va a ser uno de los temas principales de este año. No nos cabe ninguna duda. Además, el reglamento para regular la Inteligencia Artificial (IA) en la Unión Europea ha vuelto a llevar a la IA a la primera plana de los medios de comunicación tras el vodevil vivido en OpenAI, la empresa creadora de chatGPT, hace unas semanas. El despido fulminante de Sam Altman, CEO y cofundador de openAI, seguido de su sorprendente retorno por la puerta grande pocos días más tarde, ha provocado una auténtica conmoción que ha trascendido el mundo tecnológico. Estamos ante una batalla más de la gran guerra que se está librando por el control de la Inteligencia Artificial (IA). Una guerra que habla por sí misma de su tremendo potencial. Vamos a ver en qué punto nos encontramos.
Un vodevil en el epicentro de la alta tecnología
OpenAI arrancó su andadura en 2015 como compañía sin ánimo de lucro promovida por Sam Altman entre otros, con el objetivo de desarrollar una IA que fuera segura y beneficiosa para la humanidad. Al poco tiempo resultó evidente que las necesidades de financiación eran muy superiores a las donaciones privadas, por lo que en 2018 creaban una empresa subsidiaria con fines de lucro que comenzó a recaudar miles de millones de dólares de inversores.
Desde entonces, OpenAI se ha convertido en una entidad con dos almas; una mantiene el espíritu original de desarrollar una IA pensando en el futuro de la humanidad, mientras la otra persigue beneficios económicos como cualquier otra empresa con fines lucrativos. Hasta la fecha, la junta directiva había estado formada por científicos e ingenieros fieles a los objetivos originales, más interesados en los aspectos tecnológicos que en las finanzas. Pero este espíritu podría haber cambiado tras el viaje de ida y vuelta de Sam Altman seguido del nombramiento de una nueva junta. Cosas de ese poderoso señor que es Don Dinero…
Si se tratase de un asunto meramente financiero, el vodevil no tendría mayor trascendencia que la de provocar tristeza. Sería un caso más, entre tantos otros, en el que una entidad originariamente altruista acaba por doblegarse ante los intereses financieros. Sin embargo, en el caso de openAI se añade una enorme preocupación: la del desarrollo sin freno ético alguno, y de manera acelerada, de una herramienta que podría convertirse en una amenaza para la humanidad.
Llevando al límite la potencia de la computación
Bajo la denominación de IA se encuadra cualquier programación algorítmica de una máquina con el objetivo de imitar o simular la inteligencia humana. Esto incluye la programación tradicional, que se codifica en base a cálculos, árboles de decisión y reglas.
Los llamados modelos de aprendizaje automático (machine learning) han supuesto un avance considerable en las técnicas de programación. Con estos modelos se enseña a la máquina a reconocer patrones mediante un proceso de aprendizaje, sustituyendo la programación explícita tradicional por una variedad de algoritmos matemáticos que incorporan técnicas para hacer predicciones y/o tomar decisiones.
Las redes neuronales son un tipo de modelo de aprendizaje automático particularmente potente, cuya arquitectura de programación está inspirada en la estructura de las neuronas en el cerebro humano, de ahí el nombre que reciben. Una red neuronal está formada por unidades de cálculo a las que se denomina neuronas, organizadas en capas con conexiones ponderadas entre sí.
A través de estas conexiones ponderadas es como la red aprende a identificar patrones y relaciones entre datos. Cuando la estructura de la red cuenta con múltiples capas se la denomina red neuronal profunda (deep learning). A medida que aumenta el número de capas, lo que también es conocido como profundidad de la red, la capacidad de aprender representaciones complejas de datos se multiplica.
chatGPT está construido sobre una red neuronal profunda, la red GPT desarrollada por openAI, siguiendo un modelo denominado transformer que ha mostrado ser muy eficaz para el procesamiento del lenguaje natural. La red ha sido entrenada con una enorme cantidad de datos que le han permitido aprender patrones lingüísticos, contextuales y semánticos, así como a responder preguntas complejas. chatGPT pertenece a la categoría de inteligencias artificiales generativas, ya que su arquitectura le capacita para generar nuevo contenido que mantiene características similares y coherentes con los datos de entrenamiento. Así, no se limita a reconocer patrones y devolver respuestas predefinidas, sino que es capaz de generar respuestas originales basadas en el contexto proporcionado en la conversación.
Toda la IA que ha sido desarrollada hasta la fecha se encuadra dentro de lo que se denomina IA débil, pues su implementación técnica está enfocada a la resolución de tareas específicas. Los sistemas de reconocimiento de voz, de recomendación de contenidos o la automatización de procesos industriales son ejemplos de IA débil. La IA generativa, cuyo objetivo es la generación de nuevos contenidos ya sea en forma de imágenes, de datos o, como es el caso de chatGPT, de textos, es otro ejemplo de IA débil pese a lo fascinante que nos pueda parecer su funcionamiento.
En un futuro se pretende ir dotando a la IA de habilidades menos específicas y más flexibles, es decir, diseñar arquitecturas que la capaciten para entender, aprender y aplicar conocimientos en un espectro de tareas mucho más amplio. El objetivo final sería conseguir lo que se denomina una IA general, también conocida como la “singularidad tecnológica”, que dotaría a la máquina de la capacidad de aplicar inteligencia en una amplia variedad de dominios hasta alcanzar la versatilidad y adaptabilidad de la inteligencia humana a la que, sobre el papel, igualaría en términos de las tareas cognitivas que es capaz de realizar pero superándola en potencia (velocidad, información almacenada…).
De manera aún más especulativa se baraja la posibilidad de que la IA llegase algún día a ser consciente, algo que, hoy por hoy, pertenece al terreno de la ciencia ficción. La conciencia continúa siendo explorada en el ámbito de la filosofía, sin ser comprendida por la ciencia. Sabemos que está relacionada con la actividad cerebral, un campo de investigación que se encuentra en pleno desarrollo, pero desconocemos su naturaleza. De la amplia variedad de
habilidades dotadas por la conciencia a los humanos, como son la capacidad de procesar información, la experiencia subjetiva, la auto-reflexión, las emociones y sentimientos o el sentido ético, sólo conocemos las reglas del procesamiento de información, siendo así la única habilidad que somos capaces de implementar en una máquina.
Beneficios y amenazas de la IA
Demonizar la tecnología al estilo ludita es tan poco recomendable como convertirla en un dios todopoderoso al que delegar los problemas, según defienden los tecno-optimistas en connivencia con los tecno-oportunistas. Ni demonio, ni tampoco dios: la tecnología es neutra, no es ni buena ni mala. No puede decirse lo mismo del uso que hacemos de ella, etiquetable como “bueno” o “malo” según si trae consigo beneficios o perjuicios. Sirva como ejemplo la tecnología más simple que existe, un palo; utilizado para varear un olivo, o como bastón, el palo se convierte en una tecnología beneficiosa, pero si se usa para agredir a alguien se transforma en un arma capaz de provocar daño. Ni que decir tiene que cuanto más potente es una tecnología los beneficios obtenidos pueden ser mayores pero, correspondientemente, también pueden serlo los daños. Dependerá del uso, bueno o malo, que se le dé.
Con mucha diferencia, la IA es la tecnología más potente desarrollada por el ser humano hasta la fecha. De hecho, nos está cambiando la vida a una velocidad y con una profundidad que no había sido anticipada. Los enormes beneficios que la IA ha traído consigo son innegables e innumerables: desde herramientas online de traducción hasta un acceso rápido a la información, sistemas avanzados de asistencia médica y diagnóstico de enfermedades, automatización de tareas tediosas, optimización de procesos empresariales…
Pese a todos estos avances que, mirados en retrospectiva, parecen de ciencia ficción, lo cierto es que nos ha tocado vivir una época particularmente preocupante y no sólo por la magnitud de la crisis climático-ambiental que afrontamos. La cronificación de la guerra, cuyo horror es ahora retransmitido en directo, y el avance de la extrema derecha se encuentran entre los muchos síntomas que delatan una sociedad que ha hecho del egoísmo cegador, junto a la ambición, su sello de identidad. A esto se suman las tácticas de empoderamiento de la ignorancia empleadas por algunos poderes fácticos, que están estimulando una involución cultural al infantilizar las mentes para hacerlas más dóciles mientras son derivadas hacia el narcisismo con el auge de las redes sociales y sus múltiples influencers, followers, selfies, likes.
En un caldo de cultivo semejante no es de extrañar que se hayan elevado voces de preocupación por los avances de la IA. En marzo de 2023, cientos de empresarios y presidentes de numerosas compañías tecnológicas junto a
intelectuales, académicos e investigadores especializados en la IA firmaron una carta abierta avisando del peligro de la falta de regulación de la IA, poniendo el foco sobre OpenAI. En la carta pedían una pausa de al menos seis meses en los experimentos más potentes, hasta que el mundo logre un consenso internacional que garantice que estos sistemas “sean más precisos, seguros, interpretables, transparentes, robustos, neutrales, confiables y leales”.
Dos meses más tarde, 350 ejecutivos de las principales empresas desarrolladoras de IA, académicos e investigadores expertos firmaban un nuevo manifiesto alertando de que una IA avanzada sin regular representa un peligro de extinción para la humanidad: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros riesgos a escala social como las pandemias y la guerra nuclear”. Entre los impulsores de esta petición se encontraba toda la plana mayor de OpenAI, el jefe de tecnología de Microsoft, el líder de Google DeepMind junto a 38 de sus ejecutivos, investigadores y profesores de universidad y representantes de tecnológicas más pequeñas como Anthropic, Stability AI o Inflection AI.
Tras el sorprendente viaje de ida y vuelta de Altman, también parece haber una carta, en este caso enviada por los investigadores senior de openAI a la dimitida junta directiva, en la que alertan de la potencial amenaza para la humanidad que podría suponer Q*, el nuevo proyecto en el que están trabajando. Si bien no han trascendido los detalles de la carta ni tampoco del proyecto, se sabe que openAI está trabajando en una nueva red profunda que incorpora un algoritmo de aprendizaje por refuerzo denominado Q-learning basado en una función matemática llamada Q. La arquitectura de esta red la capacitaría para la resolución de problemas matemáticos complejos, lo que para algunos expertos supone un paso adelante en el camino hacia la IA general.
Combinada con la robótica, la IA abre la puerta a la utopía… o a la distopía. Entre sus múltiples amenazas se encuentran los severos problemas de disonancias cognitivo-emocionales que pueden llegar a provocar en una sociedad que, por inverosímil que parezca, ha comenzado a negar la evidencia científica. La interrelación continuada con máquinas muy potentes, capaces de proveer aquello que necesitamos sin apenas mediar esfuerzo, podría producir una involución intelectual. También podría provocar deficiencias en nuestras habilidades para las relaciones interpersonales si llegase a resultar más cómodo la interacción con una máquina-esclava que con otro ser humano, con sus propias demandas y necesidades.
La IA también afronta numerosos desafíos éticos. Hay un peligro latente en los datos utilizados para los entrenamientos si hay sectores sociales y/o ámbitos geográficos que estén infrarrepresentados, sesgos indeseables que la IA potenciará. También hay preocupaciones relativas a la asunción de responsabilidad y a la transparencia. Las redes neuronales pueden tomar decisiones que tengan un impacto significativo en la vida de las personas, pero por su propia arquitectura estas decisiones se toman en una caja negra, no se puede trazar cómo han llegado a cada resultado, lo que plantea severos dilemas éticos. Es en esta línea ética donde se enmarca el proyecto regulatorio de la UE, para prohibir la “identificación biométrica a distancia en tiempo real en espacios de acceso público” por parte de las autoridades, salvo que sea “estrictamente necesario», o utilizar la IA para explotar “las vulnerabilidades de grupos específicos de personas”.
A todos estos desafíos se suma el peligro de otros posibles usos malintencionados de la IA que escapen a la (aún inexistente o en fase de proyecto) regulación. Por ejemplo, sabemos que la IA está siendo una aliada imprescindible en la distorsión de la información que circula por las redes, manipulada hasta el extremo de generar auténticas “realidades de ficción”.
La irrupción de la IA también está trastornando el mercado laboral, una deriva que promete ser exponencial en este sistema ferozmente individualista que ha consagrado la propiedad como principal derecho. Todo tiene propietario, y la IA no será una excepción. Resulta evidente que la brecha entre la élite propietaria de las máquinas y el 99% restante irá haciéndose cada vez más honda, conduciéndonos a un futuro de ficción distópica en el que ese 99% restante estaría formado por ex trabajadores que habrían dejado de ser útiles para la élite, dueña de las máquinas y de todas las riquezas naturales del planeta. ¿Es esta la distopía para la que se están preparando los preppers multimillonarios de Silicon Valley?
Esta imagen tenebrosa contrasta con un escenario utópico donde el poder tecnológico estuviese ecuánimemente repartido, beneficiando a toda la humanidad. Liberados del trabajo, los humanos dispondríamos de todo nuestro tiempo para disfrutar de la naturaleza, del conocimiento, del arte, de las relaciones interpersonales…, de todo lo que nos hace humanos, que nunca podrá ser reemplazado por una máquina.
¿Nos dirigimos hacia una utopía o hacia una distopía?
En las actuales circunstancias está claro que caminamos derechos hacia la distopía, aunque un cambio radical del sistema político-económico-social-cultural actual podría permitirnos efectuar un giro de timón. Es muy importante señalar que este cambio resulta ser el mismo que el que se necesita con urgencia para afrontar, con un mínimo de garantías de éxito, la crisis climático-ambiental.
Ahora bien, aviso para navegantes: el nuevo sistema no puede ser diseñado e implementado exprofeso, así, sin más, pues los sistemas sólo se consolidan cuando emergen de manera natural del colectivo social. El cambio de sistema que necesitamos debe ir precedido de una profunda revolución del marco mental de la sociedad actual, una revolución que consiga reemplazar los antivalores que han sellado nuestra cultura como el egoísmo, la ambición, la soberbia o la odiosa cosificación de la vida, por valores como la compasión, la sinceridad, la humildad y la solidaridad. En definitiva, por los valores del amor, algo que jamás experimentará una máquina.
En tiempos de la IA resulta bastante obvio que la humanidad sólo tendrá futuro si dejamos de comportarnos como máquinas sin alma que compiten entre sí en un estrambótico empeño por acumular méritos monetizables, y reaprendemos a pensar, a sentir y a actuar como lo que somos, seres vivos de la especie sapiens.
¿Cuál sería tu elección?
Imagínate que eres un explorador espacial que se presenta voluntario a una misión que durará varios años. La agencia espacial garantiza que no te va a faltar absolutamente de nada durante todo el tiempo que dure. Se trata de una misión con la que has soñado durante mucho tiempo y para la que te has preparado a fondo, pero que plantea un enorme desafío: la soledad. Ha sido diseñada para una única persona, sin posibilidades de comunicación con la Tierra.
Para paliar la falta de compañía humana la agencia espacial te da a elegir entre dos acompañantes no-humanos. Uno es un robot biónico de última generación que simula a un humano casi a la perfección. No se trata de un robot entrenado para la resolución de problemas, para eso ya cuentas con los ordenadores de la nave, sino de un robot de compañía programado para mantener una conversación de alto nivel de cualquier tema: ciencia, literatura, filosofía, historia, poesía… Y no sólo eso: también es capaz de simular sentimientos, tanto por medio del lenguaje como a través de expresiones faciales y corporales tales como guiños o movimientos de cabeza y manos.
El otro acompañante no-humano es un bonobo muy bien educado, que entiende tu idioma y sabe expresarse tanto por medio del lenguaje de sordos como a través de una pizarra electrónica de lexigramas.
¿Qué compañía eliges? ¿La del robot programado para simular que es un humano? ¿O la del bonobo?
(A petición, en lugar del bonobo la compañía te permite llevar un perro, gato, loro… de tu elección).
No hay comentarios