Inteligencia Artificial: Cómo colocarla en su sitio
A menudo el momento social que vivimos tiende a llevarnos a polarizaciones y enfrentamientos dicotómicos (conmigo o contra mí); lejos de eso, deberíamos buscar los lugares comunes de entendimiento. Uno de los últimos debates que se plantea en estos términos es ‘ecología vs tecnología’. Debate que se ha disparado en torno a la Inteligencia Artificial. No la veamos ni como el ángel de la guarda, pero tampoco como el ángel exterminador. Ahora se precisa más que nunca una adecuada alfabetización digital dirigida a todas las franjas de edad de la sociedad para colocarla en su sitio y que nos reporte más beneficios que fatigas.
Si bien la tecnología tiene un gran coste ambiental y entraña ciertos peligros, no es solo por la producción en sí misma, sino también en tanto en cuanto se pasa del uso al abuso; por eso hablamos de adicciones digitales, adicciones a la redes sociales, pantallitis o uso compulsivo de los terminales telefónicos.
Una adecuada alfabetización digital y ecoalfabetización dirigida a todas las franjas de edad de la sociedad ayudaría, por una parte, a mejorar la vida de las personas, pudiendo hacer un uso efectivo de la tecnología y no un uso compulsivo, y, por otro lado, a reducir el coste ambiental que del uso de la tecnología se deriva. Este último no deviene solamente por la producción de dispositivos, sino también por la constante energía que se requiere para mantener baterías o los datos que almacenamos en la nube. La nube, aparentemente inocua y etérea, requiere de constante energía para almacenar datos y para refrigerar sus sistemas de almacenamiento. No obstante, no estamos ante un alegato antitecnología. La solución no puede ser vivir sin ella, pues nos llevaría a un retroceso en muchas áreas de la vida; pero vivir con ella, si no hay un acompañamiento educativo y un uso consciente, puede conllevar más contras que pros.
Recordemos esos espacios comunes de encuentro a los que hacía referencia y pongamos sobre la mesa que la tecnología es el robot que interviene en operaciones quirúrgicas cada vez menos invasivas, o que nos permite el ahorro de agua mediante la programación o sensores para establecer un riego eficiente; tecnología es también el uso de la inteligencia artificial para prevenir enfermedades o realizar diagnósticos más precisos. De la tecnología derivan muchas virtudes y bondades que han mejorado nuestras vidas, eso es indiscutible, pero obviar riesgos o la cara insostenible resulta irresponsable.
Si en algo somos expertos los humanos es en experimentar con aquello que se pone de moda, aunque sea a ciegas. Y ha surgido algo en tecnología que se lleva la palma en la actualidad respecto a riesgos y consumo de energía: la Inteligencia Artificial. Algo no tan novedoso, pues ya Turing en la 2ª Guerra Mundial mostraba conexión con ella, aunque no sería hasta 1950 cuando John McCarthy acuñase el término. Pero el boom de la IA generativa llega en noviembre de 2022, cuando OpenAI presentó su ChatGPT. Millones de personas se convierten en usuarias de esta tecnología desconociendo su funcionamiento, y la propia denominación (inteligencia artificial) parece aproximarnos más a una distopía de Isaac Asimov que al verdadero funcionamiento de estas herramientas.
Echemos un cable a tierra para andar por casa y conocer así cómo no sólo no hay magia en la IA, sino que además entraña peligros en función de su uso.
La inteligencia artificial es entrenada y una de sus formas de entrenamiento es mediante el Procesamiento del Lenguaje Natural (NLP), rama de la IA que se ocupa de la interacción de las máquinas con las personas; el objetivo es conseguir que las máquinas entiendan, interpreten y generen texto y voz lo más parecido al lenguaje humano (Hola Siri, Alexa pon las noticias). De forma resumida, este proceso se lleva a cabo mediante lematización (reducir las palabras a su raíz para establecer relaciones semánticas) y tokenización (introducir signos de puntuación, caracteres, etc…). A mayor número de tokens y lemas introducidos, más fácil es para el algoritmo establecer relaciones y construir un texto siguiendo patrones lingüísticos. Así pues, no hay magia, hay entrenamiento.
Información sesgada
Si la IA fuese completamente artificial, sería neutra, no tendría sesgo de ningún tipo, pero es precisamente por el hecho de ser entrenada por humanos lo que no la hace imparcial. Si los datos que se introducen por humanos tienen sesgo, la IA nos devuelve información sesgada. ¿Sesgo de qué tipo? Podríamos resumirlo en sesgo no inclusivo: sesgo racial, de género, cultural, sexual, económico… Uno de los casos más famosos saltó por la red social X (cuando todavía era Twitter), la cual había hecho un recorte automático de imágenes y se favorecían más los rostros de los hombres blancos. MIT Media Lab, del Instituto de Tecnología de Massachusetts (MIT) publicaba precisamente el resultado de un estudio sobre los sesgos de género llevados a cabo entre 2017 y 2020, y cuya publicación iba encabezada por un párrafo reivindicativo en este aspecto: “Corremos el riesgo de perder los logros obtenidos con el movimiento de derechos civiles y el movimiento de mujeres bajo el falso supuesto de neutralidad de las máquinas. Los sistemas automatizados no son inherentemente neutrales. Reflejan las prioridades, preferencias y prejuicios (la mirada codificada) de quienes tienen el poder de moldear la inteligencia artificial”.
OpenAI trabajó intensamente en 2022 para que el contenido de ChatGPT fuese menos tóxico, un buen gesto si no hubiese sido desarrollado mediante la explotación de trabajadores keniatas a los que pagaba menos de 2 dólares la hora y cuyo caso fue publicado por la revista TIME.
No obstante, estas herramientas de IA generativa no dejan de ofrecer mejoras constantes y pueden resultar muy eficientes en muchas tareas, como la elaboración de resúmenes o la producción de documentación mecánica, como la que se requiere en procesos burocráticos, pero siguen presentando muchas preguntas éticas, no solo sobre el sesgo, sino también sobre la obtención de datos y quién custodia esos datos, que se toman muchas veces incluso de redes sociales. Meta (WhatsApp, Instagram, Facebook, Threads…) anunciaba que desde el 26 de junio de este año se usarían los datos de las personas usuarias de las redes sociales para entrenar su IA. Estos datos pueden ir desde el almacenamiento de rango de edades y creación de prototipos o patrones de personas, al almacenamiento de datos médicos (datos médicos que podrían servir en el futuro para determinar si una compañía de seguros médicos acepta o no a la persona usuaria contratante, por ejemplo).
Las herramientas de IA también han irrumpido en el mundo educativo, no solo para el uso por parte de docentes, sino también como herramientas didácticas; esto puede implicar trasladar estas cuestiones éticas al mundo educativo y a la custodia de los datos del alumnado. Y si bien la Unión Europea trabaja precisamente en esa vía, el empleo de la IA requiere al menos de unos minutos de reflexión sobre cómo se usa, para quién, con qué objetivo, tanto en su uso privado o social como en el profesional, y concretamente en ámbitos con menores de edad.
Desde la perspectiva educativa, antes de introducir cualquier herramienta pedagógica, debemos valorar los pros y los contras, pero sobre todo conocer bien ese recurso y los objetivos que con su uso se persiguen. Asistimos en educación a una explosión del uso de la Inteligencia Artificial, que muchas veces se emplea por novedosa sin tener en cuenta otros aspectos; por eso considero muy oportuna y necesaria la publicación hecha por el INTEF (Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado) que a continuación os comparto: ‘Guía sobre el uso de la inteligencia artificial en el ámbito educativo’. Por su parte, en este mismo ámbito, la UNESCO ha publicado marcos de referencia para docentes y alumnado.
Respecto a la cara sostenible, algunos datos sobre consumo energético, de agua y emisiones que nos pueden dar una idea: Por ejemplo, para el entrenamiento de GPT-3 se emitieron 552 toneladas de CO2 y su consumo de energía fue de 1287 MWh; o sea, lo que consumiría una hogar medio estadounidense durante 120 años, según un artículo científico escrito por autores de Google y de la Universidad de Berkeley. La herramienta de código abierto llamada Carbontracker permitió a la Universidad de Copenhague calcular que entrenar a GPT-3 de OpenAI equivale a las emisiones de 700.000 km de conducción. Los centros de datos de grandes empresas consumen una media de 25 millones de litros anuales de agua y los hipercentros pueden llegar a consumir 600 millones de litros y todo apunta a que el consumo creciente de agua para refrigerar los centros de almacenamientos de datos se debe al incremento de uso de la IA. Socialmente, muchas personas usuarias han pasado de emplear un motor de búsqueda de mayor sencillez (Google, GoGoDuck, Ecosia, etc…) a plantear las preguntas directamente en herramientas de IA, lo que multiplica el coste energético del uso de la tecnología.
En definitiva, aprovechar las caras positivas de la tecnología es beneficiarse de los avances en los tiempos que vivimos y que nos permiten mejorar nuestras vidas, pero hacer un uso eficiente y consciente de la tecnología, y mantener el espíritu crítico es responsabilidad común para una ciudadanía digitalmente competente y con conciencia ambiental y social.
No hay comentarios