Jaque a la democracia: los algoritmos y filtraciones en las redes
Esta semana ha sido noticia la comparecencia de Mark Zuckerberg en el Congreso de EE UU por el escándalo de las filtraciones en la red que creó y dirige, Facebook. El caso es grave: filtró datos a la compañía Cambridge Analytica para influir en los comportamientos de la gente a la hora de tomar decisiones tan trascendentales como votar a Trump o el Brexit, lo que confirma que el ‘monstruo’ anti democracia, libertad e intimidad ya habita entre nosotros. El pensador surcoreano Byung Chul-Han ha alertado del peligro que implica que el ser humano esté dejando “de ser un sujeto soberano para convertirse en un flujo de datos y en una unidad controlada”, “en el resultado de una operación algorítmica”.
Uno de los conceptos más empleados en los últimos años ha sido el de ‘Posverdad’, que la RAE define como “distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales”. Las técnicas de propaganda han sido utilizadas desde que existen estructuras de poder, pero no fue hasta la consolidación de los medios de comunicación de masas, en el s. XX, cuando el fenómeno adquirió una relevancia decisiva en la creación de conciencia social dirigida. Su uso se puso al servicio de contiendas bélicas, de movimientos autoritarios y finalmente se generalizó en todos los órdenes, incluido el comercial a través de la publicidad.
Pero hace dos semanas, el mundo asistió atónito frente a la noticia de un hecho que elevaba las técnicas de persuasión hasta un extremo jamás sospechado: el escándalo de Cambridge Analytica. Una investigación conjunta de The New York Times y The Observer desvelaba que esta compañía había influido decisivamente en los triunfos de Donald Trump y del Brexit. Su tarjeta de presentación en Internet tampoco disimulaba: “Proporcionamos datos, análisis y estrategia a gobiernos y organizaciones militares en todo el mundo. Durante 25 años hemos conducido programas de modificación del comportamiento en más de 60 países». El éxito del marketing de Cambridge Analytica se basa en una combinación de tres elementos: ciencia del comportamiento, análisis de Big Data y publicidad orientada a las características del usuario.
En noviembre de 2015, uno de los frentes más radicales en favor del Brexit, Leave.EU, anunciaba que había encargado a esta empresa su campaña online. Pero la participación en el referéndum británico no suponía más que una piedra de toque para su verdadero objetivo: las elecciones a la presidencia de Estados Unidos en 2016. A la postre, su máximo accionista es el multimillonario ultraconservador Robert Mercer y en su consejo de Administración se sienta el por entonces director de campaña electoral del actual presidente, el polémico Steve Bannon. Tras las elecciones norteamericanas, el CEO de Cambridge Analytica, Alexander Nix, confesaba: “Estamos encantados de que nuestro revolucionario método de comunicación, basado en datos, haya jugado un papel tan importante en la extraordinaria victoria del presidente electo Donald Trump”.
Pero lo más siniestro del asunto era el origen ilícito de los más de 50 millones de perfiles de usuarios de Facebook de los que se valió la compañía para llevar a cabo su cometido. Para comprender la génesis de dicha sustracción, así como las pautas del exitoso método, hay que remontarse a 2008, cuando Michal Kosinski consiguió crear -como parte de su doctorado en el Centro de Psicometría de la Universidad de Cambridge- un método para categorizar a personas en base a su perfil personal. El investigador conectó la información de los usuarios de Facebook –obtenida mediante un test voluntario- con el modelo OCEAN, que evalúa a los seres humanos a partir de cinco rasgos de personalidad conocidos como Big Five: Apertura al cambio, Responsabilidad, Extroversión, Amabilidad e Irritabilidad. A través de un análisis combinado de estos rasgos y de los datos extraídos de la red social, se podía determinar con bastante precisión el perfil psicológico de cada individuo hasta el punto de poder descifrar aspectos tan íntimos como su orientación sexual, política y religiosa, su inteligencia, su propensión a la adicción o su estado civil. Nada más publicar sus resultados, Kosinski fue reclutado por Facebook.
En 2013, Aleksandr Kogan, un profesor de la Universidad de Cambridge, que había participado en el proyecto original de Kosinski, desarrolló una app en la que invitaba a los usuarios de Facebook a descubrir su personalidad a cambio no solo de un permiso para acceder a su información personal, sino también a la de todos sus contactos. Las 265.000 personas que accedieron al test permitieron el acceso a los perfiles de más del 15% de la población de Estados Unidos, perfiles que el investigador vendió a Cambridge Analytica, violando así la política de privacidad de Facebook.
Ese factor permitió, según confensó Christopher Wylie –ex trabajador arrepentido de Cambridge Analytica-, conocer el tema, el tono y hasta el lenguaje que debía usarse con cada votante americano. La compañía dividió la población en 32 tipos de personalidades y se enfocó en sólo 17 Estados. Los voluntarios de Trump disponían de una aplicación móvil -que también se usó durante el Brexit– para identificar las viviendas con personas receptivas a sus mensajes y con el guión particular que debían utilizar en cada caso. En Facebook, los votantes recibían, del mismo modo, un anuncio particular en función de su patrón. Las constantes contradicciones de Trump durante la campaña –según Alexander Nix– estuvieron en correlación con las diversidad de perfiles que tenían categorizados. “Prácticamente cada mensaje de Trump fue diseñado por el análisis de los datos”, aseguró el CEO de Cambridge Analytica.
Para entonces, Kosinski ya era consciente del alcance que podía tener su trabajo científico y advertía que “podía suponer una amenaza para el bienestar, libertad e incluso para la vida del individuo”. Pero el riesgo no se limitaba a su Trabajo, sino a la tecnología, los modelos de negocio y las estructuras que estamos creando con un poder de influencia como nunca antes se había dado en la historia.
Big Data es el proceso de recolección y procesamiento de grandes cantidades de datos para encontrar patrones recurrentes. Si nos preguntásemos cuánto sabe la red sobre cada uno de nosotros la respuesta sería que casi todo. Más allá, por descontado, de nuestros datos oficiales, cada compra que hacemos con nuestras tarjetas en Amazon, cada búsqueda que hacemos en Google, cada “me gusta” que pulsamos en Facebook, cada interacción en Twitter y otras redes sociales, cada fotografía que almacenamos en el ordenador o en el móvil, cada sitio y la hora a la que vamos con nuestro teléfono encima, las palabras que utilizamos en dichas plataformas, en correos electrónicos o chats, la música que escuchamos, las descargas que realizamos y una lista interminable de otros conceptos, son recopilados en cookies compartidas y posteriormente, organizados en grandes matrices, con incuantificables columnas y filas, cuyos datos, a su vez, se cruzan entre sí y con los de otros usuarios, por medio de algoritmos que generan nueva información que hasta la propia persona desconoce de sí misma.
Esta tecnología también permite discriminar la información a la que tenemos acceso. La mayoría de noticias en Internet nos llegan por medio de las redes sociales. Y ellas eligen lo que vemos y lo que no. Facebook organiza algoritmicamente las publicaciones que tus amigos publican o de las páginas que sigues. No te lo muestra cronológicamente, sino de la forma que el algoritmo cree que puede convencerte para que permanezcas más tiempo en la web o en función del criterio que crea conveniente.
Algunas voces, no obstante, relativizan los posibles efectos adversos de estas técnicas de persuasión comercial y política. Nadie te obliga a utilizar un medio digital, sostienen. La normativa de uso de datos y privacidad de estas compañías es pública y generalmente requiere de tu aceptación. Los métodos de segmentación del mercado, por otro lado, no solo son habituales en el marketing sino que tienen una finalidad positiva: ofrecer a los usuarios publicidad o contenidos que les resulten útiles y relevantes. Y el uso electoral se encuadra en esta misma línea de targeting o personalización. Se trata de localizar al votante más proclive y tratar de convencerlo, mediante cualquier ardid, circunstancia inherente a la política desde los tiempos de la antigua Grecia.
Frente a estas tesis, habría que recordar que Sócrates, Platón y Aristóteles elaboraron sus filosofías precisamente en confrontación con los sofistas, que manipulaban a la muchedumbre. Platón advirtió en los diálogos de Gorgias y Fedro sobre la existencia de una mala retórica. Aristóteles también alertó de los aduladores del pueblo, que al hacerse con el poder, reincidían en los mismos vicios que la tiranía. No es de recibo, por tanto, admitir el engaño en la política, ni con argumentos historicistas, ni en virtud de una interpretación mercantil de la misma. Pero es que además, el escenario actual, desde una óptica meramente comercial, tampoco se limita a la tradicional orientación de la venta en función de parámetros demográficos globales (edad, género, origen, raza…), sino a un conocimiento microscópico de cada individuo que otorga, al que lo posee, de un poder casi omnímodo.
Hasta ahora, si una institución intentaba condicionarnos emocionalmente, podía afectarnos, pero lo sabíamos y ofrecíamos resistencia. Pero si hay gente con la capacidad de identificarnos y categorizarnos con suma precisión y, en función de ello, influirnos e incitar nuestro comportamiento -sin que tengamos conocimiento de ello-, aplicando arquitecturas de persuasión a gran escala, pudiendo determinar incluso la información que nos llega individualmente, estaremos por completo a su merced. El pensador surcoreano Byung Chul-Han asegura: “Lo que llamo cambio dataísta, implica que el hombre deja de ser un sujeto soberano para convertirse en un flujo de datos y en una unidad controlada. Evidentemente, deja de ser soberano para transformarse en el resultado de una operación algorítmica”.
Es necesario evitar la opacidad y falta de transparencia de los algoritmos con los que se opera. Hay que regular estrictamente el uso de la información personal que se está recopilando comercial y electoralmente. Y, sobre todo, concienciar a todo el mundo del uso de estos procesos, de las consecuencias que pueden acarrear y de las alternativas para evitarlas.
No hay comentarios