Si diéramos por ciertas las noticias falsas que han circulado en el último año y medio, tendríamos que reescribir la historia de la pandemia del nuevo coronavirus. Podría resultar algo así: ‘el virus Sars-CoV-2 fue creado de forma secreta en un laboratorio en Wuhan, China, por medio de manipulación genética. No está claro si escapó accidentalmente o fue liberado como una estrategia política del Gobierno chino’.
‘Millones de personas fallecieron a pesar de la disponibilidad de tratamientos básicos, baratos y accesibles para todos: gárgaras con metanol, hidroxicloroquina, ivermectina y varios antibióticos tradicionales. El multimillonario y creador de Microsoft, Bill Gates, aprovechó el caos global y la aparición de vacunas para lanzar cápsulas implantables en humanos con certificados digitales que pueden mostrar quién ha sido infectado por coronavirus y quién ha sido vacunado’.
Es difícil arriesgar una cifra del número de noticias falsas que circularon durante la pandemia. Si les creemos a los pocos datos que revelaron los ejecutivos de Facebook, luego de ser señalados por el presidente Joe Biden de “estar matando gente” por la desinformación, esta plataforma eliminó más de 18 millones de casos de información errónea sobre el covid-19, al tiempo que etiquetó y redujo la visibilidad de más de 167 millones de piezas desacreditadas sobre el coronavirus.
(Vea también: Aristóteles fue un Platón con el filtro del sentido común).
Esto es apenas la punta del iceberg de la infodemia, de la epidemia de desinformación que se extiende por el mundo, y que la Organización Mundial de la Salud define como una “sobreabundancia de información, algunas precisas y otras no, que dificultan que las personas encuentren fuentes confiables y orientación confiable cuando sea necesario”. De ahí que la revista The Lancet, en agosto de 2020, planteara la necesidad de una nueva ciencia capaz de dar cuenta de este fenómeno. Una infodemiología, la bautizaban. Tarea que varios científicos en el mundo ya llevan adelantada.
Una nueva ciencia
En la Universidad de Indiana, el director del Observatorio de Redes Sociales, el profesor Filippo Menczer, se interesó por la distorsión que creaban estas plataformas hace casi una década. Al teléfono se nota al instante su acento italiano. Menczer se graduó de físico en la Universidad Sapienza de Roma y luego obtuvo un doctorado en Ciencias de la Computación en la Universidad de California en San Diego.
Uno de los primeros trabajos en los que se aventuró fue un experimento dentro de la propia comunidad universitaria en el que descubrió que 72 por ciento de los estudiantes confiaban ciegamente en enlaces que parecían provenir de amigos, incluso hasta el punto de ingresar información personal de inicio de sesión en sitios de phishing (robo de datos).
Ese dato lo llevó a diseñar un experimento sencillo. Creó una página web con información falsa. También incluyó la posibilidad de recibir publicidad. “A fin de mes recibí un cheque por correo con las ganancias de los anuncios. Esa fue mi prueba: las noticias falsas pueden hacer dinero contaminando internet con falsedades”, contaría más tarde.
(Vea también: ‘La imagen y la elevación de mujer dan pie a furias y rabias’).
A partir de ahí comenzó a analizar datos a gran escala. En 2011 reveló cómo republicanos y demócratas en Estados Unidos vivían atrapados en burbujas, cámaras de eco, en las que los usuarios solo interactuaban y compartían la información con usuarios similares. Noticias de un tribalismo favorecido por algoritmos que los dueños de las plataformas no estaban tan dispuestos a aceptar por las implicaciones sobre su reputación y negocio.
“A lo largo de esta última década hemos visto que algunas de las plataformas intentan controlar los abusos que se presentan en diferentes niveles, pero también hemos visto que las estrategias de manipulación son cada vez más sofisticadas. Existe un mercado para comprar likes, seguidores falsos y aplicaciones para que los usuarios pongan sus cuentas al servicio de campañas de desinformación. Los bots se hacen más sofisticados y borran sus propios contenidos”, cuenta Menczer.
Diversas investigaciones lo han llevado a reunir en tres grupos los sesgos que nos tienen metidos en este ‘despelote’.
(Vea también: Buscalibre: de intercambio informal de libros a megalibrería).
Hemos visto que algunas plataformas intentan controlar los abusos que se presentan en diferentes niveles, pero también hemos visto que las estrategias de manipulación son cada vez más sofisticadas
El primer grupo corresponde a los sesgos mentales. Nuestro cerebro no evolucionó para interactuar con este tipo de tecnología. Nuestro cerebro está diseñado para manejar una cantidad finita de información, para interacciones directas con otros humanos, y demasiados estímulos entrantes pueden causar una sobrecarga de información.
El otro grupo de sesgos está dado por la forma en que funciona nuestra sociedad. Son los prejuicios sociales los que por lo general guían la manera en que elegimos amigos y referentes. En otras palabras, esas ‘burbujas’ en redes sociales son también un reflejo de las ‘burbujas’ que creamos al conformar grupos.
Por último, están los sesgos en los algoritmos que gobiernan las redes. Solo en Twitter cada día se generan más de 500 millones de mensajes. Son 6.000 tuits por segundo. ¿Quién escoge qué vemos cada uno de los usuarios? Un algoritmo diseñado por los mismos humanos llenos de sesgos mentales y prejuicios sociales. ¿Resultado? En otra investigación, Menczer y sus colegas demostraron que las plataformas de redes sociales exponen a los usuarios a un conjunto de fuentes menos diverso que los sitios que no son redes sociales como Wikipedia: “Lo llamamos sesgo de homogeneidad”, dice. “Otro ingrediente importante de las redes sociales es la información que está en tendencia en la plataforma, de acuerdo con lo que recibe la mayor cantidad de clics. A esto lo llamamos sesgo de popularidad”, explica.
(Vea también: Vargas Llosa habla por primera vez del horror que fue vivir el covid-19).
Durante la pandemia, por ejemplo, la información errónea relacionada con la salud atrajo cuatro veces más tráfico que las fuentes oficiales, según lo estableció un informe de la organización Avaaz, que promueve el activismo ciudadano.
Y un trabajo publicado en 2018 liderado por Soroush Vosoughi, del Instituto Tecnológico de Massachusetts, tras analizar cerca de 126.000 noticias verificadas, verdaderas y falsas, compartidas por más de tres millones de personas en Twitter de 2006 a 2017, concluyó que la información falsa “se difundió significativamente más lejos, más rápido, más profundo y más ampliamente que la verdad en todas las categorías de información”. Una cifra lo dice todo: el 1 por ciento superior de la cascada de noticias falsas se difundió entre 1.000 y 100.000 personas, mientras que la verdad rara vez se difundió a más de 1.000 personas.
Quizás una de las conclusiones más pesimistas del trabajo de Menczer y su grupo es que hemos creado un sistema para comunicarnos, las redes sociales, en las que la calidad no es el criterio que determina la dispersión de la información. Lo que se viraliza es simplemente una consecuencia estadística de la proliferación de información en una red social de usuarios con poca atención.
(Vea también: Elon Musk: acuerdo de compra de Twitter se suspende temporalmente).
Otro ingrediente importante de las redes sociales es la información que está en tendencia en la plataforma, de acuerdo con lo que recibe la mayor cantidad de clics
En enero de 2020 se estrenó el documental ‘El dilema de las redes sociales’ (The Social Dilemma), dirigido por Jeff Orlowski. Un buen baño de realidad para los ingenuos frente a este tema. “Hay dos industrias que llaman a sus clientes usuarios: la de las drogas ilegales y la del software”, nos dice el narrador en uno de los momentos más reveladores de este documental que expone cómo las redes sociales interactúan de forma perversa con nuestras emociones y comportamiento mientras las compañías ganan toneladas de dinero. “Creamos un sistema que privilegia la información falsa (…) porque la información falsa rinde más dinero a las empresas que la verdad”, dice otro de los entrevistados. “La verdad es aburrida”, afirma uno más.
“La única forma que veo de combatir ese problema es reduciendo el volumen de información. Añadir fricción. Desde que comenzó internet hay una gran tendencia a reducir el precio de generar contenido”, apunta Menczer.
Un problema al querer “añadir fricción” al sistema es el riesgo de crear modelos que ocasionen censura. Que el remedio resulte peor que la enfermedad como suele pasar. “Creo que hay mucho que pensar sobre la fricción que debemos poner –reflexiona Menczer–. La verdad es que ni la tecnología que tenemos ni las estrategias con humanos verificando datos funcionan a la escala y con la precisión que se necesita”.
(Vea también: Tras confusión creada por Musk, Twitter cae el 10 % en Wall Street).
Un algoritmo desaforado
Thomas Hills es psicólogo e investigador de la Universidad de Warwick en Inglaterra. Se involucró en el estudio de la desinformación porque, dice con algo de desparpajo, era una consecuencia inevitable de su interés por explorar “lo que ocurre dentro como fuera de nuestras cabezas”.
Es precavido a la hora de sacar conclusiones sobre la infodemia: “Sí, es cierto que la proliferación de información puede devaluar la información y puede llevarnos por mal camino. Pero tener más información también puede permitirnos pensar cosas nuevas, conectar nuevas ideas e incluso nuevas formas de entender viejos problemas”.
Algo similar advierte sobre el asunto de los sesgos mentales y los prejuicios sociales. Como todo en biología, hay una contracara: “La mayoría de nuestros prejuicios mentales están ahí por una razón. Tendemos a creer lo que nos dicen nuestras familias, tendemos a creer lo que nos dice nuestro grupo, tendemos a creer en las personas que nos han ayudado en el pasado”.
(Vea también: Cuando la electrónica desconfía del piloto).
La proliferación de información puede devaluarla y llevarnos por mal camino. Pero también puede permitirnos pensar cosas nuevas, conectar ideas e incluso nuevas formas de entender viejos problemas
Recientemente Hills se embarcó en un proyecto para rastrear las teorías de conspiración y descifrar sus lenguajes. El nombre del proyecto no podía ser más apropiado: ‘Loco’. Aplicando una batería de herramientas digitales, rastrearon casi cien mil documentos con un total de ochenta y ocho millones de palabras.
En 2013 se estimó que más del 50 % de la población de EE. UU. creía en al menos una de estas locas teorías. Y las consecuencias asociadas con la circulación de tales teorías no son triviales, advierte Hills. Pueden desembocar en menores tasas de vacunación, pero también en rechazo a políticas de protección ambiental, reducción de la protección contra enfermedades de transmisión sexual, desconfianza general, alienación política y hasta justificaciones de la violencia.
“Todavía no entendemos cuánta información se necesita para influir en el comportamiento de las personas”, dice Hills. Esa es justamente la cuestión que sueña con responder. “La pregunta es cuánto importa y cuánto se necesita para marcar la diferencia. Si una sola mentira desestabiliza a un país, entonces tenemos un problema”, insiste Hills.
(Vea también: El innovador y exitoso método nórdico para acabar con el acoso escolar).
¿Soluciones?
En un ensayo sobre desinformación, Whitney Phillips, profesora de Comunicación, Cultura y Tecnologías Digitales en la Universidad de Syracuse (EE. UU.), resaltaba la tarea de reinventar los esfuerzos de alfabetización mediática, especialmente en las aulas. Escribía que “para tener éxito, y probablemente para ayudar a restaurar la confianza, estos esfuerzos no deben tapar nuestros sesgos cognitivos. En cambio, deben hacer de esos sesgos una lección objetiva”.
Hills coincide en que la solución está en la educación: “La educación es siempre la respuesta. Si no podemos enseñar a las personas cómo comprender mejor su mundo e interactuar con él, tratar de controlar la información será como intentar controlar las drogas ilegales”.
Mientras encontramos una salida al problema de la desinformación, o al menos herramientas para contenerla, no hay que olvidar lo que dijo Jesús de Nazareth: “No crea todo lo que lee en internet”.
PABLO CORREA TORRES
@pcorrea78
(*) La REVISTA ‘PUNTOS’ es una publicación de la Universidad de los Andes.
Más noticias A fondo
-Caída de las criptomonedas vuelve a generar críticas frente a su futuro
-WhatsApp: así puede saber si clonaron sus conversaciones
–Educación ‘híbrida’ y sin temor a la pantalla: nueva meta de Iberoamérica