¿Cuántos bots hay en Twitter? Elon Musk, el extravagante CEO de Tesla, sorprendió al mundo cuando hizo pública su intención de comprar la totalidad de la compañía. Aún más escandalosa fue su exigencia: saber cuántas son las cuentas falsas en la red social antes de cerrar el trato.
Históricamente, la plataforma ha manifestado que estas no superan el 5% del total de quienes participan en la red. Pero, ¿cómo es posible identificar cuáles y cuántos son estos usuarios? A diferencia de los conocidos trolls de internet, los bots se caracterizan por poseer un grado de automatización, es decir, pueden funcionar sin que un humano esté controlando todas sus acciones. Solo necesitan de un algoritmo que estructure su actuar y listo, comenzarán a funcionar.
Hasta hace unos años sus funcionalidades se encasillaban en respuestas predeterminadas ante estímulos concretos. No hacían mucho: seguían, ponían likes, escribían respuestas en Twitter, YouTube y Facebook que eran copiadas unos con otros. Se volvieron importantes para aumentar el número de seguidores, especialmente para influencers en Instagram, que trabajan con marcas dependiendo de la cantidad de personas que los siguen. Un ejemplo claro son los chats mecanizados de servicio al cliente, mas su utilidad no tardó en evolucionar. La pieza clave: la inteligencia artificial.
Si ya los algoritmos detrás de los bots se habían sofisticado, la llegada de la tecnología I.A. elevó el reto, proponiendo que estos sistemas vayan aprendiendo a medida que se relacionan con otros robots o con humanos. Así, los nuevos bots tiene perfiles más “reales”, con imágenes robadas de internet, además de nuevos comportamientos, cómo seguirse o interactuar entre ellos. Creando la ilusión de ser humanos publicando contenido, se han vuelto un peligro especialmente en Twitter, donde son capaces de leer qué es tendencia y publicar numerosos tweets para provocar que llegue un tema a ser TT.
Los bots actuales son mucho más inteligentes: con aprendizaje automatizado, crean imágenes de perfil gracias a la tecnología deep fake. Pero aún pueden ser detectados, porque suelen repetir patrones y comentarios. Eso sí, en la industria dividen entre los que llaman “bots buenos” de los “malos”: los primeros son de empresas que han digitalizado sus respuestas en Twitter, para optimizar recursos, llamados chatbots.
La herramienta de auditoría de Twitter SparkToro afirma que la cifra de bots podría elevarse a casi el 20%. El estudio se realizó del 13 al 15 de mayo de 2022, tomando una muestra de 44.058 cuentas públicas activas de Twitter en los últimos 90 días. Las cuentas fueron seleccionadas al azar, entre más de 130 millones de perfiles activos públicos, encontrando que 19,42% de estas cuentas son bots o falsas, lo que representa casi cuatro veces la estimación del cuarto trimestre de 2021 de Twitter.
Chile es uno de los países que más usa la web como fuente de información. El último estudio del Observatorio de Política y Redes Sociales de la Universidad Central concluye que “las redes sociales por primera vez superan a la televisión en confianza noticiosa”. Esa fue una de las razones que motivó al desarrollador Tomás Pollak a crear una herramienta que permitiera identificar cuáles son las cuentas falsas escondidas entre los comentarios.
Para Pollak, el Estallido Social fue el momento clave, donde la irrupción de los bots fue notoria. “Llevo más de 10 años leyendo Twitter, he sido testigo de cómo la información ha empezado a estar manipulada y agregan arbitrariamente temas que quieren poner en agenda”, señala.
Más sobre Piensa Digital
Fue a inicios de año cuando, diagnosticado con Covid-19, decidió usar su tiempo de cuarentena y desarrollar una extensión para navegadores: Quiet. La herramienta funciona señalando cuántas son las probabilidades de que un post provenga de una cuenta falsa. El algoritmo se basa en el desarrollado por el Observatorio de Social Media de la Universidad de Indiana. El programa funciona con tres indicadores: el tipo de contenido que genera, la antigüedad del perfil y sus conexiones, a quiénes sigue y quién lo sigue.
Pollak cree que por más que la inteligencia artificial avance, siempre existirán métodos para detectarla. “Nunca podrán escapar y es por eso que las pillamos, claramente hay una intención política, buscan tener rédito para sus partidos políticos extremistas, que son los únicos que se benefician con la polarización”, opina.
La académica e ingeniero civil de la Universidad de Chile, Jocelyn Simmonds, es tajante al decir que estos desarrollos, pensados en incidir en decisiones políticas y sociales, están en contra del buen quehacer de los programadores: “Como comunidad, tenemos un código de ética, eso sí, cuesta hacer la bajada en el pregrado, pero estamos haciendo el esfuerzo”. Para la docente, el dilema está en sobrerrepresentar ciertas opiniones o, de forma artificial, instalar temas como relevantes.
Los comentarios polémicos tienen prioridad en redes. Así lo dice el director del Núcleo Inteligencia Artificial y Sociedad, Lionel Brossi. Para él, esto se genera porque aquellas temáticas crean más interacción entre los usuarios y por eso destacan: “Aquellos contenidos que van a tener más engagement son los que los algoritmos van a priorizar”.
“Entonces, ahí está el peligro del modelo, cuando se centra en interacción y en atención por sobre el valor y el significado de los contenidos. También pasa con las noticias falsas, las que invitan a la gente a compartir más porque tienen este factor de espectacularidad”, explica.
Brossi cree cada vez más complicado reconocer dónde hay algoritmos detrás, y en qué parte ya está operando la inteligencia artificial, por eso la tarea ahora debe estar centrada en la alfabetización digital. “En el Centro IA nos dedicamos a abordar las problemáticas de la inteligencia artificial en relación la sociedad. Hace un tiempo hicimos una consultoría para Unicef, donde trabajamos con niños de todo Chile. Ellos nos exponían cuáles eran sus prácticas diarias informativas y a partir de eso comprender qué tan preparados estaban críticamente para poder detectar desinformación”, relata.
La sorpresa del académico fue cuando los jóvenes admitían que comprobaban la información con sus pares, porque dentro de su familia, eran los adultos quienes más creían en noticias falsas. “Los adolescentes tienen bastante consciencia crítica, en el sentido que saben que existe bastante desinformación en las redes. El tema es cómo les otorgamos las herramientas para que puedan comprender y detectar mejor la información de calidad. Entonces, se requiere una alfabetización constante y debe ser responsabilidad de la política pública del Gobierno”, concluye.
Lo cierto es que estas herramientas se están sofisticando y la inteligencia artificial afina cada imperfección con el paso del tiempo. Para Tomás Pollak, el panorama en el futuro no cambiará: “Claramente más del 5% de los usuarios en Twitter son bots, a mí me consta y es súper evidente. Aparte, es poco lo que quieren hacer, es una empresa que se tranza en la bolsa y los números son lo que importan: cantidad de cuentas activas y mensajes compartidos, interacción, cuánto tiempo de atención se le dedica a la plataforma. En el fondo, si de un día para otro se eliminaran todas estas cuentas, seguramente la red tendría mucho menos contenido”.