La constante demostración de que aún se necesita la moderación humana
Fuente: The Muffin por Mauricio Cabrera
Tiempos de conflictos armados que se extienden más de lo imaginado.
Tiempos de reacomodo geopolítico que aún no terminan de definirse.
Tiempos de plataformas que habiéndose presentado como carreteras de información han optado por emprender la retirada.
Y esta guerra en particular, la de Israel y Palestina, toma a las plataformas sociales desprevenidas, a los medios debilitados y a la sociedad polarizada.
A Meta lo toma con un desinterés marcado por seguir impulsando las noticias en su plataforma.
Hoy hay menos equipos humanos dedicados a la moderación de contenido en Meta.
Hoy hay menos interés por demostrar que lo que se publica en la plataforma es confiable.
Hoy hay reducciones de alcance y hasta baneos a medios que ocurren sin explicación previa.
Y hasta sin explicación posterior dado que los equipos locales han sido mayoritariamente recortados o incluso eliminados.
Hoy las prioridades pasan por el metaverso y por la inteligencia artificial.
Pasan más por el producto que por la calidad de las interacciones e informaciones sociales.
X es la peor versión que se conozca de Twitter.
El alcance ya no depende tanto de la veracidad de la información como del pago de una suscripción.
Los tiempos jugaron también en contra de X y de sus usuarios.
El conflicto armado entre Israel y Palestina ha escalado justo cuando a Elon Musk se le ha ocurrido eliminar los títulos/titulares de las notas para mejorar la estética de la plataforma.
El resultado ha sido catastrófico.
Los usuarios no tienen ni siquiera la posibilidad de identificar si el encabezado de una nota parece creíble.
La moderación en X es casi inexistente.
Y mientras tanto, como escribe Ryan Heath, las plataformas de inteligencia artificial en manos de gente con intereses políticos, económicos o de simple búsqueda de viralidad alimentan la desinformación.
Con IA o sin IA, la desinformación le está ganando a los hechos.
En Twitter se ha hecho viral una imagen falsa de Cristiano Ronaldo con la bandera de Palestina.
Se ha dado por verdadero un supuesto ataque de Hamas en Israel que en realidad es parte del videojuego Arma 3.
El mismo Arma 3 es el origen de un supuesto ataque israelí en Gaza.
Para cuando se detectó su falsedad, el video ya tenía más de 1.7 millones de views en TikTok.
Los cuestionamientos también alcanzan a TikTok.
No tanto por falta de moderación como del propio funcionamiento del algoritmo.
TikTok es una maquinaría de posiciones extremas.
Entre más espectacular y entretenido sea lo que se presenta, los creadores tendrán mejores resultados.
Es el binge-watching de la guerra sobre el que escribí cuando estalló la guerra entre Rusia y Ucrania.
Es la conversión de un hecho que amerita análisis y conocimiento profundo en un show en el que las bombas y las víctimas se convierten en protagonistas que alimentan el morbo.
Sara Frier en Bloomberg habla de cómo esta guerra representa el traslado definitivo de los medios sociales a los medios algorítmicos.
Esos en los que lo que encuentra un usuario no parte del seguimiento a determinados creadores que resultan de su confianza sino de las propias decisiones algorítmicas que toman las decisiones sobre qué es lo que ve una persona.
Pasamos de la decisión de un editor a la decisión de una persona sobre qué quiere ver en su feed.
Y de ahí al algoritmo.
A la inteligencia artificial tomando las decisiones por los seres humanos.
A la inteligencia artificial siendo la que determina qué es lo que debemos saber.
De un partido de futbol, de un cotilleo y hasta de una guerra.
El presente ecosistema de consumo informativo presenta oportunidades para los medios.
Es posible que tanta desinformación derive en un renovado interés por acercarse a las organizaciones periodísticas.
El problema pasa por llevar a que la sociedad desaprenda.
A que recuerde que años atrás había otra forma de consumir información.
El problema pasa también porque los medios estén listos como producto para ser algo más que un reflejo de lo que ocurre en las redes sociales.
La mayoría de los medios no es tan distinto a todo aquello que ahora podemos reprochar a los algoritmos de las redes sociales.
Ambos están buscando la espectacularidad de un contenido para despertar interés de la audiencia.
Ambos están pensando en cómo generar grandes métricas aunque sea a costa de la calidad de los contenidos.
En vez de ir en contra de la inercia del algoritmo, los medios se ciñeron a él para satisfacer a Google, a TikTok y a otras plataformas sociales.
No pasó mucho tiempo entre el estallido de la guerra en Ucrania y este episodio de extrema violencia entre Israel y Palestina, pero sí el suficiente para darnos cuenta de que estamos aún peor que entonces.
A la sociedad y a los medios los han dejado a su suerte.
Desde los gobiernos tendrían que venir programas de alfabetización mediática e informacional que preparen a la sociedad para un ecosistema tan peligroso como éste.
Desde los medios tendría que venir una reformulación sobre cómo han de actuar en tiempos en que se les necesita.
Pero se les necesita de una forma distinta.
No tanto para alimentar el bombo del breaking news como para explicar, contextualizar, orientar y educar a la audiencia.
Y aún si lo hacen, quedará pendiente recorrer el largo camino que como industria llevará recuperar la confianza de la audiencia.
La de Israel y Palestina es la primera guerra de la IA.
Las señales son preocupantes.
Y eso que aún no llegamos a la extrema sofisticación de sus capacidades.
Vamos, que aún es posible detectar ciertas fallas en las imágenes y videos creados vía inteligencia artificial.
Pero conforme esas líneas se diluyan, y sí que lo harán, como seres humanos tendremos aún más dificultades de diferenciar entre lo falso y lo verdadero.