En julio, Meta lanzó su nueva red social, Threads, en un intento de alejar a los usuarios de la asediada X de Musk. Pero, a diferencia de X, Threads ha evitado servir como agregador de noticias en tiempo real. La semana pasada, Adam Mosseri, director de Instagram y supervisor de Threads, anunció que la plataforma «no se interpondría en el camino» de los contenidos informativos, pero que tampoco iba a «amplificarlos». Y continuó: «Hacerlo sería demasiado arriesgado dada la madurez de la plataforma, los inconvenientes de prometer demasiado y lo que está en juego». He encontrado Threads más útil que X como fuente de noticias sobre la guerra entre Israel y Hamás. El ambiente es más tranquilo y pausado, y mi feed tiende a destacar las entradas que ya han atraído la participación de voces autorizadas. Pero también he visto a muchos periodistas en Threads quejándose de que recibían demasiadas recomendaciones algorítmicas y pocas publicaciones en tiempo real. Los usuarios de Threads tienen ahora la opción de cambiar a un feed organizado cronológicamente. Pero en la configuración por defecto que utiliza la mayoría de la gente, no hay garantía de que la plataforma muestre la información más reciente en un momento dado.
TikTok ha explicado las medidas que está adoptando para combatir los contenidos falsos sobre Israel y Hamás, entre ellas la asignación de personal que domine el hebreo y el árabe para revisar los vídeos. La empresa también colabora con organizaciones externas de verificación de hechos, como Agence France-Presse y Lead Stories. Pero eso no significa que TikTok asuma su papel de fuente de noticias. Un estudio reciente publicado por la revista New Media & Society concluye que la plataforma da a las noticias menos promoción algorítmica que a otros tipos de contenido. Los autores del estudio escribieron: «El algoritmo de la página For You no muestra prácticamente ningún contenido sobre noticias, ni siquiera cuando está preparado con señales de participación activa». (Según un representante de TikTok, su algoritmo trata de la misma manera todo el contenido verificado).
Mi experiencia anecdótica sugiere que el conflicto entre Israel y Hamás está llegando a los feeds de TikTok de forma diferente a como lo hizo la guerra de Ucrania. Hay menos vídeos en primera persona y más publicaciones verificadas. Los comentarios de los tertulianos son más frecuentes que los reportajes; los argumentos de opinión parecen tener más facilidad para encontrar promoción que la documentación directa, pero es difícil decirlo con seguridad dado que las fórmulas algorítmicas de las plataformas se mantienen en gran secreto. En X, he visto a muchos usuarios quejarse de que sus feeds parecen cada vez más parciales. «Entonces, ¿todo Twitter está a favor de Palestina o es sólo mi algoritmo?», se preguntaba un usuario. «El algoritmo de Instagram me muestra vídeos pro-Israel sin parar, como si quisiera hacerme cambiar de opinión», escribió otro. Los feeds predicen el material con el que es probable que interactúen los usuarios y se lo ofrecen hasta la saciedad. A medida que las recomendaciones automatizadas sustituyen a la elección del usuario, todos nos vemos empujados aún más hacia nuestras propias burbujas de filtros que se refuerzan a sí mismas.
Aunque las redes sociales ya no sirven como fuente de información verificada en tiempo real, siguen siendo un campo de batalla para influir en la opinión pública. Ya el 10 de octubre empezó a circular en X el espantoso rumor de que Hamás había decapitado a bebés israelíes. Cuando el presidente Biden hizo declaraciones sobre la guerra la semana pasada, dio a entender que había visto imágenes de tales atrocidades con sus propios ojos. Pero la Administración se retractó más tarde de los comentarios de Biden y el rumor quedó desmentido: Hamás había asesinado a bebés, pero no había pruebas de decapitaciones. El jueves, la cuenta X @Israel, que se identifica como «la cuenta oficial de Twitter del Estado de Israel» y que había promovido el rumor, publicó imágenes de cadáveres de bebés. A algunos usuarios de X se les sirvió el post como un anuncio, sugiriendo que la cuenta había pagado por promover el mensaje. ¿Cuenta un anuncio como auténtica noticia? Hay una especie de amargo absurdo en la forma en que se ha dejado que los usuarios determinen por sí mismos lo que es veraz, sin la guía de las plataformas. Si realmente existe una niebla de guerra algorítmica, las empresas tecnológicas parecen reacias a asumir la responsabilidad de disiparla.
Las nuevas normativas que fomentan la responsabilidad podrían tener un efecto amedrentador involuntario en la difusión de noticias en línea. En virtud de la Ley de Servicios Digitales de la Unión Europea, que entró en vigor en agosto, las redes sociales pueden ser sancionadas con multas de hasta el seis por ciento de sus ingresos globales por no moderar sus contenidos. La semana pasada, la Comisión Europea envió una carta a Musk y X en la que afirmaba que X «se está utilizando para difundir contenidos ilegales y desinformación en la UE» y solicitaba información sobre cómo estaba gestionando la plataforma el conflicto de Israel. La Ley de Noticias Online de Canadá, aprobada en junio, obliga a las plataformas digitales a compensar a las empresas de medios de comunicación por los contenidos que suministran. En respuesta, las plataformas de Meta han dejado de permitir a los usuarios de Canadá ver o compartir artículos de noticias en absoluto. En Estados Unidos, una propuesta similar de Ley de Competencia y Preservación del Periodismo ha llevado a Meta a amenazar con hacer lo mismo en ese país.
El conflicto entre Israel y Hamás sigue desarrollándose en las redes sociales. Nos inundan a diario con fragmentos brutales que muestran bolsas con cadáveres, edificios arrasados, el bombardeo de un hospital que dejó cientos de muertos. Ciertos clips virales se han convertido en emblemas de la crisis: un periodista de la BBC en Gaza descubre que sus amigos están en el hospital donde está informando y llora; un médico en un hospital israelí grita a un ministro visitante del partido Likud de Benjamin Netanyahu: «¡Lo has arruinado todo!». Nuestros feeds siguen creando una sensación de transparencia y granularidad, al tiempo que proporcionan menos de las señales que necesitamos para trazar un camino claro a través de la espesura de los contenidos. Lo que queda, quizás acertadamente, es una atmósfera de caos e incertidumbre mientras la guerra se despliega a diario en nuestras pantallas.
————————————————————
Fuente: