Una niebla de guerra impulsada por algoritmos

La guerra entre Israel y Hamás ha puesto de manifiesto con mayor urgencia los peligros de confiar en nuestros feeds para estar al día de los acontecimientos que se desarrollan en tiempo real. Nada existe, todo se construye, hasta los sagrados "hechos".

Cómo las redes sociales han renunciado a la responsabilidad de las noticias

Kyle Chayka

Tendencias en redes sociales para este 2018 - Hazboom
En febrero del año pasado, cuando Rusia enfrentó a Ucrania, el horror de la guerra se filtró al mundo a través de los vídeos generados por los usuarios en TikTok. Soldados ucranianos en el frente y civiles refugiados en sus casas publicaron vídeos que mostraban el avance de tanques, bloques de apartamentos bombardeados y paquetes de raciones entregados a las tropas. Tanto el volumen como la intimidad de las imágenes parecían no tener precedentes; el conflicto fue rápidamente bautizado como la «primera guerra de TikTok». Hace diez días, el estallido de violencia entre Hamás e Israel se convirtió en la segunda gran guerra de esa nueva era de los medios sociales. Pero las redes sociales han cambiado sorprendentemente en este año y medio. En las principales plataformas, nuestros feeds son fuentes menos fiables de noticias auténticas de origen colectivo de lo que nunca fueron -que no era mucho para empezar- debido a las decisiones tomadas por las propias plataformas.X, antes conocida como Twitter, bajo la propiedad de Elon Musk, ha desmantelado su personal de moderación de contenidos, ha limitado el alcance de las publicaciones de noticias y ha permitido a cualquier usuario comprar la verificación del «cheque azul», convirtiendo lo que antes se consideraba un distintivo de fiabilidad en la plataforma en una señal de apoyo al régimen de Musk. Facebook, de Meta, ha reducido al mínimo el número de artículos de noticias que aparecen en los feeds de los usuarios, tras años de polémica sobre el papel de la empresa en la difusión de desinformación. Y TikTok, sometida a un creciente escrutinio en Estados Unidos por la relación de su empresa matriz con el gobierno chino, se está distanciando de los contenidos sobre noticias. Hace poco más de una década, las redes sociales se anunciaron como una herramienta de transparencia a escala mundial por su capacidad para distribuir documentación sobre el terreno durante las revueltas que se conocieron como la Primavera Árabe. Ahora, las mismas plataformas parecen estar enturbiando los conflictos en lugar de aclararlos. En los días transcurridos desde los atentados de Hamás, hemos visto con nueva urgencia los peligros de confiar en nuestros feeds para estar al día de las noticias.Una «niebla de guerra impulsada algorítmicamente» es como un periodista describió el diluvio de desinformación e imágenes mal etiquetadas en X. Vídeos de un accidente de parapente en Corea del Sur en junio de este año, la guerra civil siria en 2014, y un videojuego de combate llamado Arma 3 han sido falsamente etiquetados como escenas de Israel o Gaza. (Las preguntas que envié a X fueron respondidas con un correo electrónico que decía: «Ocupado ahora, por favor vuelva más tarde»). El 8 de octubre, Musk publicó un tuit recomendando dos cuentas a las que seguir para obtener información sobre el conflicto, @WarMonitors y @sentdefender, ninguna de las cuales es una empresa formal de medios de comunicación, pero ambas son suscriptores de pago de X. Más tarde ese mismo día, después de que los usuarios señalaran que ambas cuentas publican falsedades con regularidad, Musk eliminó la recomendación. Mientras que Twitter fue en su día una de las plataformas digitales mejor moderadas, X es más fiable como fuente para enterarse de lo que su propietario quiere que veas.Facebook solía agregar contenidos en un «News Feed» y pagar a las empresas de medios de comunicación para que publicaran historias en su plataforma. Pero tras años de complicidad en la difusión de mentiras trumpianas -sobre las elecciones de 2016, la pandemia de cólera y los disturbios del 6 de enero-, la empresa ha dado un giro de 180 grados. Ya sea por la opinión pública negativa o por la amenaza de regulación, está claro que promover noticias ya no es el objetivo de ninguna de las redes sociales de Meta. En los últimos días, mi feed de Facebook ha sido invadido por los mismos memes spam de la industria del entretenimiento que han proliferado en la plataforma, como si nada digno de mención estuviera ocurriendo en el mundo exterior. En Instagram, algunos usuarios pro palestinos se quejaron de haber sido «baneados en la sombra» -aparentemente excluidos sin previo aviso de la promoción algorítmica- y compartieron consejos para evitarlo. (Meta atribuyó el problema a un «error»).

En julio, Meta lanzó su nueva red social, Threads, en un intento de alejar a los usuarios de la asediada X de Musk. Pero, a diferencia de X, Threads ha evitado servir como agregador de noticias en tiempo real. La semana pasada, Adam Mosseri, director de Instagram y supervisor de Threads, anunció que la plataforma «no se interpondría en el camino» de los contenidos informativos, pero que tampoco iba a «amplificarlos». Y continuó: «Hacerlo sería demasiado arriesgado dada la madurez de la plataforma, los inconvenientes de prometer demasiado y lo que está en juego». He encontrado Threads más útil que X como fuente de noticias sobre la guerra entre Israel y Hamás. El ambiente es más tranquilo y pausado, y mi feed tiende a destacar las entradas que ya han atraído la participación de voces autorizadas. Pero también he visto a muchos periodistas en Threads quejándose de que recibían demasiadas recomendaciones algorítmicas y pocas publicaciones en tiempo real. Los usuarios de Threads tienen ahora la opción de cambiar a un feed organizado cronológicamente. Pero en la configuración por defecto que utiliza la mayoría de la gente, no hay garantía de que la plataforma muestre la información más reciente en un momento dado.

TikTok ha explicado las medidas que está adoptando para combatir los contenidos falsos sobre Israel y Hamás, entre ellas la asignación de personal que domine el hebreo y el árabe para revisar los vídeos. La empresa también colabora con organizaciones externas de verificación de hechos, como Agence France-Presse y Lead Stories. Pero eso no significa que TikTok asuma su papel de fuente de noticias. Un estudio reciente publicado por la revista New Media & Society concluye que la plataforma da a las noticias menos promoción algorítmica que a otros tipos de contenido. Los autores del estudio escribieron: «El algoritmo de la página For You no muestra prácticamente ningún contenido sobre noticias, ni siquiera cuando está preparado con señales de participación activa». (Según un representante de TikTok, su algoritmo trata de la misma manera todo el contenido verificado).

Mi experiencia anecdótica sugiere que el conflicto entre Israel y Hamás está llegando a los feeds de TikTok de forma diferente a como lo hizo la guerra de Ucrania. Hay menos vídeos en primera persona y más publicaciones verificadas. Los comentarios de los tertulianos son más frecuentes que los reportajes; los argumentos de opinión parecen tener más facilidad para encontrar promoción que la documentación directa, pero es difícil decirlo con seguridad dado que las fórmulas algorítmicas de las plataformas se mantienen en gran secreto. En X, he visto a muchos usuarios quejarse de que sus feeds parecen cada vez más parciales. «Entonces, ¿todo Twitter está a favor de Palestina o es sólo mi algoritmo?», se preguntaba un usuario. «El algoritmo de Instagram me muestra vídeos pro-Israel sin parar, como si quisiera hacerme cambiar de opinión», escribió otro. Los feeds predicen el material con el que es probable que interactúen los usuarios y se lo ofrecen hasta la saciedad. A medida que las recomendaciones automatizadas sustituyen a la elección del usuario, todos nos vemos empujados aún más hacia nuestras propias burbujas de filtros que se refuerzan a sí mismas.

Aunque las redes sociales ya no sirven como fuente de información verificada en tiempo real, siguen siendo un campo de batalla para influir en la opinión pública. Ya el 10 de octubre empezó a circular en X el espantoso rumor de que Hamás había decapitado a bebés israelíes. Cuando el presidente Biden hizo declaraciones sobre la guerra la semana pasada, dio a entender que había visto imágenes de tales atrocidades con sus propios ojos. Pero la Administración se retractó más tarde de los comentarios de Biden y el rumor quedó desmentido: Hamás había asesinado a bebés, pero no había pruebas de decapitaciones. El jueves, la cuenta X @Israel, que se identifica como «la cuenta oficial de Twitter del Estado de Israel» y que había promovido el rumor, publicó imágenes de cadáveres de bebés. A algunos usuarios de X se les sirvió el post como un anuncio, sugiriendo que la cuenta había pagado por promover el mensaje. ¿Cuenta un anuncio como auténtica noticia? Hay una especie de amargo absurdo en la forma en que se ha dejado que los usuarios determinen por sí mismos lo que es veraz, sin la guía de las plataformas. Si realmente existe una niebla de guerra algorítmica, las empresas tecnológicas parecen reacias a asumir la responsabilidad de disiparla.

Las nuevas normativas que fomentan la responsabilidad podrían tener un efecto amedrentador involuntario en la difusión de noticias en línea. En virtud de la Ley de Servicios Digitales de la Unión Europea, que entró en vigor en agosto, las redes sociales pueden ser sancionadas con multas de hasta el seis por ciento de sus ingresos globales por no moderar sus contenidos. La semana pasada, la Comisión Europea envió una carta a Musk y X en la que afirmaba que X «se está utilizando para difundir contenidos ilegales y desinformación en la UE» y solicitaba información sobre cómo estaba gestionando la plataforma el conflicto de Israel. La Ley de Noticias Online de Canadá, aprobada en junio, obliga a las plataformas digitales a compensar a las empresas de medios de comunicación por los contenidos que suministran. En respuesta, las plataformas de Meta han dejado de permitir a los usuarios de Canadá ver o compartir artículos de noticias en absoluto. En Estados Unidos, una propuesta similar de Ley de Competencia y Preservación del Periodismo ha llevado a Meta a amenazar con hacer lo mismo en ese país.

El conflicto entre Israel y Hamás sigue desarrollándose en las redes sociales. Nos inundan a diario con fragmentos brutales que muestran bolsas con cadáveres, edificios arrasados, el bombardeo de un hospital que dejó cientos de muertos. Ciertos clips virales se han convertido en emblemas de la crisis: un periodista de la BBC en Gaza descubre que sus amigos están en el hospital donde está informando y llora; un médico en un hospital israelí grita a un ministro visitante del partido Likud de Benjamin Netanyahu: «¡Lo has arruinado todo!». Nuestros feeds siguen creando una sensación de transparencia y granularidad, al tiempo que proporcionan menos de las señales que necesitamos para trazar un camino claro a través de la espesura de los contenidos. Lo que queda, quizás acertadamente, es una atmósfera de caos e incertidumbre mientras la guerra se despliega a diario en nuestras pantallas.

————————————————————

es redactor de The New Yorker y autor de «The Longing for Less: Vivir con el minimalismo».

Fuente:

https://www.newyorker.com/culture/infinite-scroll/how-social-media-abdicated-responsibility-for-the-news

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *