Tecnología

Anunciantes y redes sociales alcanzan un acuerdo para frenar el contenido dañino

Se usarán definiciones comunes para el discurso de odio, la agresión y el acoso, se dará a las marcas mejores herramientas para controlar dónde aparecen sus anuncios y se impulsarán metodologías para hacer informes armonizados

Logos de Twitter y Facebook en una pantalla.
Logos de Twitter y Facebook en una pantalla.

Facebook, Twitter y YouTube han llegado a un acuerdo con los grandes anunciantes para frenar el contenido dañino en sus plataformas sociales. El movimiento llega tres meses después de que más de 1.000 grandes marcas aplicaran un boicot publicitario a la red social de Mark Zuckerberg a raíz de la muerte de George Floyd, un hombre negro, a manos de la policía. Acusaban a Facebook de no combatir el discurso del odio, un problema sobre lo que los anunciantes han venido quejándose durante años y que afectaba también a las otras plataformas sociales.

El acuerdo, anunciado este miércoles por la Federación Mundial de Anunciantes, establece por primera vez definiciones comunes entre las partes para las distintas formas de contenido como incitación al odio, agresión o acoso.

Las plataformas sociales han acordado también que algunas prácticas sean revisadas por auditores y dar a los anunciantes un mayor control sobre el contenido que se muestra junto a sus anuncios.

El acuerdo también contempla crear metodologías de "informes armonizados", de manera que las estadísticas sobre contenido dañino se puedan comparar entre plataformas. "Para 2021 habrá un conjunto de métricas armonizadas sobre cuestiones relacionadas con la seguridad de la plataforma, la seguridad de los anunciantes y la eficacia de la plataforma para abordar el contenido dañino", aseguró la citada organización, que añadió que auditorías independientes verificarán las cifras.

“Este es un hito importante para construir la confianza en línea”, aseguró Luis Di Como, vicepresidente ejecutivo de medios globales de Unilever, uno de los mayores anunciantes del mundo. Esta compañía asegura que el acuerdo, que es un paso más a la Alianza Global para Medios Responsables creada en 2019 por los anunciantes para negociar con las redes sociales, les da más confianza para volver a invertir en estas plataformas.

El nuevo acuerdo establece 11 categorías para material dañino, que van desde pornografía y blasfemias hasta consumo ilegal de drogas, que deben ser eliminados de las plataformas cuando se encuentren, según avanzaba esta mañana el Financial Times. Di Como explicó que este avance es clave porque "antes de esto, cada plataforma tenía una idea completamente diferente del problema. Y si no tenemos un lenguaje común, no podemos encontrar una solución".

Carolyn Everson, vicepresidenta de soluciones de Marketing Global de Facebook, coincidió en esta misma idea y aseguró que el acuerdo les da a todos "un lenguaje unificado para avanzar en la lucha contra el odio online". Aunque las tres redes sociales dieron la bienvenida públicamente al acuerdo, ninguna detalló los cambios inmediatos que aplicarán en sus políticas de contenido.

Las organizaciones sin ánimo de lucro que quieren una mayor regulación de las plataformas sociales no se han mostrado tan optimistas. "Cualquier proreso en la reducción del contenido nocivo en las redes sociales debe ser bienvenido. Sin embargo, hasta ahora, la acción voluntaria de las redes sociales rara vez estuvo a la altura de sus promesas iniciales", aseguró a la BBC David Babbs, del grupo activista del Reino Unido Clean Up the Internet.

Normas
Entra en El País para participar