_
_
_
_
_

Meta en problemas: está siendo investigada por la Unión Europea, ¿cuál es el motivo?

Las miras se centran en plataformas como Instagram y Facebook

Logos de plataformas propiedad de Meta
Logotipos de plataformas de MetaUnsplash
Iván Martín Barbero

La Unión Europea ha dado un paso importante a la hora de abordar las preocupaciones sobre la protección de la salud mental y física de los niños frente a las plataformas de redes sociales. La investigación formal sobre Meta, la empresa matriz de Facebook e Instagram, para saber si el bienestar de los jóvenes usuarios está garantizado al utilizar las mencionadas plataformas.

Anunciada este mismo jueves, la investigación bajo la Ley de Servicios Digitales (DSA) de la UE se centra en evaluar si Meta ha protegido de forma efectiva a los niños de los posibles daños asociados con sus servicios. Una de las preocupaciones clave que estudia la Comisión es el impacto de la interfaz de usuario (UI) y los algoritmos de Facebook e Instagram en los niños -se cree que estos elementos pueden contribuir a “adicciones conductuales” y llevar a lo que comúnmente se conoce como el efecto madriguera de conejo-.

Además, la UE está examinando los esfuerzos de Meta para evitar que los menores accedan a contenido inapropiado y tiene la intención de comprobar la eficacia de sus herramientas de verificación de edad. Existen dudas sobre si estas herramientas cumplen con los criterios de ser “razonables, proporcionadas y efectivas” para restringir el acceso de los usuarios menores de edad a material potencialmente dañino.

Logo Instagram movil
IA Bing

Una investigación que será compleja

La investigación se extiende a los sistemas de recomendación de contenido y la configuración de privacidad predeterminada de Meta, con el enfoque en evaluar si estas características priorizan adecuadamente la privacidad, la seguridad y la protección de los menores. Este examen subraya el compromiso de la UE de responsabilizar a los gigantes tecnológicos por su impacto en grupos de usuarios vulnerables -especialmente los niños-.

Meta ha venido trabajando en las preocupaciones sobre la seguridad infantil en sus plataformas, implementando medidas como la restricción de acceso a contenido dañino y limitando las interacciones con cuentas de adultos señaladas como sospechosas. Sin embargo, la investigación de la Comisión indica que puede ser necesario hacer más para abordar completamente estos problemas y garantizar un entorno en línea más seguro para los jóvenes usuarios.

Meta colaborará con la UE

En respuesta a la investigación, Meta ha prometido su cooperación y disposición para trabajar con las autoridades reguladoras para abordar cualquier deficiencia identificada durante el proceso. La empresa reconoce la importancia de priorizar la seguridad infantil y reconoce la responsabilidad que tiene como proveedor líder de plataformas de redes sociales. Este es un buen detalle de la marca controlada por Mark Zuckerberg, todo hay que decirlo.

Logo de Facebook en la cara de una chica
Rawpixel

En el futuro, la Comisión recopilará evidencias como parte de su investigación, lo que indica un enfoque minucioso para evaluar el cumplimiento de Meta con las regulaciones de la DSA. Si bien no hay una fecha límite formal para los procedimientos, la UE tiene la autoridad para tomar medidas de ejecución provisionales contra Meta si es necesario.

Las posibles sanciones para Meta en caso de violaciones de la DSA incluyen multas de hasta el seis por ciento de los ingresos globales de la empresa. El Comisionado de la UE, Thierry Breton, ha subrayado el compromiso de la Comisión de proteger a los jóvenes, enfatizando que “no se escatimarán esfuerzos” para garantizar la seguridad y el bienestar de los niños en la era digital.

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Tu comentario se publicará con nombre y apellido
Normas
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

_
_