La Unión Europea investiga a Meta, propietario de Facebook, por seguridad infantil y salud mental
Meta está siendo investigado en virtud de la Ley de Servicios Digitales, que la Unión Europea aprobó el año pasado. Foto: Chesnot/Getty

La Comisión Europea inició una investigación contra Meta, propietario de Facebook e Instagram, debido a preocupaciones de que las plataformas estén generando comportamientos adictivos entre los niños y dañando la salud mental.

El ejecutivo de la Unión Europea dijo que Meta podría haber violado la Ley de Servicios Digitales (DSA), una ley emblemática aprobada por el bloque el verano pasado que responsabiliza a las empresas digitales grandes y pequeñas por desinformación, estafas en compras, abuso infantil y otros daños en línea.

“Hoy iniciamos un procedimiento formal contra Meta”, dijo en un comunicado el comisario de Mercado Interior de la Unión Europea, Thierry Breton. “No estamos convencidos de que haya hecho lo suficiente para cumplir con las obligaciones de la DSA para mitigar los riesgos de efectos negativos para la salud física y mental de los jóvenes europeos en sus plataformas Facebook e Instagram”.

La investigación explorará los posibles impactos adictivos de las plataformas, conocidos como efectos de “madriguera de conejo”, donde un algoritmo alimenta a los jóvenes con contenido negativo, como imágenes corporales poco realistas. También analizará la eficacia de las herramientas de verificación de edad y la privacidad de los menores de Meta. “No escatimamos esfuerzos para proteger a nuestros niños“, afirmó Breton.

Un portavoz de Meta dijo: “Queremos que los jóvenes tengan experiencias en línea seguras y apropiadas para su edad y hemos pasado una década desarrollando más de 50 herramientas y políticas diseñadas para protegerlos. Este es un desafío al que se enfrenta toda la industria y esperamos compartir detalles de nuestro trabajo con la Comisión Europea”.

El mes pasado, la comisión abrió una investigación sobre Meta en el marco de la DSA por su manejo del contenido político en medio de preocupaciones de que no estaba haciendo lo suficiente para contrarrestar la desinformación rusa antes de las elecciones de la Unión Europea en junio.

Según la DSA, las plataformas están obligadas a proteger la privacidad y seguridad de los niños. Tras una investigación preliminar, a los funcionarios de la Unión Europea les preocupa que Facebook e Instagram “puedan explotar las debilidades y la inexperiencia de los menores y provocar comportamientos adictivos”.

También se muestran escépticos sobre las herramientas de verificación de edad de la plataforma. Se supone que los usuarios deben tener al menos 13 años para abrir una cuenta en Facebook o Instagram.

Un funcionario dijo que era “tan obviamente fácil eludir algunos controles” que la comisión quería saber cómo Meta había evaluado que estas medidas podían ser efectivas y apropiadas.

Un funcionario de la Unión Europea dijo el jueves que la comisión quería utilizar la cartera de identidad digital europea del bloque para verificar la edad. La cartera, que aún se encuentra en etapa de prueba, tiene como objetivo facilitar que las personas en los 27 países demuestren quiénes son, ya sea que estén abriendo una cuenta bancaria, postulando a la universidad o solicitando un trabajo.

La comisión también inició dos investigaciones sobre TikTok, que llevaron a la plataforma para compartir videos de propiedad china a retirar voluntariamente su servicio de recompensa por ver TikTok Lite en Francia y España el mes pasado.

Esto se produjo tras el inicio de un procedimiento de la DSA contra X por presunto discurso de odio y contra el sitio de comercio en línea AliExpress por su transparencia publicitaria y gestión de quejas.

La última investigación de Meta es similar al caso de TikTok, ya que ambos examinan la naturaleza potencialmente adictiva de las plataformas en línea. Breton ha dicho anteriormente que el servicio TikTok Lite podría ser “tan tóxico y adictivo como los cigarros”.

La DSA, que entró en vigor en febrero para las plataformas que operan en Europa, tenía como objetivo obligar a las poderosas plataformas en línea que eran “demasiado grandes para preocuparse” a asumir la responsabilidad de la seguridad en línea.

Si la comisión no está satisfecha con la respuesta de Meta, puede imponerle una multa equivalente al 6% de su facturación global. De manera más inmediata, puede llevar a cabo investigaciones in situ y entrevistar a ejecutivos de la empresa, sin fijar públicamente una fecha límite para completar la investigación.

Síguenos en

Google News
Flipboard