Meta lâche le fact-checking : Les droits humains en danger sur Facebook et Instagram

Publié le
meta-lache-le-fact-checking-les-droits-humains-en-danger-sur-facebook-et-instagram META LA MAISON MERE DE FACEBOOK PROTEGE SES UTILISATEURS (PH:DR)
High tech

Meta, la maison mère de Facebook, Instagram et Threads, a décidé début janvier 2025 de mettre fin à son programme de fact-checking aux États-Unis. L’annonce a été suivie d’un assouplissement des règles de modération, notamment sur les propos ciblant les minorités.

Cette décision a été vivement critiquée par l’instance de supervision interne de Meta, qui dénonce une rupture brutale avec les procédures habituelles. Aucune évaluation d’impact sur les droits humains n’a été rendue publique. Le groupe californien justifie ce changement par un excès de modération dans le passé, estimant que trop de contenus avaient été censurés à tort.


En remplacement du fact-checking, Meta a introduit des « notes de contexte », des commentaires ajoutés par des utilisateurs de confiance pour contextualiser certains messages. Cette approche, inspirée du réseau social X, reste cependant peu efficace contre la désinformation, selon plusieurs études.

Une modération allégée, des risques accrus

L’arrêt du fact-checking a des répercussions directes sur la visibilité des contenus douteux. Depuis la suppression des partenariats avec les médias de vérification, Meta filtre moins les publications contraires à ses standards. Cela inquiète les défenseurs des droits humains, notamment pour les minorités comme la communauté LGBTQ+, souvent visée par des propos haineux.

Deux messages créés par intelligence artificielle, publiés lors des émeutes de juillet 2024 au Royaume-Uni, ont été laissés en ligne malgré leur caractère dangereux.

L’instance de supervision demande à Meta d’évaluer l’impact réel de ses nouvelles pratiques et d’en mesurer l’efficacité face aux fake news. Elle insiste aussi sur la nécessité de réagir plus rapidement lors de crises locales, comme les émeutes récentes au Royaume-Uni.

Contenus violents, IA et lenteur de réaction

Deux messages créés par intelligence artificielle, publiés lors des émeutes de juillet 2024 au Royaume-Uni, ont été laissés en ligne malgré leur caractère dangereux. L’un montrait un prétendu musulman poursuivant un homme, l’autre des hommes identifiés à tort comme musulmans pourchassant un enfant. Ces contenus ont pourtant été signalés par des utilisateurs.

Le conseil de surveillance a estimé que ces messages présentaient un risque de mise en danger imminente et auraient dû être retirés. Il critique la lenteur de Meta, qui n’a classé le Royaume-Uni comme zone à risque qu’après une semaine de violence.

Vidéo