
La Fondation pour l’enfance a tiré la sonnette d’alarme ce mardi 29 octobre à propos de l’usage de l’intelligence artificielle dans la production de contenus pédocriminels en ligne. Dans un rapport de ce jour, elle souligne que l’IA générative permet de multiplier ces contenus, accentuant la banalisation des violences sexuelles envers les mineurs et augmentant les risques de passage à l’acte.
En effet, ces technologies permettent de créer et de diffuser à grande échelle des images et vidéos pédopornographiques où l’IA génère des visuels d’enfants abusés. Face à cette menace, la Fondation pour l’enfance appelle les autorités politiques, juridiques et technologiques à une action rapide et coordonnée pour endiguer ce phénomène alarmant.
L’intelligence artificielle, facilitateur de contenus criminels
La capacité de l’intelligence artificielle générative à produire des vidéos ou images de mineurs dans des situations sexuelles explicites représente un danger sans précédent. Selon le rapport, ces contenus sont créés à partir d’images réelles de mineurs combinées à des montages d’une précision impressionnante. "Même s'il s'agit de montages, cela contribue à la banalisation de pratiques pédocriminelles et objectifie l’enfant", alerte Angèle Lefranc, chargée de plaidoyer à la Fondation pour l’enfance.
Les photos d’enfants postées en ligne peuvent être détournées pour entraîner ces outils d’intelligence artificielle criminelle, un risque méconnu du grand public.
L’accessibilité croissante de ces contenus suscite de vives inquiétudes, car leur visionnage est souvent lié à un risque accru de passage à l’acte. Cette tendance souligne l’urgence d’un encadrement législatif pour freiner cette prolifération numérique pernicieuse.
Réformes juridiques et de sensibilisation publique
La Fondation pour l’enfance demande une révision du Code pénal pour inclure et pénaliser la création de montages à caractère sexuel mettant en scène des mineurs, actuellement non couverts par la loi. Le manque de législation en la matière laisse un "vide juridique" inquiétant, facilitant la prolifération de contenus pédopornographiques.
🔴⚡️ALERTE | 🇫🇷 Des photos de femmes et d'enfants en maillot de bain ont été modifiées par un logiciel #IA (intelligence artificielle) pour créer des images à caractère pédocriminel 🔞. Un rapport rédigé par plusieurs experts internationaux met en lumière les dangers liés à… pic.twitter.com/46StQoMNew
— Les Spectateurs (@SpectateursFr) October 29, 2024
Pour lutter contre cette problématique, la Fondation appelle également à une sensibilisation des familles et des utilisateurs des réseaux sociaux. Les photos d’enfants postées en ligne peuvent être détournées pour entraîner ces outils d’intelligence artificielle criminelle, un risque méconnu du grand public.
Pour rappel, elle recommande également une coopération accrue des acteurs privés pour mettre au point des outils permettant de différencier les contenus générés par IA des contenus réels, facilitant ainsi le travail des forces de l’ordre dans l’identification des victimes réelles.