Espagne : Cinq jeunes accusés pour photos dénudées de mineures générées par l’intelligence artificielle (IA)

Publié le
espagne-cinq-jeunes-accuses-pour-photos-denudees-de-mineures-generees-par-l-intelligence-artificielle-ia UNE INTELLIGENCE ARTIFICIELLE UTILISEE PAR CINQ JEUNES HOMMES ESPAGNOLS POUR RENDRE NUES DES MINEURS (PH : DR)
High tech

En Espagne, cinq jeunes hommes sont dans la tourmente pour avoir diffusé des photos dénudées de jeunes filles mineures, créées grâce à l'intelligence artificielle (IA). La Garde civile a ouvert une enquête ce lundi 05 août 2024, soupçonnant des délits de pédopornographie et atteinte à la vie privée.

Les photos trafiquées ont été partagées dans des groupes de discussion en ligne, causant un préjudice émotionnel et social majeur aux victimes. En effet, ces jeunes, tous résidents de Séville, ont utilisé un logiciel d'IA pour modifier des photos de jeunes filles qu'ils connaissaient. La diffusion des images via une application de messagerie instantanée a alerté les parents des victimes, qui ont immédiatement signalé les faits aux autorités. Au total, vingt jeunes femmes sont concernées, toutes ayant un lien avec les suspects.

Préjudice émotionnel et enquête en cours

La Garde civile, équivalent de la gendarmerie en Côte d’Ivoire, a précisé dans un communiqué que les images modifiées étaient d'un réalisme troublant, rendant difficile la distinction entre les photos authentiques et celles altérées. Cette situation a causé un important préjudice émotionnel et social aux victimes, soulignant la gravité des actes.

Les experts appellent à une réglementation plus stricte pour prévenir de tels abus et protéger les individus contre ces nouvelles formes de violences numériques.

L'enquête, initiée suite aux plaintes des parents, vise à déterminer l'étendue des délits de pédopornographie et d'atteinte à la vie privée. Les autorités espagnoles prennent cette affaire très au sérieux, notamment en raison de l'impact psychologique sur les jeunes filles concernées.

L'inquiétude face aux abus de l'IA

Cette affaire relance le débat sur les dangers de l'intelligence artificielle, notamment son utilisation malveillante dans le domaine des hypertrucages ou "deepfakes" pornographiques. Une étude de 2019 par la société néerlandaise Sensity révèle que 96% des fausses vidéos en ligne sont de la pornographie non consensuelle, souvent utilisant des images de femmes célèbres manipulées par l'IA.

L'utilisation de cette technologie pour créer des contenus pornographiques non consensuels suscite une inquiétude croissante dans le monde entier. Les experts appellent à une réglementation plus stricte pour prévenir de tels abus et protéger les individus contre ces nouvelles formes de violences numériques.

Pour rappel, cette affaire à Séville illustre les risques posés par les technologies d'IA et la nécessité de légiférer pour prévenir les abus. Les autorités continuent de travailler pour apporter justice aux victimes et empêcher de futurs incidents similaires.