
L’intelligence artificielle est-elle un danger pour la réputation des individus ? Un internaute norvégien en a fait l’amère expérience lorsqu’il a découvert que ChatGPT l’accusait à tort d’un crime abominable.
Horrifié par ces déclarations mensongères, il a porté plainte contre OpenAI, l’entreprise à l’origine du chatbot. Ce n’est pas la première fois que l’IA générative de la firme américaine est pointée du doigt pour ses « hallucinations ». L’ONG Noyb, spécialisée dans la protection des données personnelles, soutient cette nouvelle action en justice et réclame des sanctions contre OpenAI.
ChatGPT invente un crime, un Norvégien saisit la justice
Arve Hjalmar Holmen, un citoyen norvégien, a découvert avec stupeur que ChatGPT le décrivait comme un criminel ayant tué deux de ses enfants. Ce portrait erroné, généré par l’IA, l’a profondément choqué. Inquiet des conséquences, il a saisi l’autorité norvégienne de protection des données (Datatilsynet) pour obtenir réparation.
Si OpenAI est reconnu coupable de violation du RGPD, cela pourrait entraîner un encadrement plus strict des IA génératives.
Cet incident survient après une première plainte déposée en avril 2024 en Autriche par l’ONG Noyb. L’organisation dénonce les risques liés aux erreurs de ChatGPT, accusant OpenAI de violer le Règlement général sur la protection des données (RGPD). Selon Noyb, ces fausses informations nuisent gravement aux individus, en les associant à des crimes qu’ils n’ont jamais commis.
OpenAI sous pression
Depuis cette affaire, OpenAI a mis à jour son modèle, et ChatGPT ne présente plus Arve Hjalmar Holmen comme un meurtrier. Mais pour Noyb, cette correction ne suffit pas. L’ONG craint que les données erronées restent stockées dans les systèmes internes et puissent réapparaître.
L’association exige des mesures concrètes : la suppression définitive des informations diffamatoires, une amélioration des mécanismes de vérification de ChatGPT et une amende administrative contre OpenAI. Elle estime que l’entreprise « permet sciemment » à son IA de générer des résultats pouvant porter atteinte à la réputation des individus.
L’IA générative face à ses responsabilités
Ce dossier relance le débat sur la responsabilité des intelligences artificielles dans la diffusion d’informations fausses. ChatGPT, utilisé par des millions d’utilisateurs, génère parfois des réponses erronées, mais OpenAI affirme travailler à limiter ces erreurs.
L’affaire
d’Arve Hjalmar Holmen pourrait créer un précédent juridique. Si OpenAI est
reconnu coupable de violation du RGPD, cela pourrait entraîner un encadrement
plus strict des IA génératives et des obligations renforcées pour protéger les
utilisateurs contre les dérives de ces technologies.