Magazine High tech

L'homme dépose une plainte contre Chatgpt après qu'il ait faussement affirmé qu'il avait assassiné ses enfants

Publié le 24 mars 2025 par Zaebos @MetatroneFR

Et a passé 21 ans en prison pour le crime

Wtf ?! Même si l'IA génératrice devient plus répandue, les systèmes restent sujets aux hallucinations. Conseiller aux gens de mettre de la colle sur la pizza et de manger des rochers est une chose, mais Chatgpt a faussement dire à un homme qu'il avait passé 21 ans en prison pour avoir tué ses deux fils est beaucoup plus grave.

Le ressortissant norvégien Arve Hjalmar Holmen a contacté la Norwegian Data Protection Authority après avoir décidé de voir ce que Chatgpt savait à son sujet.

Le chatbot a répondu de manière sûre habituelle, déclarant à tort que Holmen avait assassiné deux de ses fils et tenté de tuer son troisième fils. Il a ajouté qu'il avait été condamné à 21 ans de prison pour ces faux crimes.

Bien que l'histoire ait été entièrement fabriquée, il y avait des éléments de la vie de Holmen selon lesquels Chatgpt a bien fait, y compris le nombre et le sexe de ses enfants, leur âge approximatif et le nom de sa ville natale, rendant les fausses allégations sur le meurtre d'autant plus sinistre.

Holmen dit qu'il n'a jamais été accusé ni reconnu coupable de crime et est un citoyen consciencieux.

Holmen a contacté le groupe des droits à la vie privée Noyb à propos de l'hallucination. Il a effectué des recherches pour s'assurer que Chatgpt ne se mélangeait pas à Holmen avec quelqu'un d'autre, peut-être avec un nom similaire. Le groupe a également vérifié les archives de journaux, mais il n'y avait rien d'évidence pour suggérer pourquoi le chatbot invente cette horrible histoire.

Le LLM de Chatgpt a depuis été mis à jour, il ne répète donc plus l'histoire lorsqu'il est interrogé sur Holmen. Mais Noyb, qui s'est affronté avec Openai dans le passé sur le chat de chatpt fournissant de fausses informations sur les personnes, a toujours déposé une plainte auprès de la Norwegian Data Protection Authority, Datatilsynet.

Selon la plainte, OpenAI a violé les règles du RGPD selon lesquelles les sociétés de l'État qui traitent les données personnelles doivent s'assurer qu'elle est exacte. Si ces détails ne sont pas exacts, il doit être corrigé ou supprimé. Cependant, NOYB soutient que, à mesure que ChatGPT renvoie les données des utilisateurs dans le système à des fins de formation, il n'y a aucun moyen d'être certain que les données incorrectes ont été complètement supprimées de l'ensemble de données de LLM.

NOYB affirme également que Chatgpt ne respecte pas l'article 15 du RGPD, ce qui signifie qu'il n'y a aucune garantie que vous pouvez vous rappeler ou voir chaque Des données sur un individu qui ont été introduites dans un ensemble de données. « Ce fait, c'est naturellement provoque toujours la détresse et la peur du plaignant (Holmen) », a écrit Noyb.

NOYB demande au Datatilsynet de commander OpenAI pour supprimer les données diffamatoires sur Holmen et affiner son modèle pour éliminer les résultats inexacts sur les individus, ce qui ne serait pas une tâche simple.

À l'heure actuelle, la méthode d'Openai pour couvrir son dos dans ces situations est limitée à un petit avertissement en bas de la page de Chatgpt qui déclare: « Chatgpt peut faire des erreurs. Vérifiez les informations importantes », comme si quelqu'un est un double meurtrier.


Retour à La Une de Logo Paperblog