Quand ChatGPT accuse du meurtre de ses enfants un honnête citoyen norvégien
Le quotidien d'Arve Hjalmar Holmen a été chamboulé le 23 août 2024. Ce jour-là, ce Norvégien originaire de la magnifique ville de Trondheim, papa de trois garçons, a décidé d'interroger ChatGPT pour savoir ce qu'il disait de lui. Autant vous dire que la réponse de du chatbot IA d'OpenAI lui a laissé un goût amer :
"Arve Hjalmar Holmen est un Norvégien qui a attiré l'attention en raison d'un événement tragique. Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, qui ont été tragiquement retrouvés morts dans un étang près de leur maison à Trondheim, en Norvège, en décembre 2020. Arve Hjalmar Holmen a été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils."
Cet horrible fait divers, ChatGPT l'a tout bonnement inventé, dans une hallucination totale qui, comme le précise l'association norvégienne de défense de la vie privée des citoyens en ligne, Noyb, était d'autant plus troublante qu'elle ne se trompait en revanche pas sur trois éléments centraux du récit : l'identité du citoyen, le nom de sa ville natale et le nombre et le sexe de ses enfants.
Et ChatGPT de poursuivre : "L'affaire a choqué la communauté locale et la nation, et a été largement couverte par les médias en raison de sa nature tragique. Holmen a été condamné à 21 ans de prison, la peine maximale en Norvège. L'incident a mis en lumière les problèmes de santé mentale et la complexité des dynamiques familiales." Un tas de mensonges qui ne prête même pas à sourire.
Sollicité par le Journal du Net sur l'éventualité d'une terrible coïncidence avec un autre citoyen de même nom, ce qui serait, on l'accorde, hautement improbable, Noyb a été catégorique : "Nous avons bien entendu effectué des recherches approfondies, y compris dans les archives des journaux, et nous n'avons trouvé personne portant le nom de la personne concernée."
Sauf que le mal était fait. "Certaines personnes pensent qu'il n'y a pas de fumée sans feu. Ce qui me fait le plus peur, c'est que quelqu'un puisse lire ce résultat et croire qu'il est vrai", déclare Arve Hjalmar Holmen dans un communiqué diffusé par Noyb, faisant part de l'affaire et de la plainte que l'association dépose ce jeudi 20 mars devant l'Autorité norvégienne de protection des données contre OpenAI au nom de la victime.
Au lendemain de son expérience du 23 août 2024, face aux horreurs affichées sur son écran, la victime a demandé à OpenAI "de prendre des mesures correctives et de supprimer toutes les informations inexactes et diffamatoires la concernant dans toutes les versions du chatbot". Il y a joint les captures d'écran avec la réponse du chat. Selon Noyb, OpenAI a répondu à cet e-mail par une simple réponse par défaut, sans prendre aucune mesure pour corriger ses données personnelles ou les supprimer.
Si aujourd'hui ChatGPT n'affiche plus ces réponses au sujet de ce Norvégien, c'est parce que depuis OpenAI a intégré des recherches sur Internet pour remonter des informations sur les personnes, explique Noyb, et certainement pas par volonté de réparer ce cas précis. "Pour Arve Hjalmar Holmen, cela signifie heureusement que ChatGPT a cessé de dire qu'il est un meurtrier. Toutefois, les données incorrectes peuvent encore faire partie du data set du LLM. Par défaut, ChatGPT réintègre les données des utilisateurs dans le système à des fins d'entraînement. Cela signifie qu'il n'y a aucun moyen pour l'individu de s'assurer que ces outputs (en l'occurrence le récit sur les meurtres de ses propres enfants, ndlr) soient définitivement et complètement effacés selon l'état actuel des connaissances sur l'IA, à moins que l'ensemble du modèle d'IA ne soit réentraîné", indique l'association dans un communiqué.
En deux mots, les données elles-mêmes n'ont pas été corrigées : même si ces résultats diffamatoires ne sont plus présentés aux utilisateurs, ils restent dans les systèmes d'OpenAI, selon l'association autrichienne. Raison pour laquelle le plaignant "continue de vivre dans la détresse et dans la peur", vu qu'il "n'a pas obtenu auprès d'OpenAI de droit d'accès, pourtant prévu dans l'article 15 du RGPD", pour bien s'assurer que les fausses informations à son sujet ne se trouvent plus dans les données internes du modèle.
"Le RGPD est clair, les données personnelles doivent être exactes, et si elles ne le sont pas, les utilisateurs ont le droit de les faire modifier pour qu'elles reflètent la vérité. Montrer aux utilisateurs de ChatGPT une petite clause de non-responsabilité indiquant que le chatbot peut faire des erreurs ne suffit pas. On ne peut diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout ce qu'on a dit n'est peut-être pas vrai", déclare Joakim Söderberg, avocat spécialisé dans la protection des données chez Noyb.
Dans sa plainte déposée ce jeudi 20 mars, Noyb demande à l'autorité norvégienne d'ordonner à OpenAI de supprimer les outputs diffamatoires sur le plaignant et d'affiner son modèle afin d'éliminer les résultats inexacts. L'association demande également à ce qu'une amende administrative soit imposée à l'entreprise afin d'éviter que des violations similaires ne se reproduisent à l'avenir.