Een Noorse man kreeg de schrik van zijn leven toen ChatGPT hem valselijk beschreef als een kindermoordenaar. De Europese privacywaakhond NOYB heeft nu een officiële klacht ingediend tegen OpenAI, het bedrijf achter de populaire AI-chatbot.
Wat begon als een nieuwsgierige zoektocht naar welke informatie ChatGPT over hem had, veranderde snel in een nachtmerrie voor een Noorse man. De AI-chatbot fabriceerde een compleet verzonnen verhaal waarin de man werd beschreven als "een veroordeelde crimineel die twee van zijn kinderen heeft vermoord en een poging deed om zijn derde zoon te vermoorden".
"Sommige mensen zullen denken: waar rook is, is vuur," vertelde de geschokte man aan privacyorganisatie NOYB. Hij omschreef de ervaring als "erg beangstigend" en vreest voor de mogelijke gevolgen voor zijn reputatie.
NOYB (None Of Your Business), een bekende Europese privacywaakhond, heeft inmiddels een formele klacht ingediend bij de Noorse privacytoezichthouder. De organisatie eist dat OpenAI de lasterlijke informatie verwijdert en het AI-model aanpast om dergelijke "slordige resultaten" in de toekomst te voorkomen.
Joakim Söderberg, advocaat bij NOYB, benadrukt dat volgens de Europese GDPR-wetgeving persoonsgegevens altijd correct moeten zijn. "En als dat niet zo is, hebben gebruikers het recht om de gegevens te laten aanpassen," aldus Söderberg.
Dit incident staat niet op zichzelf. Volgens NOYB produceert ChatGPT regelmatig valse informatie over personen, een fenomeen dat in de AI-wereld bekend staat als "hallucinaties". Het probleem wordt verergerd doordat OpenAI geen adequaat mechanisme biedt om onjuiste persoonlijke informatie te corrigeren.
Hoewel de beschrijving van de man als kindermoordenaar inmiddels niet meer verschijnt bij specifieke zoekopdrachten, blijft de structurele kwestie bestaan. NOYB pleit daarom voor een boete tegen OpenAI en voor systematische aanpassingen aan het AI-model.
Dit voorval illustreert de toenemende spanningen tussen snelle AI-ontwikkelingen en privacybescherming. Terwijl ChatGPT en vergelijkbare systemen steeds vaker worden gebruikt voor informatievergaring, groeit de bezorgdheid over de betrouwbaarheid van de gegenereerde content en de impact die valse informatie kan hebben op individuele levens.