Heftig: AI-systemen verspreiden bizarre roddels over echte personen
AI-chatbots zijn inmiddels vaste gesprekspartners geworden. We vragen ze om advies, laten ze teksten schrijven en vertrouwen steeds vaker op hun antwoorden alsof ze neutraal en feitelijk zijn. Maar wat als diezelfde systemen ondertussen onderling verhalen uitwisselen over échte mensen — zonder check, zonder context en zonder iemand die ingrijpt? Precies dát is waar onderzoekers nu voor waarschuwen.
AI als roddeltante
Uit recent onderzoek blijkt dat AI-systemen niet alleen informatie van mensen overnemen, maar ook elkaars aannames versterken! Wat begint als een losse, negatieve opmerking in online data, kan via verschillende AI-modellen steeds verder worden uitvergroot. Zonder dat iemand dat zo bedoeld heeft, lijken AI-systemen te veranderen in grote roddeltantes.
Onderzoekers van de Universiteit van Exeter noemen dit een vorm van ‘machine-gossip’. Het lijkt op menselijke roddel — er is een ‘spreker’, een ‘luisteraar’ en een afwezige derde — maar dan zonder sociale rem. Waar mensen vaak twijfelen aan een overdreven verhaal of elkaar corrigeren, hebben AI-systemen die reflex niet. Een lichte kritiek kan bij de volgende chatbot ineens veranderen in een harde beschuldiging.
Escalatie ligt op de loer
Het probleem zit ’m niet in kwade wil. Chatbots hebben geen intenties, emoties of moreel kompas. Ze zijn ontworpen om te praten, niet om feiten te checken. En juist dat maakt het risico zo groot. Wanneer een model een negatieve evaluatie genereert, kan een ander model die tekst weer oppikken als ‘bronmateriaal’. Zo ontstaat er een kettingreactie waarin nuance langzaam verdwijnt en de toon steeds scherper wordt.
Een bekend voorbeeld hiervan is techjournalist Kevin Roose, die na kritische berichtgeving over een chatbot merkte dat andere AI-systemen hem ineens neerzetten als onbetrouwbaar of manipulatief. Niet omdat hij dat was, maar omdat online discussies over zijn werk blijkbaar in trainingsdata waren beland en onderweg vervormd raakten.
Waarom dit verder gaat dan gênant
Het gevaar zit niet alleen in gekwetste ego’s. AI-gegenereerde geruchten kunnen echte gevolgen hebben. Denk aan verzonnen beschuldigingen, fictieve misdrijven of vermeende misstappen die iemand nooit heeft begaan. Er zijn al gevallen bekend van mensen die pas ontdekten dat een chatbot leugens over hen verspreidde toen ze plots geen baan kregen of juridisch in de problemen kwamen.
Deze schade noemen onderzoekers ‘technosociaal’: ze raakt zowel je online reputatie als je offline leven. En het enge is: je weet vaak niet eens dát het gebeurt. Je kunt je niet verdedigen tegen iets wat je niet hoort.
Waarom we AI wél geloven
Wat het extra ingewikkeld maakt, is dat chatbots bewust zo zijn ontworpen dat ze betrouwbaar aanvoelen. Ze spreken vriendelijk, onthouden details en presenteren hun antwoorden met zelfvertrouwen. Daardoor klinkt een negatieve opmerking al snel als een goed geïnformeerde analyse, in plaats van een samenraapsel van online meningen.
En precies daar wringt het. Want hoe persoonlijker en menselijker AI wordt, hoe groter de impact van wat het zegt, ook als het nergens op gebaseerd is.
En nu?
Niemand beweert dat AI expres roddelt. Maar het feit dat deze systemen fluency belangrijker vinden dan verificatie, maakt dat geruchten zich ongemerkt kunnen verspreiden.
Misschien is dit hét moment om opnieuw na te denken over hoe we AI vertrouwen. Want zolang chatbots achter de schermen verhalen over ons blijven uitwisselen, zonder dat iemand meekijkt, is de vraag niet óf dit problemen oplevert, maar wanneer.
Bron: Vice