Direct naar content
VERZORGING

Cyberexperts waarschuwen: upload je medisch dossier niet in ChatGPT

Floor Velthuis 6 min. leestijd
Dokter aan het typen op computer
Afbeelding: Tima Miroshnichenko

Stel je voor dat je je meest persoonlijke informatie (je diagnose, je medicatie, je bloedwaarden, misschien zelfs je mentale struggles) in één klik uploadt naar een AI-platform. Niet naar je huisarts of naar het ziekenhuis, maar naar een gigantisch techbedrijf. Niet naar het ziekenhuis. Maar naar een techbedrijf. Dat is precies wat ChatGPT Health van gebruikers vraagt. De nieuwe gezondheidstool belooft overzicht, inzicht en gepersonaliseerde adviezen. Klinkt efficiënt, maar cybersecurity-experts waarschuwen: denk héél goed na voordat je op upload klikt.

Je medisch dossier in ChatGPT

ChatGPT Health, een nieuwe dienst van moederbedrijf OpenAI, speelt slim in op een trend door je de mogelijkheid te geven voor het uploaden van je medisch dossier in ChatGPT. Medische vragen behoren tot de meest gezochte onderwerpen op het platform. Dus waarom geen aparte health tool lanceren?

Gebruikers worden aangemoedigd om hun medisch dossier in ChatGPT te uploaden. Denk aan testresultaten van de huisarts of het ziekenhuis en data van smartwatches of fitnessapps. Het idee is dat je al je gezondheidsinformatie op één plek verzamelt. In ruil daarvoor krijg je gepersonaliseerde aanbevelingen en adviezen. Maar zelfs OpenAI laat er een waarschuwing over uit: het zijn geen officiële diagnoses of behandelingen.

Een woordvoerder van OpenAI liet weten dat het bedrijf privacy serieus neemt en dat gebruikers hun gegevens op elk moment kunnen verwijderen. Dat klinkt misschien geruststellend, totdat je hoort wat cyberexperts daarover zeggen.

Geen dokter en geen wettelijke bescherming

Criminoloog Robert D’Ovidio zegt tegen HuffPost: “Wat mij het meest opviel, en wat mij het meest zorgen baart, is het feit dat OpenAI en ChatGPT geen betrouwbare zorgverleners zijn.”

En hij vervolgt: “Dus wat betekent dat voor jou en mij? Dat betekent dat ze niet onder HIPAA vallen.” Daarmee verwijst hij naar de Amerikaanse privacywet die medische gegevens beschermt. “Dezelfde bescherming die we krijgen als we naar onze dokter gaan, naar een spoedkliniek of naar het ziekenhuis, die is er niet wanneer we met ChatGPT te maken hebben”, voegt hij eraan toe.

▼ scroll verder ▼

Nathan Evans, directeur van het cybersecurityprogramma aan de University of Denver, zegt hierover tegen HuffPost: “Dat is voor mij het grootste vraagteken. Zelfs als ze zeggen dat ze de strengste beveiligings- en privacystandaarden volgen, als er niets is dat hen daartoe verplicht, dan is het mogelijk dat ze in de toekomst van koers veranderen.”

Met andere woorden: je vertrouwt op beloftes, niet op wetgeving. En dat kan op een later moment je in de vingers snijden.

Een groter doelwit voor hackers

OpenAI beweert dat ChatGPT Health gebruikmaakt van datasegmentatie en versleuteling. Je medische data zou gescheiden blijven van je reguliere zoekgeschiedenis.

Toch zegt D’Ovidio: “Je loopt nog steeds risico als het gaat om datalekken. Je moet je afvragen of het aanbieden van dit soort diensten hen niet een groter doelwit maakt, gezien hoe waardevol zulke informatie is, vooral vanwege de gevoeligheid ervan.”

Als criminoloog ziet hij een duidelijk risico: “Voor mij zegt dit: ja, ze schilderen een veel groter doelwit op hun rug door dit te doen.” Alsof dat nog niet genoeg is, werkt ChatGPT Health samen met het bedrijf b.well, een AI-gedreven digitaal gezondheidsplatform. Volgens D’Ovidio maakt dat de situatie complexer, omdat jouw data dan niet alleen bij OpenAI ligt, maar dus ook nog bij een extra partij. En die extra schakel maakt het hele gebeuren nog kwetsbaarder.

Wat als het bedrijf verandert?

Evans wijst ook op een ander punt. OpenAI is op dit moment geen winstgevend bedrijf. “We verwachten niet dat OpenAI failliet gaat, maar het is geen winstgevend bedrijf. Ze verbranden geld om groter te worden”, zegt hij tegen HuffPost.

Hij benadrukte dat veel data die ChatGPT verzamelt, wordt gebruikt om modellen te trainen. Hoewel zowel ChatGPT als andere AI-bedrijven zeggen dat gezondheidsdata niet voor training wordt gebruikt, blijft er onzekerheid.

“Het is niet per se duidelijk wat OpenAI’s doelen zijn met jouw informatie. Ze laten het klinken alsof ze dit doen om de wereld te verbeteren en hun gebruikers te helpen, maar uiteindelijk is het waarschijnlijk een geldkwestie”, aldus Evans.

Cori Faklaris, assistent-professor aan de University of North Carolina at Charlotte, voegt hieraan toe in gesprek met HuffPost: “Zodra je je data weggeeft, zodra je je data deelt, is het weg. Dat is een eenmalige beslissing. Het is altijd ergens aanwezig totdat die bestanden definitief worden gewist.” En dat definitief wissen is ingewikkelder dan je denkt.

Opvallend: nog niet beschikbaar in Europa

ChatGPT Health wordt momenteel nog niet gelanceerd in de Europese Unie. En volgens Evans is dat veelzeggend over het uploaden van je medisch dossier in ChatGPT.

De EU heeft met de GDPR een van de strengste privacywetten ter wereld. “Het zegt wel iets dat je het daar niet kunt gebruiken. Misschien zijn er privacy- en beveiligingskwesties waar rekening mee moet worden gehouden, omdat ze het gevoel hebben dat ze niet aan die strenge regels kunnen voldoen”, vertelt Evans.

In de VS bestaat echter geen vergelijkbaar streng kader. Dat maakt lanceren daar een stuk eenvoudiger.

Als je het tóch doet, doe het dan slim

Faklaris geeft een belangrijke waarschuwing: “Allereerst… doe het nooit impulsief. Druk niet zomaar op de knop – probeer even stil te staan en te denken: ‘Krijg ik meer voordelen van de inzichten die ik ga krijgen versus het kwijtraken van controle over deze data aan dit bedrijf?'”

Ze herinnert gebruikers er ook aan dat AI kan hallucineren. Het kan dus verkeerde informatie geven. En als het om je gezondheid gaat, kan dat schadelijk zijn. Daarnaast is ze helder over het feit dat een AI-tool nooit je echte zorgverlener mag vervangen. Maar dat wordt zelfs door ChatGPT Health al verkondigd in zijn communicatie.

D’Ovidio adviseert daarnaast om in elk geval goede ‘security-hygiëne’ toe te passen. Dat betekent een uniek wachtwoord, regelmatig wijzigen en tweefactorauthenticatie inschakelen.

Evans voegt daar nog iets aan toe: je moet nooit meerdere AI-bedrijven voor je gezondheidsdata gebruiken. “Je stelt jezelf alleen maar meer bloot als je meerdere verschillende plekken gebruikt voor deze informatie”, vertelt hij.

Dus… zou jij het doen?

De belofte is verleidelijk. Waar en wanneer je maar wil, inzicht in je lichaam. Alles lekker overzichtelijk bij elkaar en persoonlijke adviezen binnen enkele seconden.

Maar je medische gegevens zijn niet zomaar ongevoelige data. Het is informatie over depressie, hartziekte, vruchtbaarheid, trauma, erfelijkheid. Oftewel: bijna je hele leven.

De echte vraag is dan misschien niet of je medisch dossier in ChatGPT je verder gaat helpen, maar hoeveel controle je uit handen wil geven voor dat gemak. Want één ding is zeker: uploaden duurt enkele seconden, maar terugdraaien misschien wel een heel leven.

Lees ook: Experts say: mag je je geloften door ChatGPT laten schrijven?