AI en privacy: wat je nooit moet delen met chatbots
AI-chatbots zijn krachtig, maar ze zijn géén veilige kluis.
In deze gids lees je welke informatie je nooit moet invoeren, waarom dat risico’s geeft en hoe je AI veilig kunt gebruiken zonder je privacy op te offeren.
Wil je eerst leren hoe je AI goed en verantwoord gebruikt? Lees dan ook:
Waarom voorzichtig zijn met privacy bij AI
Chatbots zoals ChatGPT en andere AI-tools verwerken je input op servers van derden. Dat betekent dat wat jij intypt kan worden gebruikt voor training, analytics of — in sommige gevallen — kan worden bekeken door mensen bij het AI-bedrijf, afhankelijk van instellingen en voorwaarden.
Daarom moet je onderscheid maken tussen wat **veilig is om in te voeren** en wat **nooit gedeeld mag worden**.
1. Persoonlijke identificatiegegevens (PII)
Deze informatie mag *nooit* in AI-prompts worden geplaatst, omdat het direct herleidbaar is tot jou of anderen:
- Volledige naam + geboortedatum gecombineerd
- Adres of locatiegegevens
- Telefoonnummer
- Emailadressen (zakelijk of privé)
- Sofinummer / burgerservicenummer
Je kunt generieke placeholders gebruiken zoals `
2. Financiële gegevens
Delen van gevoelige financiële informatie heeft risico’s zoals identiteitsdiefstal of misbruik:
- Bankrekening- of IBAN-nummers
- Krediet-/debetkaartnummers
- Transactie- of saldo-gegevens
Geef nooit echte cijfers in prompts. Gebruik bijvoorbeeld fictieve bedragen of placeholders.
3. Medische en gezondheidsinformatie
Je medische geschiedenis is zeer privacygevoelig. Delen met AI kan risico’s geven als gegevens later geanalyseerd of opgeslagen worden.
- Diagnoses
- Behandelplannen
- Medicatie- of consultgegevens
4. Bedrijfsgevoelige informatie
Voor ondernemers en organisaties zijn bepaalde gegevens vertrouwelijk:
- Contractvoorwaarden zonder anonimisering
- Klantspecificaties of offertes
- Gevoelige prijzen of strategische data
Wil je AI gebruiken voor zakelijke teksten, koppel dan alleen wat **nodig is** en vervang gevoelige onderdelen door placeholders (bijv. `
5. Wachtwoorden en toegangscodes
Dit lijkt vanzelfsprekend, maar het moet expliciet vermeld worden: **nooit wachtwoorden, API-sleutels, 2FA-codes of private certificates invoeren** in een prompt.
Hoe AI veilig te gebruiken zonder privacy-risico
- Gebruik placeholders zoals `[KLANT]`, `[BEDRAG]`, `[PROCES]` in prompts.
- Anonymiseer bedrijfsdata wanneer je AI gebruikt voor documenten of workflows.
- Lees de privacyvoorwaarden van de AI-tool die je gebruikt — sommige bieden opt-out voor training.
- Beperk gevoelige context door alleen de noodzakelijke informatie op te nemen.
Bij zakelijke gebruikscases, zoals het genereren van offertevoorstellen of klantcorrespondentie, kun je een generieke context meegeven zonder persoonsgegevens — bijvoorbeeld:
“Schrijf een professionele e-mail naar een klant over onze facturatieprocedure” in plaats van `
Voorbeelden van veilige prompts
- Onveilig — *“Schrijf een e-mailbericht naar [email protected] over zijn openstaande factuur van €985.”*
(Bevat e-mailadres en bedrag → niet veilig) - Veilig — *“Schrijf een e-mailtemplate voor een herinnering aan een klant over een openstaande factuur.”*
(Geen PII, veilig te delen) - Veilig voor zakelijke teksten — *“Genereer een offerte-samenvatting over project X met scope, deliverables en prijsopties.”*
(Gebruik placeholder *project X* i.p.v. echte bedrijfsnamen/klanten)
AI en AVG / GDPR in Nederland en de EU
Als je AI gebruikt voor persoonsgegevens van EU-burgers, dan valt dat onder de Algemene Verordening Gegevensbescherming (AVG/GDPR). Dit betekent o.a.:
- Je moet weten waar de data wordt verwerkt en opgeslagen
- Je moet je gebruikers informeren over datagebruik
- Je mag niet zomaar gevoelige data delen zonder rechtsgrond
AI-chatbots zijn niet automatisch AVG-proof. Gebruik daarom altijd tools die expliciet AVG-ondersteuning bieden of richt procedures in die voldoen aan privacywetgeving.
Veelgemaakte fouten en hoe ze te vermijden
- Fout: echte namen/telefoonnummers invoeren →
Tip: vervang met generieke placeholders. - Fout: financiële data rechtstreeks delen →
Tip: gebruik fictieve voorbeelden. - Fout: geen controle op output →
Tip: review altijd voordat je deelt met derden.
Veelgestelde vragen
Mag ik bedrijfsdata gebruiken in AI als ik het anonimiseer?
Ja — anonimiseer gevoelige informatie voordat je deze invoert (*bijv.* geen echte namen, nummers of adressen).
Hoe weet ik of een AI-provider mijn data gebruikt voor training?
Lees de privacy- en servicevoorwaarden. Sommige providers laten je expliciet opt-out van training met je data.
Wat als ik per ongeluk privacygevoelige info deel?
Verwijder de prompt indien mogelijk en update je beleid/promptrichtlijnen zodat het de volgende keer niet meer gebeurt.
Conclusie
AI-chatbots zijn krachtige tools, maar ze zijn geen veilige opslagplaats voor privacy-gevoelige gegevens.
De gouden regel: **deel nooit persoonlijke identificatie, financiële info, medische gegevens, wachtwoorden of bedrijfsgeheimen zonder anonimisering**.
Gebruik placeholders, beperk context tot wat relevant is en kies tools met duidelijke AVG/GDPR-ondersteuning.
Disclaimer: dit artikel is bedoeld als informatieve gids en geen vervanging voor juridisch advies.