Waarschuwing voor risico’s van gebruik generatieve kunstmatige intelligentie (AI) op de werkvloer

Een brochure maken voor je nieuwe product? Daar draait een gemiddelde ondernemer zijn hand niet meer voor om. Je vraagt een tool als ChatGPT om een tekst te schrijven, genereert via een website een aantal stockfoto’s van niet-bestaande personen en laat een app een mooie opmaak genereren. Generatieve kunstmatige intelligentie (ook wel generatieve AI)*) biedt ondernemers tal van handige mogelijkheden.

Manon den Dunnen is de eerste om dat toe te geven. Zelf heeft ze ook weleens ChatGPT gebruikt om wat teksten te genereren. Maar ze is zich heel bewust van welke informatie ze invoert: “Als je het niet op Linkedin zou zetten, moet je het ook niet invoeren op ChatGPT. Want dat systeem traint zichzelf met de informatie die je invoert en voordat je het weet komt jouw informatie terug in teksten die gegenereerd zijn voor anderen. Daarom hebben bedrijven zoals Samsung hun medewerkers verboden het te gebruiken”.

Manon den Dunnen is Strategisch specialist Digitaal bij de politie. In die rol volgt ze alle nieuwe technologische ontwikkelingen op de voet: “Ik zoek uit wat het betekent voor onze samenleving en daarmee voor het werk en de rol van de politie. Ik probeer bijvoorbeeld de hypes door te prikken en te zorgen dat wij als politie niet met alles meegaan. Maar tegelijkertijd willen we als politie wel snappen wat de nieuwe technologieën precies inhouden, omdat we ze tegenkomen in onze opsporingsonderzoeken”.

Mislukte CEO-fraude

Door de snelle opmars van synthetische media, komt ook het online werken in gevaar. Via speelse apps kun je in een handomdraai allerlei foto’s en video’s genereren, en met dertig seconden stemgeluid kun je iemand zeven verschillende talen laten spreken. Onlangs kwam Bunq Bank in het nieuws vanwege een mislukte poging tot CEO-fraude. Een medewerker van de bank kreeg via een videogesprek met de topman van het bedrijf het verzoek om geld over te maken. Het bleek om een deepfake te gaan. Gelukkig was de medewerker oplettend genoeg om zelf de CEO terug te bellen.

En daar gaat het om volgens Den Dunnen: “Misbruik via AI lossen we niet op met regulering of technologie, dit moet je oplossen in gedrag”. Ze geeft vier waardevolle tips:

  • Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare taalmodellen. Dus ook geen namen van personen. Wees je bewust dat de systemen zijn gericht op het genereren van teksten ‘die lijken op’, het is geen zoekmachine, er zit geen database achter, dus gebruik het niet als feitelijkheid belangrijk is.
  • Twijfel je over de identiteit van de persoon aan de andere kant van de lijn? Stel voor dat je even terug belt op het nummer dat je zelf in de telefoon hebt staan of invoert, of stel een belevingsvraag. Bijvoorbeeld: Hoe was je gesprek gisteren?
  • Onderzoek welke oplossingen je in afstemming met partners in de keten kunt doorvoeren om de authenticiteit van de afzender van facturen of andere belangrijke communicatie, vast te stellen. Grijp terug op adviezen relevant voor bijvoorbeeld phishing of CEO-fraude. Deze vormen van cyberincidenten blijven in de basis hetzelfde ook al wordt AI als hulpmiddel ingezet.
  • Weet welke vragen je moet stellen bij de aanschaf van inkoop van software. Bijvoorbeeld: Op welke manier maakt deze software gebruik van kunstmatige intelligentie, hoe is het getraind, wat gebeurt er met deze data en welke veiligheidsvraagstukken spelen er?

Terug naar menselijk contact

We moeten terug naar menselijk contact, vindt Den Dunnen: “Menselijke interactie is nog altijd het beste. Er zijn leveranciers die zeggen: in onze applicatie zit deepfake detectie ingebouwd. Maar dat gaat niet werken. Je hebt geen controle op wat of wie er aan de andere kant zit. Sollicitatiegesprekken moet je bij voorkeur ook niet via internet voeren”.

“Vertrouwelijke gesprekken kun je beter in persoon voeren”, Interview met Manon den Dunne,  Digital Trust Center: www.digitaltrustcenter.nl/interview-politie-over-AI

AI op de werkvloer: DTC en politie delen tips, Digital Trust Center, 5 december 2023: www.digitaltrustcenter.nl/nieuws/ai-op-de-werkvloer-dtc-en-politie-delen-tips

Het Digital Trust Center (DTC) is – uit de wens van de Tweede Kamer – in 2017 opgezet als programma bij het Ministerie van Economische Zaken en Klimaat. Sinds 2020 is het DTC een vast onderdeel van dit ministerie. De missie van DTC is om haar doelgroep van 2,0 miljoen bedrijven in Nederland veilig digitaal te laten ondernemen en hun cyberweerbaarheid te verhogen. www.digitaltrustcenter.nl

Noot
*) Generatieve AI is een vorm van kunstmatige intelligentie die tekst, afbeeldingen en gevarieerde inhoud kan produceren op basis van de gegevens waarop het wordt getraind: www.uu.nl/onderwijs/onderwijs-aan-de-uu/onderwijs-geven/generatieve-ai

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

Nieuwsbrief ontvangen?

Wij houden u graag op de hoogte van actuele ontwikkelingen binnen Stichting Beroepseer.  Wilt u onze nieuwsbrief ontvangen? Dan kunt u zich hieronder aanmelden.

Contact

Adres:
Multatulilaan 12
4103 NM Culemborg

Email:
info@beroepseer.nl

© Stichting beroepseer