In een notendop
Onderzoek de verbanden tussen artificial intelligence (AI) en de GDPR/AVG (General Data Protection Regulation/Algemene Verordening Gegevensbescherming) en benadruk de voordelen, risico's en beperkingen die verband houden met het gebruik van AI in planningsbeheer, met name via tools zoals PlanningPME.
Wat is de definitie van de GDPR/AVG?
De GDPR (General Data Protection Regulation) is een Europese verordening die op 25 mei 2018 in werking is getreden en die tot doel heeft de persoonsgegevens van burgers van de Europese Unie (EU) te beschermen en de gegevensbeschermingswetten binnen de EU te harmoniseren.
De GDPR/AVG is een wettelijk kader dat de regels vastlegt voor het verzamelen, verwerken, bewaren en beveiligen van persoonsgegevens van individuen. Het geeft burgers meer controle over hun gegevens en legt tegelijkertijd verplichtingen op aan de bedrijven en organisaties die deze gegevens verzamelen of verwerken.
Wat is AI?
Artificial intelligence (AI) is een discipline van de informatica die tot doel heeft systemen te creëren die menselijke cognitieve processen kunnen simuleren, zoals leren, redeneren, probleemoplossing, object- of geluidsherkenning en besluitvorming. Met andere woorden, AI stelt machines in staat om complexe taken uit te voeren waarvoor voorheen menselijke tussenkomst nodig was.

Wat zijn de gevaren van AI in relatie tot de GDPR/AVG?
De gevaren van kunstmatige intelligentie (AI) in verband met de Algemene Verordening Gegevensbescherming (AVG) hebben voornamelijk betrekking op de bescherming van persoonsgegevens en de rechten van individuen. Hier zijn enkele kritieke punten om te overwegen:
Bulkverzameling van persoons gegevens :
AI-systemen, met name die gebaseerd op machine learning, hebben grote hoeveelheden data nodig om effectief te zijn. Dit kan leiden tot overmatige of onnodige verzameling van persoonsgegevens. Volgens de GDPR/AVG moeten bedrijven ervoor zorgen dat alleen strikt noodzakelijke gegevens worden verzameld en gebruikt (het principe van dataminimalisatie).
Vooroordelen en discriminatie :
AI-algoritmen kunnen bevooroordeeld zijn op basis van trainingsdata, wat kan leiden tot oneerlijke discriminatie, bijvoorbeeld op basis van ras, geslacht of etniciteit. De GDPR/AVG legt verplichtingen op met betrekking tot transparantie en eerlijkheid, wat betekent dat geautomatiseerde beslissingen geen onevenredige negatieve gevolgen mogen hebben voor bepaalde categorieën mensen.
Gebrek aan transparantie :
Veel AI-algoritmen werken als „zwarte dozen”, waardoor het voor individuen moeilijk is om te begrijpen hoe hun gegevens worden gebruikt of hoe beslissingen hierover worden genomen. De GDPR/AVG vereist transparantie over de manier waarop persoonsgegevens worden verwerkt en algoritmen die van invloed zijn op belangrijke beslissingen over individuen.
Schending van het recht op verwijdering („recht om te worden vergeten”) :
AI-systemen kunnen het moeilijk maken om het recht op verwijdering af te dwingen (artikel 17 GDPR), omdat gegevens over meerdere systemen kunnen worden verspreid of onomkeerbaar kunnen worden getransformeerd. Bedrijven die AI gebruiken, moeten mechanismen instellen waarmee persoonlijke gegevens op verzoek van gebruikers kunnen worden gewist.
Geautomatiseerde besluitvorming :
De GDPR kent individuen het recht toe om niet te worden onderworpen aan volledig geautomatiseerde beslissingen die juridische of aanzienlijke gevolgen voor hen hebben (artikel 22). Veel toepassingen van AI kunnen echter in deze categorie vallen, met name in de bank- of personeelssector. Bedrijven moeten expliciete toestemming van de betrokkene verkrijgen of ervoor zorgen dat er andere waarborgen zijn om de rechten van gebruikers te beschermen.
Gegevensbeveiliging :
AI-systemen kunnen kwetsbaar zijn voor cyberaanvallen, waardoor de veiligheid van persoonsgegevens in gevaar komt. De GDPR/AVG vereist passende beveiligingsmaatregelen om gegevens te beschermen tegen inbreuken.
Aansprakelijkheidsvraagstukken :
Als een AI-systeem een datalek of schade veroorzaakt als gevolg van geautomatiseerde beslissingen, kan het moeilijk zijn om te bepalen wie verantwoordelijk is: de maker van het algoritme, de entiteit die de AI gebruikt of een andere partij. De GDPR/AVG legt aanzienlijke straffen op voor overtredingen, dus het is essentieel om de verantwoordelijkheden te verduidelijken.
Samenvattend houden de gevaren van AI in verband met de GDPR/AVG voornamelijk verband met buitensporige gegevensverzameling, vooroordelen in geautomatiseerde beslissingen, gebrek aan transparantie en de moeilijkheid om bepaalde grondrechten te respecteren, zoals het recht om te worden vergeten. Bedrijven moeten bijzonder waakzaam zijn bij het gebruik van AI in processen waarbij persoonsgegevens betrokken zijn.
Voldoet AI echt aan de principes van de GDPR/AVG?
Of AI echt voldoet aan de principes van de GDPR/AVG is complex en hangt af van hoe AI wordt geïmplementeerd, beheerd en gemonitord. De GDPR/AVG bevat duidelijke regels voor de bescherming van persoonsgegevens, en AI-systemen moeten hieraan voldoen. In deze context doen zich echter verschillende technische en ethische uitdagingen voor. Dit zijn de belangrijkste aspecten waarmee u rekening moet houden:
- Principe van gegevens minimalisatie :
De GDPR/AVG vereist dat alleen gegevens worden verzameld en verwerkt die nodig zijn voor een specifiek doel. AI, met name systemen voor machine learning, vertrouwt echter vaak op grote hoeveelheden data om te 'leren' en de prestaties te verbeteren. Het kan moeilijk zijn om in AI-systemen aan dit principe te voldoen, omdat het verleidelijk kan zijn om gegevens te verzamelen om algoritmen te verbeteren, zelfs als een deel ervan niet strikt noodzakelijk is.
- Expliciete en geïnformeerde toestemming :
De GDPR/AVG vereist dat personen expliciet en geïnformeerd toestemming geven voor het gebruik van hun gegevens. Dit betekent dat ze moeten weten hoe hun gegevens door AI worden gebruikt. De complexiteit van AI-algoritmen maakt het echter vaak moeilijk om gebruikers duidelijk uit te leggen hoe hun gegevens worden verwerkt, en of AI-systemen zich nog steeds aan dit principe houden, is een controversieel onderwerp.
- Recht om te worden vergeten en rectificatie van gegevens :
De GDPR/AVG geeft personen het recht om te verzoeken om het wissen van hun persoonsgegevens (het "recht om vergeten te worden") of om het corrigeren van onjuiste gegevens. Met AI, met name in systemen op basis van machine learning, kan het moeilijk zijn om die gegevens volledig te verwijderen of de impact van onjuiste gegevens te corrigeren zodra gegevens zijn gebruikt om een model te trainen. De naleving van dit principe is bijzonder problematisch, omdat AI-systemen gegevens kunnen bijhouden, zelfs nadat deze formeel zijn verwijderd.
- Geautomatiseerde besluitvorming en het recht op menselijke tussenkomst :
De GDPR/AVG verbiedt bedrijven om individuen te onderwerpen aan volledig geautomatiseerde beslissingen (zoals beslissingen van AI) zonder menselijke tussenkomst wanneer deze juridische of significante gevolgen hebben. Dat betekent dat er mechanismen moeten worden gecreëerd waarmee een mens kan ingrijpen en de beslissingen van een AI kan aanvechten. In de praktijk is het vaak moeilijk om te zorgen voor voldoende menselijk toezicht op AI-systemen, vooral wanneer deze op grote schaal worden gebruikt in kritieke processen (zoals werving of toekenning van kredieten).
- Transparantie en verklaarbaarheid :
De GDPR/AVG vereist transparantie over de manier waarop persoonsgegevens worden verwerkt, inclusief een duidelijke uitleg over hoe een geautomatiseerde beslissing werd genomen. AI-algoritmen zijn vaak ondoorzichtig (een 'black box'-fenomeen), waardoor het voor organisaties moeilijk is om te voldoen aan de transparantievereisten van de AVG. Veel AI-technologieën zijn nog niet voldoende ontwikkeld om gebruikers begrijpelijke uitleg te geven, waardoor de naleving van dit principe in twijfel wordt getrokken.
- Gegevensbeveiliging :
De GDPR/AVG vereist beveiligingsmaatregelen om persoonsgegevens te beschermen tegen verlies, ongeautoriseerde toegang of onrechtmatige verwerking. AI-systemen, met name systemen die zijn gebaseerd op de cloud of op complexe architecturen, kunnen kwetsbaar zijn voor cyberaanvallen, wat een risico vormt voor de beveiliging van persoonsgegevens. Als er toch datalekken plaatsvinden, kan dit leiden tot zware straffen voor bedrijven op grond van de GDPR/AVG, vooral als de gegevens die door AI worden verwerkt niet goed zijn beveiligd.
AI kan voldoen aan de principes van de GDPR/AVG, maar dit vereist voortdurende waakzaamheid en aanzienlijke inspanningen om systemen aan te passen aan de vereisten van de regelgeving. Veel AI-bedrijven en -ontwikkelaars werken aan het verbeteren van de transparantie, beveiliging en gegevensbeheer om te voldoen aan de GDPR/AVG-vereisten, maar er zijn nog steeds aanzienlijke uitdagingen die moeten worden overwonnen, vooral als het gaat om gegevens minimalisatie, geautomatiseerde besluitvorming en verklaarbaarheid van algoritmen. Zoals het er nu voor staat, is de strikte toepassing van de GDPR/AVG-principes in AI-systemen niet altijd gegarandeerd, vooral niet op complexere gebieden.
Kan AI mijn gegevens verzamelen zonder mijn toestemming?
Nee, in theorie kan AI uw persoonlijke gegevens niet verzamelen zonder uw toestemming, volgens de Algemene Verordening Gegevensbescherming (AVG). De GDPR/AVG legt strikte regels op voor het verzamelen, gebruiken en verwerken van persoonsgegevens. Er zijn echter nuances en uitzonderingen op deze regel, evenals uitdagingen in de praktijk.
Hier is een overzicht:
- Expressieve toestemming vereist :
De GDPR/AVG vereist dat bedrijven en systemen die persoonsgegevens verwerken, expliciete en geïnformeerde toestemming verkrijgen voordat gegevens worden verzameld of verwerkt. Dit betekent dat gebruikers moeten worden geïnformeerd over hoe hun gegevens worden gebruikt, door wie en voor welke doeleinden. Om geldig te zijn, moet toestemming vrij, specifiek, geïnformeerd en ondubbelzinnig zijn. Gebruikers moeten de mogelijkheid krijgen om de verwerking van hun persoonsgegevens te accepteren of te weigeren.
- AI en de moeilijkheid om duidelijke toestemming te verkrijgen :
AI-systemen die gebruikmaken van methoden voor gegevensverzameling, zoals gedragsregistratie of analyse van gebruikersvoorkeuren, kunnen gegevens op een meer discrete manier verzamelen, soms zonder dat gebruikers volledig op de hoogte zijn van de soorten gegevens die worden vastgelegd. In sommige gevallen worden AI-systemen geïntegreerd in platforms of toepassingen die gebruikers mogelijk niet voldoende informatie bieden over het verzamelen van gegevens, of die op onduidelijke wijze toestemming verkrijgen (bijvoorbeeld via ingewikkelde interfaces of vooraf aangevinkte vakjes). Volgens de GDPR/AVG is dit soort impliciete verzameling echter niet conform en moet de toestemming expliciet en geïnformeerd zijn.
- Traceerbaarheid en transparantie :
De GDPR/AVG vereist volledige transparantie over de manier waarop gegevens worden verzameld en verwerkt. Gebruikers moeten kunnen begrijpen welke gegevens worden verzameld en voor welke doeleinden. AI-systemen moeten daarom worden geconfigureerd om gebruikers te informeren over hun gegevensverwerking, vaak via privacybeleid, contextuele mededelingen of toestemmingsinterfaces.
- Gevaren van onvrijwillige verzameling :
Hoewel de GDPR/AVG in principe beschermt tegen het verzamelen van gegevens zonder toestemming, kunnen sommige bedrijven deze regels onbedoeld of opzettelijk omzeilen, vooral bij complexe AI-systemen. Anonieme of geaggregeerde gegevens kunnen bijvoorbeeld zonder toestemming worden verzameld, maar deze gegevens kunnen in sommige gevallen ‘heridentificeerbaar’ zijn, vooral als er kruisverwijzingen zijn naar andere datasets.
- Gedragsregistratie en cookies :
Veel AI-systemen worden gebruikt om online gedrag te analyseren door middel van cookies of andere trackingtechnologieën. Toestemming is vereist voor tracking via niet-essentiële cookies (cookies die niet strikt noodzakelijk zijn voor de werking van een website). Internetgebruikers moeten hun expliciete toestemming geven, vaak door middel van een cookiebanner. Als een site of app uw gegevens via deze AI-systemen verwerkt zonder uw uitdrukkelijke toestemming voor het gebruik van niet-essentiële cookies, is dit in strijd met de GDPR/AVG.
- Gegevensherstel van derden :
In sommige gevallen kunnen bedrijven gegevens verkrijgen via derden (zoals zakenpartners) en deze gebruiken om AI-systemen te trainen. Deze derden moeten toestemming van de gebruiker hebben verkregen om de gegevens te delen, en het bedrijf dat de gegevens gebruikt, moet er ook voor zorgen dat het gebruik voldoet aan de GDPR/AVG-regels.
AI kan uw persoonlijke gegevens niet verzamelen zonder uw toestemming, behalve in beperkte gevallen waarin de GDPR/AVG voorziet (zoals een legitiem belang of de uitvoering van een contract). In de praktijk zijn er echter gevallen waarin de verzameling van AI-gegevens ondoorzichtig is of slecht wordt gecommuniceerd, wat aanleiding geeft tot bezorgdheid over de volledige naleving van de GDPR/AVG-principes. Om je gegevens te beschermen, is het essentieel om het privacybeleid te lezen en de toestemmingsinstellingen op AI-platforms te begrijpen.
Zijn AI-algoritmen bevooroordeeld of discriminerend?
Ja, algoritmen voor AI kunnen bevooroordeeld of discriminerend zijn, en dit is een groot probleem bij de ontwikkeling en het gebruik van AI-systemen. Hoewel AI vaak als onpartijdig en objectief wordt beschouwd, kunnen verschillende factoren leiden tot vooringenomenheid en discriminatie in de beslissingen die door deze algoritmen worden genomen. Dit is waarom en hoe dit kan gebeuren:
- Vooroordelen in trainingsgegevens :
AI-systemen, vooral die gebaseerd zijn op machine learning, worden getraind op grote hoeveelheden data. Als deze gegevens bestaande of historische vooroordelen bevatten, zal het algoritme deze vooroordelen leren en reproduceren. Als de gegevens die worden gebruikt om een wervingsmodel te trainen bijvoorbeeld afkomstig zijn van jaren waarin vrouwen ondervertegenwoordigd waren in bepaalde technische functies, zou het algoritme onbewust vrouwelijke sollicitanten kunnen bestraffen. Een ander voorbeeld is de toepassing van gezichtsherkenning, waarbij sprake is van raciale vooroordelen. Studies hebben aangetoond dat sommige algoritmen voor gezichtsherkenning minder nauwkeurig zijn in het identificeren van mensen met een donkere huidskleur, omdat ze meestal zijn getraind met afbeeldingen van mensen met een lichte huid.
- Algoritme-ontwerp :
Algoritme ontwerpers kunnen, vaak onbedoeld, vooroordelen introduceren in de keuze van variabelen waarmee rekening moet worden gehouden of in de doelstellingen die ze voor het algoritme stellen. Als een bank bijvoorbeeld criteria hanteert als adres of kredietgeschiedenis, kan dit indirect discriminatie opleveren ten opzichte van bepaalde bevolkingsgroepen (zoals minderheden of mensen die in achterstandswijken wonen). Deze criteria kunnen namelijk historische sociale ongelijkheden weerspiegelen.
- Vertekening door gegevensselectie :
Als de steekproef van gegevens die worden gebruikt om een algoritme te trainen niet representatief is voor de werkelijke populatie, kan dit leiden tot vooroordelen. Een algoritme dat bijvoorbeeld alleen is getraind op gegevens uit een bepaalde regio of een bepaalde demografische groep, kan slecht werken wanneer het op verschillende populaties wordt gebruikt. Deze ondervertegenwoordiging in de data kan leiden tot minder nauwkeurige voorspellingen voor minderheidsgroepen.
- Black box-effect :
Veel AI-algoritmen, vooral die gebaseerd zijn op neurale netwerken of deep learning-technieken, worden vaak „black boxes” genoemd omdat hun interne processen zelfs voor hun makers moeilijk te begrijpen zijn. Dit kan het moeilijk maken om vooroordelen of discriminatie in de werking van het algoritme te detecteren. Het gebrek aan transparantie maakt het ook moeilijker om te weten waarom een specifieke beslissing is genomen, bijvoorbeeld in gevallen waarin een algoritme een lening weigert of een bepaalde actie in de gezondheidszorg aanbeveelt.
- Versterking van ongelijkheden :
Als AI-algoritmen worden gebruikt in gevoelige sectoren (justitie, gezondheidszorg, recruitment, financiën), kunnen ze bestaande ongelijkheden bestendigen of zelfs verergeren. Een AI-systeem dat in het strafrecht wordt gebruikt, zou bijvoorbeeld zwaardere straffen kunnen aanbevelen voor bepaalde raciale groepen vanwege historische vooroordelen in veroordelingsgegevens. Op dezelfde manier kunnen kredietsystemen die mensen met een beperkte financiële geschiedenis of lage kredietscores uitsluiten, mensen met een laag inkomen of mensen uit gemarginaliseerde minderheden benadelen.
- Indirecte discriminatie :
Zelfs als gevoelige variabelen zoals ras, geslacht of seksuele geaardheid niet expliciet in het algoritme worden gebruikt, kunnen andere schijnbaar neutrale variabelen indirecte correlaties hebben met deze kenmerken en tot discriminatie leiden. Als je bijvoorbeeld geolocatie gebruikt als criterium om een kandidaat te beoordelen, kan dat indirect discriminatie opleveren vanwege de segregatie op basis van woonsituatie.
AI-algoritmen kunnen bevooroordeeld of discriminerend zijn, vaak als gevolg van vooringenomen gegevens, gebrekkige algoritmische ontwerpen of een gebrek aan adequaat toezicht. Deze vooroordelen kunnen aanzienlijke gevolgen hebben voor kwetsbare of gemarginaliseerde bevolkingsgroepen. Met de juiste praktijken, zoals regelmatige audits, een betere weergave van gegevens en transparantiemaatregelen, is het echter mogelijk om deze vooroordelen te verminderen en AI eerlijker en ethischer te maken.
Waarom maakt PlanningPME geen gebruik van AI?
PlanningPME heeft ervoor gekozen om geen gebruik te maken van AI op basis van haar prioriteiten, huidige functies en bedrijfsstrategie. Dit is waarom PlanningPME AI niet integreert:
Aard van de gebruikersbehoeften
- Eenvoud en efficiëntie : Gebruikers van PlanningPME zijn vaak op zoek naar eenvoudige en praktische oplossingen om hun planningen te beheren, zonder onnodige complexiteit. AI is weliswaar innovatief, maar kan als onnodig ingewikkeld worden ervaren voor taken waarbij standaard tools voldoende zijn.
- Aangepaste functies : PlanningPME biedt al robuuste functies voor planningsbeheer (toewijzing van resources, verlofbeheer, enz.), en AI is niet noodzakelijk essentieel om aan de huidige behoeften van de gebruikers te voldoen.
Naleving van persoonsgegevens (GDPR/AVG)
- Gevoeligheid van gegevens : AI-integratie omvat vaak het verzamelen, analyseren en verwerken van grote hoeveelheden gegevens. Dit kan aanleiding geven tot bezorgdheid over de bescherming van persoonsgegevens en de naleving van de AVG.
- Juridische risico's vermijden : Door AI niet te integreren, kan PlanningPME de risico's vermijden die gepaard gaan met slecht gegevensbeheer of algoritmische fouten die schadelijk kunnen zijn voor gebruikers.
Aanpassing aan de doelgroep
- Traditionele gebruikers : Gebruikers van PlanningPME zijn vaak bedrijven of organisaties die de voorkeur geven aan traditioneel planningsbeheer, zonder dat er geavanceerde aanbevelingen of automatiseringen nodig zijn. Het toevoegen van AI-functies kan als buitensporig of ongepast worden ervaren.
Niet onmiddellijk nodig
- Prioriteiten van gebruikers : De huidige gebruikers van PlanningPME hebben geen vraag gesteld naar op AI gebaseerde functies.
- Waargenomen toegevoegde waarde : In sommige gevallen creëert de integratie van AI niet voldoende toegevoegde waarde om de ontwikkeling ervan te rechtvaardigen.
Strategische positionering
- Focus op menselijke efficiëntie : PlanningPME benadrukt liever het belang van menselijke betrokkenheid bij planningsbeheer, waarbij gebruikers de volledige controle over beslissingen behouden, in plaats van bepaalde taken te delegeren aan een AI.
- Visie van het bedrijf : Target Skills, het bedrijf dat de PlanningPME-applicatie publiceert, heeft ervoor gekozen zich te concentreren op bewezen en stabiele functies in plaats van te beginnen met opkomende technologieën zoals AI.
De risico's van AI beperken
- Algoritmische vooroordelen : AI-systemen kunnen vooroordelen introduceren in geautomatiseerde beslissingen, wat een negatieve invloed kan hebben op de betrouwbaarheid of eerlijkheid van de gegenereerde planningen.
- Betrouwbaarheid : AI kan soms resultaten opleveren die onnauwkeurig zijn of niet aangepast zijn aan specifieke contexten, wat de gebruikerstevredenheid kan schaden.
PlanningPME maakt geen gebruik van AI omdat de behoeften van de huidige gebruikers dat niet vereisen en omdat het bedrijf zich liever richt op bewezen oplossingen die zijn afgestemd op zijn doelgroep.
Gevaren zijn onder meer overmatige gegevensverzameling, algoritmische vooringenomenheid, problemen bij het respecteren van het recht op wissen en gebrek aan transparantie bij de gegevensverwerking.
Ja, maar alleen als het voldoet aan de rechtsgrondslagen van de GDPR/AVG(zoals expliciete toestemming) en beveiligingsmaatregelen zoals pseudonimisering toepast.
Door het verzamelen van gegevens te beperken, te anonimiseren of te pseudonimiseren en de beveiliging ervan te waarborgen door middel van versleuteling en regelmatige audits.
Gebruikers hebben het recht om toegang te krijgen tot hun gegevens, om verwijdering ervan te vragen, geautomatiseerde beslissingen aan te vechten en uitleg te krijgen over de gebruikte algoritmen.