Deel je vraag!

Of je nu al precies weet wat je zoekt of nog geen idee hebt: we denken graag met je mee.

We gaan ermee aan de slag!
Oeps! Er is iets misgegaan tijdens het versturen.
Lange Viestraat 2b, 3511BK Utrecht,
The Netherlands

AI Ethiek

Bouw AI-oplossingen die eerlijk, transparant en mensgericht zijn.

Wij willen dat iedereen vrolijk wordt van data AI. Echt iedereen.

AI is een krachtig hulpmiddel, maar de ontwikkeling ervan brengt een grote verantwoordelijkheid met zich mee. De data die we gebruiken is geen abstractie; het vertegenwoordigt vaak mensen, hun gedrag, hun voorkeuren en hun levens.

Ons ethisch kompas is daarom helder: we willen AI-oplossingen maken waar mensen vrolijk van worden, echt iedereen. Dit geldt ook, en misschien wel juist, voor de mensen wiens data de basis van het model vormen. Ethiek is voor ons geen 'vinkje' achteraf, maar een fundamenteel onderdeel van het ontwerpproces.

Maar daarbij moeten we ook eerlijk zijn: een model dat volledig vrij is van 'bias' (vooringenomenheid) is een utopie. De kern van machine learning is patroonherkenning en onderscheid maken. Een model dat honden van katten onderscheidt, 'discrimineert' op basis van kenmerken als snuitlengte of oren. Dit is functioneel en gewenst.

Het wordt complexer wanneer die kenmerken mensen betreffen. De data die we gebruiken is een spiegel van onze maatschappij, inclusief de historische en systemische vooroordelen die daarin verweven zijn.

De cruciale ethische vraag is daarom niet óf een model onderscheid maakt, maar:

  1. Langs welke assen maakt het onderscheid?
  2. Welk onderscheid is functioneel en acceptabel?
    (bijv. kredietwaardigheid baseren op betaalgedrag)
  3. Welk onderscheid is onacceptabel en schadelijk?
    (bijv. op basis van afkomst, geslacht of postcode)


Ben jij klaar om AI verantwoord in te zetten binnen jouw organisatie?

Bedankt voor het invullen van het formulier, we nemen contact op!
Oeps! Er is iets misgegaan tijdens het versturen.

Bias

In AI-modellen

AI-modellen baseren hun resultaten uitsluitend op de data die de ontwikkelaars aan ze geven. Dit is per definitie een onvolledige digitale representatie van de complexe, analoge werkelijkheid. Er zijn vele verschillende soorten bias, die op meerdere manieren in het proces kunnen sluipen. Twee van de meest voorkomende en impactvolle vormen zijn:

  • Sample bias: de data is geen goede afspiegeling van de werkelijkheid, doordat belangrijke groepen of datapunten ondervertegenwoordigd (of zelfs compleet ontbreken).

    Voorbeeld: een gezichtsherkenningsmodel dat voornamelijk is getraind op witte mannen, zal significant slechter presteren voor vrouwen van kleur
  • Historische bias: de data weerspiegelt maatschappelijke vooroordelen uit het verleden

    Voorbeeld: een HR-model leert dat ‘succesvolle’ kandidaten in het verleden vooral mannen waren, zal daarom nu vrouwelijke kandidaten lager rangschikken

Een veelgehoorde misvatting is:

"Als we gevoelige kenmerken zoals etniciteit of geslacht uit de dataset verwijderen, kan het model daar niet op discrimineren."

Dit is helaas onjuist.

Modellen zijn waanzinnig goed in het vinden van correlaties. Dit kan leiden tot proxy-discriminatie: het model gebruikt datapunten die neutraal lijken (zogenaamde 'proxy-variabelen'), maar die sterk samenhangen met een gevoelig kenmerk dat het model in feite alsnog op dat kenmerk discrimineert.

Enkele voorbeelkden zijn:

  • Postcode lijkt neutraal, en is ook géén bijzonder persoonsgegeven, maar correleert vaak sterk met gemiddeld inkomen, opleidingsniveau en etnische samenstelling van een wijk.
  • Opleidingsniveau of aandeel geletterdheid kan correleren met sociaaleconomische status.

Een model dat leert dat 'postcode X' een hoog risico vormt, discrimineert mogelijk indirect op basis van afkomst of religie, zelfs als die data 'netjes' was verwijderd. Het waarborgen van de privacy van gevoelige gegevens alleen is daarom niet voldoende om te garanderen dat een model niet vooringenomen is. Sterker nog, dit kan het zelfs moeilijker maken om te herkennen óf dat zo is.

Toepassen van AI

Zonder ongewenste feedback loop

Afhankelijk van hoe je de uitkomst van een AI model inzet, bestaat ook nog het risico dat het onbewust in een feedback-loop terechtkomt die deze vooringenomenheid nog verder uitvergroot. Dit kan gebeuren wanneer er sprake is van een zelfvervullende voorspelling, een self-fulfilling prophecy.

Een voorbeeld: je bent op zoek naar fraudegevallen en zet AI in om te bepalen waar controles uitgevoerd moeten worden. Het model stuurt je naar specifieke gebieden. Omdat je voornamelijk daar controleert, vind je logischerwijs ook alleen daar fraudegevallen.

Deze 'vondsten' dienen als input voor de nieuwe versie van het model. Het model leert hiervan en zal je daardoor met nóg meer overtuiging naar diezelfde gebieden sturen. Hierdoor wordt de oorspronkelijke vooringenomenheid 'bevestigd' en alleen maar versterkt.

Een AI-systeem neemt geen beslissingen, het doet statistische voorspellingen. Een algoritme kan niet verantwoordelijk worden gehouden voor de impact van een keuze. De eindverantwoordelijkheid ligt daarom altijd bij de mens: de ontwikkelaar, de organisatie die het implementeert en de eindgebruiker die op basis van de output handelt.

We moeten AI zien als een hulpmiddel dat de mens ondersteunt en adviseert. Het 'human-in-the-loop'-principe is essentieel, zeker bij beslissingen met een hoge impact (zoals zorg, financiën of justitie). De Europese AI Act voorziet in richtlijnen toegespits op de verschillende risico-categorieën van AI-toepassingen. Dit is ook ons uitgangspunt: de mate van controle en transparantie moet in verhouding staan tot de impact van de applicatie. Een model dat helpt bij het sorteren van e-mail (laag risico) vraagt om een ander niveau van toezicht dan een model dat beslissingen in de zorg of justitie ondersteunt (hoog risico). Om die menselijke controle mogelijk te maken, is transparantie cruciaal. We moeten kunnen begrijpen waarom een model tot een bepaalde aanbeveling komt. Dit is het domein van Explainable AI (XAI). Alleen als we de redenering van een model kunnen volgen, kunnen we controleren of het de juiste (ethische) afwegingen maakt en ingrijpen als dat niet zo is.

Afhankelijk van de toepassing en het risicoprofiel, geloven wij erg in Decision Support waarbij AI als ondersteuning wordt toegepast.

Hoe wij kunnen helpen


Het navigeren van het ethische en juridische landschap van AI is complex. Het raakt aan wetgeving (AVG, de AI Act), techniek (data, modellen) en de kern van uw organisatie (uw waarden).

Wij helpen organisaties om AI niet alleen effectief, maar ook verantwoord toe te passen. Dit is hoe we dat doen:

1. DPIA & IAMA

Voordat een AI-systeem wordt gebouwd of geïmplementeerd, is het essentieel om de risico's in kaart te brengen.

  • Data Protection Impact Assessment (DPIA): Bij het verwerken van persoonsgegevens in AI-modellen is een DPIA onder de AVG vaak verplicht. Wij helpen bij het identificeren van de privacyrisico's, met name de risico's die uniek zijn voor AI (zoals inference en de kans op her-identificatie).
  • AI Act Assessment: De nieuwe Europese AI Act stelt strenge eisen aan AI-systemen, met name 'hoog-risico' systemen. Wij helpen u:
    • Te classificeren welk risiconiveau uw AI-toepassing heeft.
    • Een (bij hoog risico verplichte) Impact Assessment Mensenrechten en Algoritmes (IAMA) uit te voeren.
    • Een gap-analyse te maken tussen uw huidige processen en de vereisten van de AI Act.

2. Begeleiding bij het bouwen van een verantwoorde AI-toepassing

Ethiek moet vanaf de eerste dag worden ingebouwd ('Ethics by Design'). Wij bieden praktische begeleiding om uw ethische principes te vertalen naar de werkvloer.

Dit omvat hulp bij:

  • Het opstellen van een ethisch kompas en duidelijke interne governance.
  • Het selecteren van representatieve datasets en het identificeren van historische bias.
  • Het kiezen van de juiste (transparante) model-architecturen.
  • Het inrichten van het 'Human-in-the-loop'-principe, zodat de mens daadwerkelijk de controle behoudt.

3. Verantwoorde AI scan

Heeft u al AI-systemen in productie? De wereld verandert, data verandert, en uw model verandert mee. Wat gisteren eerlijk leek, kan vandaag voor onverwachte problemen zorgen ('model drift').

Wij voeren onafhankelijke ethische checks uit op bestaande systemen:

  • Bias & Fairness Testing: We 'red teamen' uw model en testen het actief op verborgen vooroordelen en proxy-discriminatie.
  • Transparantie check: We beoordelen de uitlegbaarheid (XAI) van uw systeem. Kunt u een beslissing van het model verantwoorden aan een klant of toezichthouder?
  • Rapportage: U ontvangt een concreet rapport met kwetsbaarheden en aanbevelingen om de prestaties en eerlijkheid van het model te verbeteren.

Laat AI voor u werken, binnen de kaders van wat wenselijk, wettelijk en verantwoord is.

Neem vrijblijvend contact met ons op!

Bedankt voor het invullen van het formulier, we nemen contact op!
Oeps! Er is iets misgegaan tijdens het versturen.