Deel je vraag!

Of je nu al precies weet wat je zoekt of nog geen idee hebt: we denken graag met je mee.

We gaan ermee aan de slag!
Oeps! Er is iets misgegaan tijdens het versturen.
Lange Viestraat 2b, 3511BK Utrecht,
The Netherlands

AI Ethiek

Bouw AI-oplossingen die eerlijk, transparant en mensgericht zijn.

Wij willen dat iedereen vrolijk wordt van data AI. Echt iedereen.

AI is een krachtig hulpmiddel, maar de ontwikkeling ervan brengt een grote verantwoordelijkheid met zich mee. De data die we gebruiken is geen abstractie; het vertegenwoordigt vaak mensen, hun gedrag, hun voorkeuren en hun levens.

Ons ethisch kompas is daarom helder: we willen AI oplossingen maken waar mensen vrolijk van worden, echt iedereen. Dit geldt ook, en misschien wel juist, voor de mensen wiens data de basis vormen van het model. Ethiek is voor ons geen 'vinkje' achteraf, maar een fundamenteel onderdeel van het ontwerpproces.

Maar daarbij moeten we ook eerlijk zijn: een model dat volledig vrij is van 'bias' (vooringenomenheid) is een utopie. De kern van machine learning is patroonherkenning en onderscheid maken. Een model dat honden van katten onderscheidt, 'discrimineert' op basis van kenmerken als snuitlengte of oren. Dit is functioneel en gewenst.

Het wordt complexer wanneer die kenmerken mensen betreffen. De data die we gebruiken is een spiegel van onze maatschappij, inclusief de historische en systemische vooroordelen die daarin bestaan.

De cruciale ethische vraag is daarom niet óf een model onderscheid maakt, maar:

  1. Langs welke assen maakt het onderscheid?
  2. Welk onderscheid is functioneel en acceptabel?
    (bijv. kredietwaardigheid baseren op betaalgedrag)
  3. Welk onderscheid is onacceptabel en schadelijk?
    (bijv. op basis van afkomst, geslacht of postcode)


Ben jij klaar om AI verantwoord in te zetten binnen jouw organisatie?

Bedankt voor het invullen van het formulier, we nemen contact op!
Oeps! Er is iets misgegaan tijdens het versturen.

Bias

In AI-modellen

AI-modellen baseren hun resultaten uitsluitend op de data die de ontwikkelaars aan ze geven. Dit is per definitie een onvolledige digitale representatie van de complexe, analoge werkelijkheid. Er zijn vele verschillende soorten bias, die op meerdere manieren in het proces kunnen sluipen:

  • Sample bias: de data is geen goede afspiegeling van de werkelijkheid doordat er belangrijke datapunten niet zijn meegenomen. (Bijvoorbeeld: een gezichtsherkenningsmodel dat voornamelijk is getraind op witte mannen, zal significant slechter presteren voor vrouwen van kleur).
  • Historische bias: de data bevat veel vooroordelen uit het verleden. (Bijvoorbeeld: een HR-model dat leert dat 'succesvolle kandidaten' in het verleden vooral mannen waren, en daarom vrouwelijke kandidaten lager rangschikt).

Een veelgehoorde misvatting is:

"Als we gevoelige kenmerken zoals etniciteit of geslacht uit de dataset verwijderen, kan het model daar niet op discrimineren."

Dit is helaas onjuist.

Modellen zijn waanzinnig goed in het vinden van correlaties. Dit leidt tot proxy-discriminatie. Een 'proxy' is een datapunt dat zelf neutraal lijkt, maar sterk samenhangt met een gevoelig kenmerk.

  • Postcode lijkt neutraal, en is ook géén bijzonder persoonsgegeven, maar correleert vaak sterk met gemiddeld inkomen, opleidingsniveau en etnische samenstelling van een wijk.
  • Opleidingsniveau of aandeel geletterdheid kan correleren met sociaaleconomische status.

Een model dat leert dat 'postcode X' een hoog risico vormt, discrimineert mogelijk indirect op basis van afkomst of religie, zelfs als die data 'netjes' was verwijderd. Het waarborgen van de privacy van gevoelige gegevens alleen is daarom niet voldoende om te garanderen dat een model niet vooringenomen is. Dit kan het zelfs moeilijker maken om te herkennen óf dat zo is.

Toepassen van AI

Zonder ongewenste feedback loop

Afhankelijk van hoe je de uitkomst van zo’n model inzet, bestaat ook nog het risico dat je onbewust in een feedback-loop terechtkomt die deze vooringenomenheid nog verder uitvergroot. Dit kan gebeuren wanneer er sprake is van een zelfvervullende voorspelling, een self-fulfilling prophecy. Wanneer je bijvoorbeeld op zoek bent naar gevallen van fraude en zou AI inzetten om te bepalen waar controles uitgevoerd moeten worden, is de kans groot dat je bij meer controles ook meer gevallen van fraude zult vinden. Deze extra gevonden gevallen van fraude zullen weer input zijn in de volgende versie van het model, wat de initiële vooringenomenheid verder zal uitvergroten.

Een AI-systeem neemt geen beslissingen, het doet statistische voorspellingen. Een algoritme kan niet verantwoordelijk worden gehouden voor de impact van een keuze. De eindverantwoordelijkheid ligt daarom altijd bij de mens: de ontwikkelaar, de organisatie die het implementeert en de eindgebruiker die op basis van de output handelt.

We moeten AI zien als een hulpmiddel dat de mens ondersteunt en adviseert. Het 'human-in-the-loop'-principe is essentieel, zeker bij beslissingen met een hoge impact (zoals zorg, financiën of justitie). De Europese AI Act voorziet in richtlijnen toegespitst op de verschillende risico-categorieën van AI toepassingen. Om die menselijke controle mogelijk te maken, is transparantie cruciaal. We moeten kunnen begrijpen waarom een model tot een bepaalde aanbeveling komt. Dit is het domein van Explainable AI (XAI). Alleen als we de redenering van een model kunnen volgen, kunnen we controleren of het de juiste (ethische) afwegingen maakt en ingrijpen als dat niet zo is.

Afhankelijk van de toepassing en het risicoprofiel, geloven wij erg in Decision Support waarbij AI als ondersteuning wordt toegepast.

Hoe wij kunnen helpen


Het navigeren van het ethische en juridische landschap van AI is complex. Het raakt aan wetgeving (AVG, de AI Act), techniek (data, modellen) en de kern van uw organisatie (uw waarden).

Wij helpen organisaties om AI niet alleen effectief, maar ook verantwoord toe te passen. Dit is hoe we dat doen:

1. DPIA & IAMA

Voordat een AI-systeem wordt gebouwd of geïmplementeerd, is het essentieel om de risico's in kaart te brengen.

  • Data Protection Impact Assessment (DPIA): Bij het verwerken van persoonsgegevens in AI-modellen is een DPIA onder de AVG vaak verplicht. Wij helpen bij het identificeren van de privacyrisico's, met name de risico's die uniek zijn voor AI (zoals inference en de kans op her-identificatie).
  • AI Act Assessment: De nieuwe Europese AI Act stelt strenge eisen aan AI-systemen, met name 'hoog-risico' systemen. Wij helpen u:
    • Te classificeren welk risiconiveau uw AI-toepassing heeft.
    • Een (bij hoog risico verplichte) Impact Assessment Mensenrechten en Algoritmes (IAMA) uit te voeren.
    • Een gap-analyse te maken tussen uw huidige processen en de vereisten van de AI Act.

2. Begeleiding bij het bouwen van een verantwoorde AI-toepassing

Ethiek moet vanaf de eerste dag worden ingebouwd ('Ethics by Design'). Wij bieden praktische begeleiding om uw ethische principes te vertalen naar de werkvloer.

Dit omvat hulp bij:

  • Het opstellen van een ethisch kompas en duidelijke interne governance.
  • Het selecteren van representatieve datasets en het identificeren van historische bias.
  • Het kiezen van de juiste (transparante) model-architecturen.
  • Het inrichten van het 'Human-in-the-loop'-principe, zodat de mens daadwerkelijk de controle behoudt.

3. Verantwoorde AI scan

Heeft u al AI-systemen in productie? De wereld verandert, data verandert, en uw model verandert mee. Wat gisteren eerlijk leek, kan vandaag voor onverwachte problemen zorgen ('model drift').

Wij voeren onafhankelijke ethische checks uit op bestaande systemen:

  • Bias & Fairness Testing: We 'red teamen' uw model en testen het actief op verborgen vooroordelen en proxy-discriminatie.
  • Transparantie check: We beoordelen de uitlegbaarheid (XAI) van uw systeem. Kunt u een beslissing van het model verantwoorden aan een klant of toezichthouder?
  • Rapportage: U ontvangt een concreet rapport met kwetsbaarheden en aanbevelingen om de prestaties en eerlijkheid van het model te verbeteren.

Laat AI voor u werken, binnen de kaders van wat wenselijk, wettelijk en verantwoord is.

Neem vrijblijvend contact met ons op!

Bedankt voor het invullen van het formulier, we nemen contact op!
Oeps! Er is iets misgegaan tijdens het versturen.