

In dit project richten we ons op de ontwikkeling van een openbaar validatiekader voor de betrouwbare inzet van taalmodellen voor publieksinformatie.
Dit project is nog in ontwikkeling.
Uitdaging van klant
Dit project is een samenwerking tussen T&T, Algorithm Audit, voorRecht-rechtspraak, Deloitte en de TU Eindhoven, waarbij T&T vooral de praktijkexpertise inbrengt over taalmodellen (Large Language Models).
Wij geloven dat vertrouwen de basis moet zijn van elke succesvolle AI-toepassing in het publieke domein. Om dit te bereiken, is een transparante en gedeelde standaard nodig.
We bouwen voort op de lessen van de eerdere succesvolle pilot 'voorRecht-rechtspraak' van de Rechtspraak. Daar zagen we hoe complex het is om juridische nauwkeurigheid te garanderen. Die ervaring nemen we nu mee in een breder consortium.
Samen met onze partners combineren we het beste van twee werelden: academische diepgang en praktische implementatie. T&T brengt hierbij de cruciale, 'hands-on' expertise in met het bouwen en implementeren van taalmodellen in de praktijk.
Het doel is een praktisch toepasbaar validatiekader: een concrete set principes, tests en 'best practices' waarmee organisaties hun AI-modellen kunnen toetsen. We willen de 'verkokering' doorbreken door een openbare standaard te ontwikkelen die iedereen kan gebruiken.
Wil jij ook verantwoord omgaan met AI?
We bespreken graag wat we voor jullie kunnen betekenen in een vrijblijvend gesprek.
Stap 1
Stap 2
Stap 3
Stap 4
Stap 5
Impact
Dit project zal resulteren in een openbaar toegankelijke blauwdruk voor de verantwoorde inzet van LLMs.
Hiermee stellen we de hele publieke sector in staat om sneller, maar vooral veiliger, te innoveren. Het biedt organisaties het vertrouwen om AI daadwerkelijk in te zetten voor een betere dienstverlening aan de burger. De publicatie van het kader wordt medio februari 2026 verwacht.
Wil jij ook verantwoord omgaan met AI?
We bespreken graag wat we voor jullie kunnen betekenen in een vrijblijvend gesprek.

