Kennisplatform
Expertise in statistiek, software development, recht en ethiek
Algoprudentie
Case-based normatief advies voor verantwoorde AI
Technische tools
Open source tools voor validatie van algorithmische systemen
Projectwerk
Validatie, implementatie AI-verordening, organisatorische beheersmaatregelen etc.
Zoeken
Uitgelicht
Aankomende events

Brussels Privacy Symposium 2025 – A data protection (r)evolution?

Presentatie 'Betekenisvolle menselijke tussenkomst', Netwerk van Publieke Dienstverleners

Paneldiscussie ‘Statistiek: kwaal of wondermiddel voor effectief toezicht op algoritmes en AI?’, Tijdschrift voor Toezicht en professional association VIDE

Cursus 'AI risicomanagement in de EU', European Institute of Public Administration
Leeratelier 'Generatieve AI: waar op te letten bij verstandig gebruik?', Academie voor Wetgeving
Expertise
Socio-technische evaluatie generatieve AI
Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.
AI-verordening implementatie en normen
Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.
Bias analysis
We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.
Op maat gemaakte technische hulpmiddelen
Voor specifieke toepassingen ten behoeven van de verantwoorde inzet van algoritmes en AI ontwikkelt Algorith Audit technische tools. Zie bijvoorbeeld onze open source tools voor synthetische data generatie en unsupervised bias detectie, zoals ontwikkeld in samenwerking met het Ministerie van Binnenlandse Zaken en de Diesnt Uitvoering Onderwijs (DUO). Onze tools zijn local-only. Dat betekent dat data de omgeving van organisaties niet verlaten en er geen afhankelijkheden zijn van cloudplatforms.
Socio-technische evaluatie generatieve AI
Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.
AI-verordening implementatie en normen
Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.
Bias analysis
We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.
Op maat gemaakte technische hulpmiddelen
Voor specifieke toepassingen ten behoeven van de verantwoorde inzet van algoritmes en AI ontwikkelt Algorith Audit technische tools. Zie bijvoorbeeld onze open source tools voor synthetische data generatie en unsupervised bias detectie, zoals ontwikkeld in samenwerking met het Ministerie van Binnenlandse Zaken en de Diesnt Uitvoering Onderwijs (DUO). Onze tools zijn local-only. Dat betekent dat data de omgeving van organisaties niet verlaten en er geen afhankelijkheden zijn van cloudplatforms.
Onderscheidend in
Multi-disciplinary expertise
Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.
Geen winstoogmerk
We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.
Publieke kennisopbouw
Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.
Multi-disciplinary expertise
Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.
Geen winstoogmerk
We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.
Publieke kennisopbouw
Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.