Kennisplatform
Expertise in statistiek, software development, recht en ethiek
Algoprudentie
Case-based normatief advies voor verantwoorde AI
Technische tools
Open source tools voor validatie van algorithmische systemen
Projectwerk
Validatie, implementatie AI-verordening, organisatorische beheersmaatregelen etc.
Uitgelicht
Aankomende events

Presentatie 'Local-only tools voor AI validatie', Platform AI & Overheid

Presentation 'AI x Governance & Regulation - The EU AI Act is here', Big Data Republic and Kickstart AI
Presentatie 'A Public Standard for Auditing Risk Profiling Algorithms', Audit Analytics Summit 2025, Nyenrode Business University en Universiteit Utrecht
Expertise
Socio-technische evaluatie generatieve AI
Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.
AI-verordening implementatie en normen
Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.
Bias analysis
We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.
Socio-technische evaluatie generatieve AI
Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.
AI-verordening implementatie en normen
Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.
Bias analysis
We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.
Onderscheidend in
Multi-disciplinary expertise
Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.
Geen winstoogmerk
We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.
Publieke kennisopbouw
Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.
Multi-disciplinary expertise
Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.
Geen winstoogmerk
We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.
Publieke kennisopbouw
Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.