Ondersteund door

Opbouwen van publieke kennis


over verantwoorde AI zonder winstoogmerk


Opbouwen van
publieke kennis


over verantwoorde AI
zonder winstoogmerk


Onderscheidend in

Onafhankelijkheid

Algorithm Audit werkt zonder winstoogmerk. Onze werkafspraken garanderen onafhankelijkheid en diversiteit van onze adviescommissies en voortkomend normatief advies

Normatief advies

Algorithm Audit’s adviescommissies geven normatief advies over concrete ethische vraagtukken die zich voordoen bij gebruik van algoritmes en data-analyse

Publieke kennis

Al onze casuïstiek en bijbehorend advies (algoprudentie) is openbaar. Zo dragen we bij aan publieke kennisopbouw over de verantwoorde inzet van algoritmes

Onafhankelijkheid

Algorithm Audit werkt zonder winstoogmerk. Onze werkafspraken garanderen onafhankelijkheid en diversiteit van onze adviescommissies en voortkomend normatief advies

Normatief advies

Algorithm Audit’s adviescommissies geven normatief advies over concrete ethische vraagtukken die zich voordoen bij gebruik van algoritmes en data-analyse

Publieke kennis

Al onze casuïstiek en bijbehorend advies (algoprudentie) is openbaar. Zo dragen we bij aan publieke kennisopbouw over de verantwoorde inzet van algoritmes

AI expertise

Ondersteuning van besluitvorming

Auditeren van data-analysemethode en algoritmes die besluitvormingsprocessen ondersteunen. Onder andere aan de hand van check op organisatorische waarborgen en check op kwantitatieve dimensie

AI Verordening standaarden

Als onderdeel van Nederlands en Europees standaardiseringsorganisaties NEN en CEN-CENELEC worden AI systemen volgens de laatste normen geauditeerd. Zie ook onze publieke kennisbank over standaardisering

Profilering

Auditeren van regel-gebaseerde en ML-gedreven profileringsalgoritmes, o.a. op normatieve onderbouwing van selectiecriteria, statistische Z-toets op risicodistirbuties en organisatorische waarborgen

Balanceren FP-FNs

Normatief advies over context-afhankelijke interpretatie van confusion matrix-gebaseerde evaluatiemetrieken, zoals False Positives (FPs) and False Negatives (FNs)

Aanbevelingssystemen

Validatie van hyperparameterselectie voor aanbevelingssystemen, zoals learning-to-rank. Zie ook onze feedback naar de Europese Commissie over onafhankelijke third-party audits van recommender systems

Generatieve AI

Auditeren van trainingsproces van foundation model, o.a. selectie trainingsdata, menselijke feedback voor reinformcement learning en risicobeheersmaatregelen, volgens AI Verordening standaarden

Ondersteuning van besluitvorming

Auditeren van data-analysemethode en algoritmes die besluitvormingsprocessen ondersteunen. Onder andere aan de hand van check op organisatorische waarborgen en check op kwantitatieve dimensie

AI Verordening standaarden

Als onderdeel van Nederlands en Europees standaardiseringsorganisaties NEN en CEN-CENELEC worden AI systemen volgens de laatste normen geauditeerd. Zie ook onze publieke kennisbank over standaardisering

Profilering

Auditeren van regel-gebaseerde en ML-gedreven profileringsalgoritmes, o.a. op normatieve onderbouwing van selectiecriteria, statistische Z-toets op risicodistirbuties en organisatorische waarborgen

Balanceren FP-FNs

Normatief advies over context-afhankelijke interpretatie van confusion matrix-gebaseerde evaluatiemetrieken, zoals False Positives (FPs) and False Negatives (FNs)

Aanbevelingssystemen

Validatie van hyperparameterselectie voor aanbevelingssystemen, zoals learning-to-rank. Zie ook onze feedback naar de Europese Commissie over onafhankelijke third-party audits van recommender systems

Generatieve AI

Auditeren van trainingsproces van foundation model, o.a. selectie trainingsdata, menselijke feedback voor reinformcement learning en risicobeheersmaatregelen, volgens AI Verordening standaarden

Recente audits

Risicoprofilering heronderzoek bijstandsuitkering

De commissie oordeelt dat algoritmische risicoprofilering onder strikte voorwaarden kan worden ingezet voor het selecteren van burgers met een bijstandsuitkering voor heronderzoek

Technische audit indirecte discriminatie

Audit op rechtmatigheid van gemaakt onderscheid aan de hand van Z-toetsen en biasmeting op verschillende plekken in het algoritme-gedreven besluitvormingsproces

Risicoprofilering heronderzoek bijstandsuitkering

De commissie oordeelt dat algoritmische risicoprofilering onder strikte voorwaarden kan worden ingezet voor het selecteren van burgers met een bijstandsuitkering voor heronderzoek

Technische audit indirecte discriminatie

Audit op rechtmatigheid van gemaakt onderscheid aan de hand van Z-toetsen en biasmeting op verschillende plekken in het algoritme-gedreven besluitvormingsproces

Opbouwen van algoprudentie

Stap 1

Identificeren van een casus

Identificeren van een concreet ethisch vraagstuk bij gebruik van een algoritme of data-analyse

Stap 2

Probleemstelling

Beschrijving van ethische kwestie, juridisch kaders, statistische methodologie en het horen van verschillende belanghebbenden en benadeelde groepen

Stap 3

Normatieve adviescommissie

Deliberatief gesprek van een diverse and inclusieve adviescommissie over het probleemstelling-document

Stap 4

Publiek advies

Het uitgebrachte advies van de commissie wordt samen met het probleemstelling-document gepubliceerd op onze website. Het publiek delen van het probleemstelling-document en normatieve advies wordt algoprudentie genoemd

Stap 1 – Identificeren van een casus

Identificeren van een concreet ethisch vraagstuk bij gebruik van een algoritme of data-analyse

Stap 2 – Probleemstelling

Beschrijving van ethische kwestie, juridisch kaders, statistische methodologie en het horen van verschillende belanghebbenden en benadeelde groepen

Stap 3 – Normatieve adviescommissie

Deliberatief gesprek van een diverse and inclusieve adviescommissie over het probleemstelling-document

Stap 4 – Publiek advies

Het uitgebrachte advies van de commissie wordt samen met het probleemstelling-document gepubliceerd op onze website. Het publiek delen van het probleemstelling-document en normatieve advies wordt algoprudentie genoemd

Voordelen van algoprudentie

Leren & harmoniseren

> Aanjagen van collectieve leerproces voor de verantwoorde inzet van algoritmes en data-analyse

> Harmoniseren van de omgang met ethische vraagstukken en de interpretatie van open juridische normen

Discussie & debat

> Transparantie maakt kritiek mogelijk op normatieve besluitvorming bij de publieke inzet van algoritmen

> Opent ruimte voor maatschappelijk debat over normatieve keuzes in democratisch zicht

Inclusie & participatie

> Betrekt verschillende belanghebbenden bij vormgeven van algoritmes

> Nederlands antwoord hoe AI democratisch kan worden ontwikkeld en verantwoord kan worden ingezet

Leren & harmoniseren

> Aanjagen van collectieve leerproces voor de verantwoorde inzet van algoritmes en data-analyse

> Harmoniseren van de omgang met ethische vraagstukken en de interpretatie van open juridische normen

Discussie & debat

> Transparantie maakt kritiek mogelijk op normatieve besluitvorming bij de publieke inzet van algoritmen

> Opent ruimte voor maatschappelijk debat over normatieve keuzes in democratisch zicht

Inclusie & participatie

> Betrekt verschillende belanghebbenden bij vormgeven van algoritmes

> Nederlands antwoord hoe AI democratisch kan worden ontwikkeld en verantwoord kan worden ingezet

Jurisprudentie voor algoritmes


Video

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Publieke kennisopbouw voor ethische algoritmes