Publieke kennisopbouw

voor verantwoorde algoritmes

Een Europees kennisplatform voor

  • AI bias testing

  • AI standaarden

  • AI bias testing

Publieke kennisopbouw voor

verantwoorde algoritmes

Een Europees kennisplatform voor

  • AI bias testing

  • AI standaarden

  • AI bias testing

Wie besluit over de algoritmes die onze dagelijkse realiteit steeds meer bepalen? Wij geloven dat dit een zaak is van ons allemaal. Ons team van data scientists, juristen en ethici biedt oplossingen voor waardegedreven vraagstukken die centraal staan bij de inzet van AI. Als kennisplatform slaan we een brug tussen beleid, wetenschap en casuïstiek. Door middel van open-source tools, onafhankelijke validatie en advies zetten we kennis om in actie. Kom in contact om samen werk te maken van de verantwoorde inzet van AI.

Expertise

Socio-technische evaluatie generatieve AI

Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.

AI-verordening implementatie en normen

Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.

Bias analysis

We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.

Socio-technische evaluatie generatieve AI

Evaluatie van Large Language Models (LLMs) en andere generatieve AI-modellen met betrekking tot robuustheid, privacy en naleving van de AI-verordening. Op basis van praktijkvoorbeelden ontwikkelen we een validatiekader om contentfilters, guardrails en ontwerpkeuzes voor gebruikersinteractie te beoordelen. Lees meer over ons validatiekader.

AI-verordening implementatie en normen

Onze open-source AI-verordening implementatie tool helpt organisaties bij het identificeren van AI-systemen en het toewijzen van de juiste risicocategorie. Als lid van Nederlandse en Europese normalisatieorganisaties NEN en CEN-CENELEC volgt en draagt Algorithm Audit actief bij aan de ontwikkeling van geharmoniseerde normen voor AI-systemen. Zie ook onze publieke kennisbank over standaardisatie.

Bias analysis

We evalueren algoritmische systemen vanuit zowel een kwalitatieve als kwantitatieve dimensie. Naast expertise in data-analyse en software ontwikkeling beschikken we over kennis van juridische kaders rondom non-discriminatie, geautomatiseerde besluitvorming en organisatorisch risicomanagement. Zie onze publieke standaarden voor verantwoord gebruik van algoritmische systemen.

Onderscheidend in

Multi-disciplinary expertise

Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.

Geen winstoogmerk

We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.

Publieke kennisopbouw

Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.

Multi-disciplinary expertise

Wij geven vorm aan de toekomst van verantwoorde AI door expertise in statistiek, softwareontwikkeling, recht en ethiek samen te brengen. Ons werk wordt gelezen door heel Europa en daarbuiten.

Geen winstoogmerk

We werken nauw samen met organisaties uit de publieke en private sector, toezichthouders en beleidsmakers om kennisuitwisseling over verantwoorde AI te bevorderen. Werken zonder winstoogmerk sluit het beste aan bij onze activiteiten en doelstellingen.

Publieke kennisopbouw

Wij stellen onze rapporten, software en best practices publiek beschikbaar en dragen zo bij aan het collectieve leerproces over de verantwoorde inzet van AI. We prioriteren publieke kennisopbouw boven het beschermen van ons intellectueel eigendom.

Samenwerking met

Video

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Publieke kennisopbouw voor ethische algoritmes