AI-verordening standaarden

In 2023 hebben de Europese standaardiseringsorganisaties CEN en CENELEC het verzoek van de Europese Commissie geaccepteerd om standaarden te ontwikkelen voor Artificiële Intelligentie (AI). Joint Technical Committee 21 (JTC21) van CEN-CENELEC is momenteel bezig Europese standaarden voor AI te ontwikkelen, zoals standaarden voor risicomanagement, datakwaliteit en procedurele standaarden voor het testen van vooringenomenheid. Als AI-ontwikkelaars en -gebruikers zich aan deze standaarden houden wordt naleving van de aanstaande AI Verordening verondersteld. Maar zo ver is het nog niet. Het ontwikkelen van standaarden is momenteel volop aan de gang. Als lid van het Nederlands Normaliseringsinstituut (NEN) draagt Algorithm Audit bij aan het Europese debat over de vorm deze AI standaarden aannemen, en in hoeverre technische standaarden ontwikkeld kunnen worden voor aan fundamentele rechten rakende standaarden, zoals non-discriminatie, menselijke tussenkomst en uitlegbaarheid van algoritme-gedreven besluitvorming. Dit doen wij door deel te nemen aan de volgende werkgroepen:

  • WG2 – Risicomanagement (risk management systems)
  • WG3 – Technische aspects (engineering aspects)
  • WG4 – Verantwoorde AI (trustworthy AI).

Tijdens de laatste plenaire bijeenkomst van JTC21 in Dublin 12-14 februari presenteerde Algorithm Audit onderaan bijgevoegde slides over Fundamentele Rechten Impact Assessments (FRIAs) voor AI en de noodzaak voor inclusieve, deliberatieve adviescommissies om verantwoorde AI in te zetten.

Stichting Koninklijk Nederlands Normalisatie Instituut
European Committee for Standardization

AI-verordening standaarden

Het standaardiseringsverzoek van de Europese Commissie, dat een uitgangsbasis biedt voor naleving van de AI Verordening, relateert aan de volgende tien aspecten:

  1. Risicomanagementsysteem voor AI-systemen
  2. Organisatorische omgang met data en datakwaliteitvereisten om AI-systemen te bouwen
  3. Data-administratieve middels het loggen van AI-systemen
  4. Transparantie- en informatieverplichtingen voor gebruikers van AI-systemen
  5. Menselijk toezicht op AI-systemen
  6. Nauwkeurigheidspecificaties voor AI-systemen
  7. Robuustheidspecificaties voor AI-systemen
  8. Cybersecurity-specificaties voor AI-systemen
  9. Kwaliteitsmanagementsystemen voor aanbieders van AI-systemen, inclusief monitoringsprocesses na te zijn geïntroduceerd op de markt
  10. Conformiteitsbeoordeling van AI-systemen.

In de audits van Algorithm Audit worden alle bovenstaande aspecten meegenomen, met uitzondering van 8. Cybersecurity-specificaties voor AI-systemen. Organisaties kunnen leren van onze technische en normatieve algoritme audits die publiek toegankelijk zijn. Het volledige standaardiseringsverzoek van de Europese Commissie kan hier worden gevonden.

Bijdragen

Selectie van bijdragen aan normcommissie JTC21 van CEN-CENELEC.

Statistische hypothese toest als risicobeheersmaatregel

    / [pdf]

Fundamental Rights Impact Assessment (FRIA) and stakeholder panels

    / [pdf]

AI-verordening standaarden team

Arcangelo Leone de Castris

AI Policy Researcher at The Alan Turing Institute, London

Eike Petersen

Senior Scientist Medical AI, Fraunhofer MEVIS, Hannover

Jurriaan Parie

Director and board member, Algorithm Audit

Ylja Remmits

Head of Projects, Algorithm Audit

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Publieke kennisopbouw voor ethische algoritmes