AI Act standaarden

In 2023 hebben de Europese standaardiseringsorganisaties CEN en CENELEC het verzoek van de Europese Commissie geaccepteerd om standaarden te ontwikkelen voor Artificiële Intelligentie (AI). Joint Technical Committee 21 (JTC21) van CEN-CENELEC is momenteel bezig Europese standaarden voor AI te ontwikkelen, zoals standaarden voor risicomanagement, datakwaliteit en procedurele standaarden voor het testen van vooringenomenheid. Als AI-ontwikkelaars en -gebruikers zich aan deze standaarden houden wordt naleving van de aanstaande AI Verordening verondersteld. Maar zo ver is het nog niet. Het ontwikkelen van standaarden is momenteel volop aan de gang. Als lid van het Nederlands Normaliseringsinstituut (NEN) draagt Algorithm Audit bij aan het Europese debat over de vorm deze AI standaarden aannemen, en in hoeverre technische standaarden ontwikkeld kunnen worden voor aan fundamentele rechten rakende standaarden, zoals non-discriminatie, menselijke tussenkomst en uitlegbaarheid van algoritme-gedreven besluitvorming. Dit doen wij door deel te nemen aan de volgende werkgroepen:

  • WG2 – Risicomanagement (risk management systems)
  • WG3 – Technische aspects (engineering aspects)
  • WG4 – Verantwoorde AI (trustworthy AI).

Tijdens de laatste plenaire bijeenkomst van JTC21 in Dublin 12-14 februari presenteerde Algorithm Audit onderaan bijgevoegde slides over Fundamentele Rechten Impact Assessments (FRIAs) voor AI en de noodzaak voor inclusieve, deliberatieve adviescommissies om verantwoorde AI in te zetten.

Stichting Koninklijk Nederlands Normalisatie Instituut
European Committee for Standardization

Standaarden

Het standaardiseringsverzoek van de Europese Commissie, dat een uitgangsbasis biedt voor naleving van de AI Verordening, relateert aan de volgende tien aspecten:

  1. Risicomanagementsysteem voor AI-systemen
  2. Organisatorische omgang met data en datakwaliteitvereisten om AI-systemen te bouwen
  3. Data-administratieve middels het loggen van AI-systemen
  4. Transparantie- en informatieverplichtingen voor gebruikers van AI-systemen
  5. Menselijk toezicht op AI-systemen
  6. Nauwkeurigheidspecificaties voor AI-systemen
  7. Robuustheidspecificaties voor AI-systemen
  8. Cybersecurity-specificaties voor AI-systemen
  9. Kwaliteitsmanagementsystemen voor aanbieders van AI-systemen, inclusief monitoringsprocesses na te zijn geïntroduceerd op de markt
  10. Conformiteitsbeoordeling van AI-systemen.

In de audits van Algorithm Audit worden alle bovenstaande aspecten meegenomen, met uitzondering van 8. Cybersecurity-specificaties voor AI-systemen. Organisaties kunnen leren van onze technische en normatieve algoritme audits die publiek toegankelijk zijn. Het volledige standaardiseringsverzoek van de Europese Commissie kan hier worden gevonden.

AI Act standardisering team

Arcangelo Leone de Castris

AI beleidsonderzoeker bij The Alan Turing Institute, Londen

Eike Petersen

Senior onderzoeker medische AI, Fraunhofer MEVIS, Hannover

Irma Mastenbroek

Onafhankelijke AI ethica en freelance wiskundige, Berlijn

Sneha Das

Assistant Professor Technische Universiteit Denemarken, Kopenhagen

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Nieuwsbrief

Blijf op de hoogte van ons werk door je in te schrijven voor onze nieuwsbrief

Publieke kennisopbouw voor ethische algoritmes