EU AI Act onder de loep: verduidelijking of verwarring over de definitie van AI?

Wat is wel en geen AI volgens de Europese Commissie?

 Op 6 februari heeft de Europese Commissie (EC) eindelijk haar langverwachte toelichting gepubliceerd op de definitie van een AI-systeem zoals die is opgenomen in de AI Act. Een belangrijk initiatief, omdat een heldere definitie van groot belang is om te begrijpen wat wel en niet onder de AI Act valt. Op sommige punten scheppen de richtlijnen van de EC inderdaad meer duidelijkheid, maar op misschien wel het belangrijkste punt lijkt eerder het tegenovergestelde aan de hand. Dat is jammer, want hierdoor ontstaat er misschien juist wel meer discussie over de scope van de AI Act.

6 maart 2025   |   Blog   |   Door: Friso Spinhoven

Deel

A closer look at the EU AI Act: clarification or confusion over the definition of AI?

Opbouw van de definitie van ‘AI-systeem’

De EU AI Act definieert een AI-systeem als volgt:

“Een op een machine gebaseerd systeem dat is ontworpen om met verschillende niveaus van autonomie te werken en dat na het inzetten ervan aanpassingsvermogen kan vertonen, en dat, voor expliciete of impliciete doelstellingen, uit de ontvangen input afleidt hoe output te genereren zoals voorspellingen, inhoud, aanbevelingen of beslissingen die van invloed kunnen zijn op fysieke of virtuele omgevingen”.

De EC begint met het opsplitsen van de definitie in de AI Act in zeven onderdelen, en bespreekt die vervolgens stuk voor stuk. Die zeven onderdelen zijn:

  1. Een machine-gebaseerd systeem
  2. dat werkt met verschillende niveaus van autonomie,
  3. dat na het inzetten aanpassingsvermogen kán vertonen,
  4. dat voor impliciete of expliciete doelstellingen,
  5. AI-technieken gebruikt,
  6. om output te genereren, en
  7. die van invloed kan zijn op de fysieke of virtuele omgeving.

1. Berekeningen uitvoeren met een machine-gebaseerd systeem

Volgens de EC omvat dit zowel de hardware als de software waarop een AI-systeem draait. Het gaat dus om systemen waarmee je berekeningen kunt uitvoeren, waaronder kwantumcomputers. Maar, en dat is opvallend, de EC verstaat daar ook biologische en organische systemen onder, zolang ze voorzien in rekencapaciteit. Dit is een verstrekkende interpretatie, omdat onze hersenen voor een belangrijk deel ook ‘rekenmachines’ zijn. Stel dat er een interface tussen onze hersenen en AI-systemen wordt gemaakt (iets waar Neuralink van Elon Musk druk mee bezig is). Dan kan het volgens deze definitie lastig worden om te bepalen waar de kunstmatige intelligentie ophoudt, en de menselijke intelligentie begint.

2. Verschillende niveaus van autonomie

De mate waarin een AI-systeem autonoom functioneert houdt nauw verband met menselijke betrokkenheid. De AI Act is in ieder geval niet van toepassing op systemen die volledig door een mens worden bediend; dat moge duidelijk zijn. Minder duidelijk wordt het als de EC aangeeft dat het dan zowel om ‘directe’ als ‘indirecte’ menselijke betrokkenheid kan gaan. Met dat laatste bedoelt de EC ‘geautomatiseerde systeemgebaseerde besturingsmechanismes die mensen in staat stellen om de werking van systemen te delegeren of daarop toe te zien’. Dit laat op zichzelf al veel aan duidelijkheid te wensen over. Maar nog erger, het maakt alleen maar vager wanneer er nou sprake is van (volledige) menselijke betrokkenheid.

3. Mogelijke aanpassingen door zelflerend vermogen

Over dit punt is de EC kort: aanpassingsvermogen gaat om het zelflerend vermogen van AI-systemen, waardoor ze hun gedrag (output) kunnen aanpassen tijdens gebruik. Hier dringt de term machine learning (ML) zich op. Maar ook systemen zonder aanpassingsvermogen kunnen als AI worden gezien. En als er wel sprake is van ML, gaat het niet altijd om AI, zo blijkt verderop. Of toch wel? De EC lijkt op dit punt op twee gedachten te hinken.

4. Impliciete of expliciete doelstellingen

Ook hier maakt de EC niet veel woorden aan vuil. De richtlijnen maken duidelijk dat AI-systemen worden ontworpen om bepaalde doelstellingen te realiseren, en dat die doelen expliciet kunnen worden geprogrammeerd. Maar de doelen kunnen ook impliciet zijn, in de zin dat ze kunnen worden afgeleid uit het gedrag van het AI-systeem of de onderliggende aannames. En dat die doelen kunnen voortvloeien uit de trainingsdata of de interactie van het systeem met zijn omgeving. Maar wat het onderscheid tussen expliciete en impliciete doelen betekent voor de definitie van AI-systeem wordt niet echt duidelijk.

5. AI-technieken om output te genereren

Dit onderdeel krijgt veruit de meeste aandacht, omdat het essentieel is om AI te onderscheiden van andere algoritmes. Volgens de AI Act vallen onder die laatste categorie systemen die uitsluitend werken op basis van door mensen gedefinieerde regels die automatisch worden uitgevoerd. Terwijl AI in staat is om uit inputdata af te leiden hoe output gegenereerd moet worden.

Hier ligt misschien wel het meest nadrukkelijk de relatie met intelligentie: AI kan op basis van patronen uit het verleden interpreteren en voorspellen wat er in de omgeving gebeurt of gaat gebeuren. Onze hersenen houden zich daar ook voortdurend mee bezig. Dit is overigens slechts een van de vele mogelijke manieren om naar het begrip intelligentie te kijken, en ook zeker niet als een volledige of dé definitie bedoeld. Het begrip ‘intelligentie’ is wellicht net zo lastig te definiëren als het begrip ‘kunstmatige intelligentie’, maar wordt door Wikipedia treffend samengevat als de “capaciteit tot waarnemen, verwerken, redeneren, conclusies [te] trekken en gedachten [te] creëren”.

 Maar waar volgens de richtlijnen precies de grens ligt tussen AI en ‘gewone’ algoritmes blijft onduidelijk. De EC behandelt uitgebreid verschillende ML-technieken en lijkt te suggereren dat ML automatisch betekent dat een systeem AI is. Maar daarna plaatst de EC bepaalde ML-systemen buiten de definitie van AI vanwege hun ‘beperkte capaciteit om patronen te analyseren en hun output zelfstandig aan te passen’. Hierdoor ontstaan juist nieuwe vragen over de definitie van AI, en blijven er twijfelgevallen bestaan.

6. Output van een AI-systeem

De richtlijnen gaan uit van de vier voorbeelden die de AI Act geeft van de output van een AI-systeem: voorspellingen, content, aanbevelingen en beslissingen. Volgens de EC wordt deze output gegenereerd met behulp van ML, logica en knowledge-based benaderingen. Tegelijkertijd stellen de richtlijnen bij verschillende voorbeelden uit onderdeel 5 dat dit niet per se betekent dat er sprake is van AI. Veel verder dan het onderscheid tussen ‘het vinden van complexe correlaties’ versus ‘statische, op regels gebaseerde mechanismes met beperkte data’ komen de richtlijnen hier eigenlijk niet.

7. Invloed op de fysieke of virtuele omgeving

Tot slot stelt de EC dat een AI-systeem zijn omgeving actief beïnvloedt. Maar ook dit biedt weinig houvast, omdat ook niet-AI-algoritmes invloed kunnen hebben op hun omgeving. Dat is uit de toeslagenaffaire pijnlijk duidelijk geworden. Hoewel de EC dit erkent, wordt niet duidelijk hoe dit criterium praktisch kan helpen bij het vaststellen van AI.

Conclusie

Terecht geeft de EC aan dat je van geval tot geval moet beoordelen of een systeem AI is of niet, maar de richtlijnen helpen ons daar helaas niet veel verder bij. Dit komt deels doordat AI  - net als intelligentie zelf – moeilijk te vangen is in een definitie. Maar het komt ook zeker door de inconsistenties en onduidelijkheden in de richtlijnen zelf. Er zullen dan ook nog steeds geregeld twijfelgevallen zijn, vooral bij systemen met een hogere mate van menselijke betrokkenheid en niet-lerende systemen. Maar zelfs bij ML-systemen stelt de EC dat het niet altijd om AI gaat. Dit gaat in tegen de gangbare interpretatie en kan het onwenselijke effect hebben dat aanbieders proberen onder de verplichtingen van de AI Act uit te komen door te stellen dat hun model te eenvoudig is om van AI te spreken.