Je gebruikt ChatGPT dagelijks, je team werkt met AI-tools, en ergens in je achterhoofd speelt die vraag: moet ik iets regelen voor de AI Act? AI-geletterdheid is het antwoord op precies die vraag. De EU verplicht organisaties nu al om medewerkers voldoende kennis bij te brengen over de AI die ze gebruiken. Hieronder lees je wat dat betekent, voor wie het geldt en welke stappen je kunt zetten.
📌 In het kort
- AI-geletterdheid verplicht je om medewerkers te laten begrijpen hoe AI werkt, wat de beperkingen zijn en hoe ze output kritisch beoordelen.
- De verplichting geldt voor elke organisatie die AI gebruikt, ook als je alleen ChatGPT of een standaard SaaS-tool inzet.
- Artikel 4 van de EU AI Act geldt al vanaf 2 februari 2025.
- Training is niet in een vaste vorm verplicht, maar documentatie is sterk aanbevolen.
- Hoe hoger het risiconiveau van je AI-systeem, hoe zwaarder de eisen.
Wat betekent AI-geletterdheid volgens de AI Act?
AI-geletterdheid is meer dan weten dat ChatGPT bestaat. Artikel 4 van de EU AI Act verplicht aanbieders én gebruikers van AI-systemen om ervoor te zorgen dat betrokken medewerkers een toereikend niveau van kennis, vaardigheden en begrip hebben. Dat klinkt vaag, maar de kern is concreet: mensen die met AI werken, moeten begrijpen wat het systeem doet, waar het fout kan gaan en hoe ze de output zelfstandig kunnen beoordelen.
Wat houdt “toereikend niveau” dan in? Stel dat een medewerker ChatGPT gebruikt om klantemails te schrijven. AI Act artikel 4 vraagt niet dat die persoon de technologie achter een taalmodel begrijpt. Wel dat ze weet: dit systeem kan fouten maken, hallucineert soms feiten en kent de context van jouw klant niet. Die e-mail checken voordat je hem verstuurt, is geen optie maar een vereiste. Zo simpel is de gedachte achter eu ai act artikel 4. Geen examen, geen certificaat, maar bewust en verantwoord gebruik als vertrekpunt.
💡 Expert tip
Begin met een simpele inventarisatie in een Excel-bestand. Kolommen: naam tool, wie gebruikt het, voor welke taak, laag of hoog risico. Bij een klant in de zakelijke dienstverlening zagen wij dat dit overzicht in minder dan twee uur klaar was en meteen drie blinde vlekken aan het licht bracht. Geen extern juridisch advies nodig om dit te doen. Gewoon starten.
Wil je weten waar AI jou tijd bespaart?
Vul in 1 minuut de scan in. Onze specialisten sturen je binnen één werkdag een persoonlijk rapport met concrete AI-toepassingen voor jouw functie en sector.
Geen verkoopgesprek. Geen verplichtingen.
Voor wie geldt deze verplichting?
Denk je dat de AI Act alleen iets is voor grote techbedrijven of overheidsinstellingen? Dan is dit het moment om die aanname los te laten.
Aanbieders van AI-systemen
Een aanbieder is een bedrijf dat een AI-systeem bouwt, traint of op de markt brengt. Denk aan een HR-softwareleverancier die een AI-selectietool verkoopt waarmee cv’s automatisch worden gescreend. Zij moeten hun eigen medewerkers trainen én hun klanten in staat stellen het systeem veilig te gebruiken. De verantwoordelijkheid stopt dus niet bij de eigen organisatie.
Deployers (gebruikers van AI-systemen)
Stel je bent eigenaar van een recruitmentbureau en je gebruikt een AI-tool om kandidaten te rangschikken. Of je werkt met een AI-gestuurde CRM. Dan ben jij een deployer. En dit is het punt dat de meeste MKB-eigenaren missen: ook het gebruik van algemene tools als ChatGPT of Microsoft Copilot maakt je tot deployer onder de AI Act. Je hoeft dus niets zelf te bouwen om verplichtingen te hebben. Als je meer wilt weten over hoe AI breder toepasbaar is in jouw bedrijf, biedt de kennisbank AI voor Bedrijven een breed overzicht van AI-toepassingen in het bedrijfsleven.
| Aanbieder | Deployer | |
|---|---|---|
| Wie | Bedrijf dat AI bouwt of verkoopt | Bedrijf dat AI gebruikt in bedrijfsprocessen |
| Voorbeeld accountancy | Leverancier van AI-boekhoudsoftware | Accountantskantoor dat de tool inzet |
| Voorbeeld recruitment | Bedrijf achter AI-selectieplatform | Recruitmentbureau dat het platform gebruikt |
| Voorbeeld klantenservice | Ontwikkelaar van AI-chatbot | Webshop die de chatbot op zijn site plaatst |
| Kernverplichting | Eigen personeel én gebruikers informeren | Medewerkers laten begrijpen wat het systeem doet |
Wanneer moet je hieraan voldoen?
De verplichting is geen toekomstig probleem. Ze is er al. Hier is de tijdlijn:
- 2 februari 2025: Artikel 4 over AI-geletterdheid treedt in werking. Organisaties zijn nu al verplicht actie te ondernemen.
- Augustus 2025: Elke EU-lidstaat moest een nationale toezichthouder hebben aangewezen.
- 3 augustus 2026: Handhaving door nationale toezichthouders start. Boetes en sancties worden dan daadwerkelijk opgelegd.
- 2027: Aanvullende verplichtingen voor hoog-risico AI-systemen treden volledig in werking.
De verplichting geldt nu. De handhaving start in 2026. Dat geeft je ruimte om te handelen, maar geen reden om te wachten.
Wat moet je in de praktijk regelen?
Hoe ziet verantwoord AI-gebruik er concreet uit voor jouw organisatie? Gelukkig hoef je geen groot compliance-programma op te tuigen. Vier stappen zijn voldoende als startpunt.
- Inventariseer welke AI-tools je organisatie gebruikt. Niet alleen de officieel aangeschafte tools, maar ook wat medewerkers zelf gebruiken. ChatGPT, Copilot, Grammarly, een AI-module in je boekhoudpakket: ze tellen allemaal mee.
- Breng in kaart wie ermee werkt en wat hun kennisniveau is. Wie gebruikt welke tool, voor welke taak? Begrijpen die medewerkers wat het systeem doet en wat de risico’s zijn? Wij zien in de praktijk dat dit overzicht bij de meeste MKB-organisaties simpelweg ontbreekt.
- Vul kennislacunes op de manier die past bij het risico. Voor laag-risico tools als ChatGPT kan een korte interne richtlijn al voldoende zijn. Voor een AI-systeem dat HR-beslissingen ondersteunt, is een formele training sterk aanbevolen. De vorm is vrij, de inhoud telt. Voor managers die hun team willen meenemen in dit proces biedt een gerichte AI training voor managers praktische handvatten.
- Leg de genomen stappen vast. Een eenvoudig document is genoeg: welke tools gebruik je, wie heeft welke instructie gekregen en wanneer. Niet sexy, maar waardevol als een toezichthouder een vraag stelt.
Checklist: voldoet jouw organisatie al?
- Ik weet welke AI-tools mijn medewerkers gebruiken (officieel én informeel)
- Ik weet welke medewerkers met welke AI-tools werken
- Medewerkers begrijpen wat hun AI-tool doet en wat de beperkingen zijn
- Ik heb het risiconiveau van de gebruikte AI-systemen bepaald
- Er is een interne richtlijn of training afgestemd op dat risiconiveau
- Ik heb de genomen stappen vastgelegd in een document
Wat zijn de gevolgen als je niets doet?
Stel je voor: een medewerker stuurt een klant een offerte op basis van AI-gegenereerde tekst. De informatie blijkt onjuist, de klant loopt schade op en trekt dit aan. Jij als werkgever had geen richtlijn over hoe je medewerkers met AI omgaan. Dat scenario is niet hypothetisch, het is precies de situatie die de AI Act wil voorkomen.
Nationale toezichthouders mogen vanaf 3 augustus 2026 handhaven. Bij grove nalatigheid of aantoonbare schade kunnen sancties aanzienlijk zijn. Maar los van de publiekrechtelijke handhaving speelt er nog iets: privaatrechtelijke aansprakelijkheid. Als een medewerker door gebrekkige AI-kennis schade veroorzaakt bij een klant of derde, kan jouw organisatie civielrechtelijk aansprakelijk worden gesteld. Dat geldt ook voor kleine bedrijven.
Daar komt reputatierisico bovenop. Klanten willen weten dat jij verantwoord met AI omgaat. Wachten tot 2026 is dus risicovol, niet alleen juridisch maar ook commercieel. De verplichting geldt nu al.
Hoe past AI-geletterdheid bij risicocategorieën uit de AI Act?
Neem twee situaties naast elkaar. Een medewerker gebruikt ChatGPT om een nieuwsbrief te schrijven. Een HR-manager gebruikt een AI-systeem om sollicitanten automatisch te scoren. Beide situaties vallen onder de AI Act, maar de eisen zijn heel anders. Dat is de kern van de risico-gebaseerde aanpak die ook de code of practice AI Act volgt.
De AI Act werkt met vier ai act categories: verboden AI, hoog-risico AI, beperkt risico en minimaal risico. Hoe hoger het risico, hoe zwaarder de eisen aan kennis en documentatie.
| Risicocategorie | Voorbeelden | Minimale geletterdheidseis |
|---|---|---|
| Verboden AI | Social scoring, gezichtsherkenning via scraping | Niet toegestaan, geen geletterdheid maakt dit legaal |
| Hoog risico | AI in HR, zorg, rechtspraak, kredietverlening | Formele training, documentatie, Artikel 26 |
| Beperkt risico | Chatbot voor klantenservice, AI-assistent | Informeren dat gebruiker met AI praat |
| Minimaal risico | ChatGPT voor teksten, spam-filter, spellingcheck | Basisbewustzijn, interne richtlijn volstaat |
Minimaal en beperkt risico
Gebruik je ChatGPT, een eenvoudige aanbevelingssysteem of een teksttool? Dan volstaat basisbewustzijn. Medewerkers weten wat het systeem doet, kennen de meest voorkomende fouten en checken de output voordat ze ermee aan de slag gaan. Een korte interne richtlijn van één A4 kan hier al voldoende zijn. Meer is niet nodig, minder is te weinig.
Hoog-risico AI-systemen
In sectoren als HR, recruitment, zorg of accountancy liggen de eisen hoger. Gebruik je een AI-systeem dat beslissingen ondersteunt over mensen, zoals het selecteren van kandidaten of het inschatten van kredietrisico? Dan eist Artikel 26 van de AI Act expliciete training voor medewerkers die het systeem beheren of bewaken. Documentatie van die training is bij toezicht vrijwel onmisbaar. Bij een klant in de zorgsector zag ik dat dit punt het meest verraste: men wist niet dat hun AI-planningstools in de hoog-risicocategorie vallen.
Wat valt er buiten de scope van AI-geletterdheid?
AI-geletterdheid gaat over verantwoord gebruik van toegestane AI. Het is geen vrijbrief en lost niets op voor systemen die de AI Act volledig verbiedt.
Verboden AI-toepassingen zijn onder andere:
- Social scoring door overheden of bedrijven op basis van gedrag
- Predictive policing op basis van profiling zonder concrete aanleiding
- Real-time biometrische identificatie in openbare ruimtes (met enkele uitzonderingen)
- Het opbouwen van gezichtsherkenningsdatabanken via scraping van internet of camera-opnames
Geen enkele mate van training of bewustzijn maakt deze toepassingen toegestaan. Dit onderscheid is belangrijk: je traint medewerkers in hoe ze AI verantwoord gebruiken, niet in wat verboden is. Die grens ligt vast en staat los van geletterdheid.
Wat is er nog meer geregeld rondom transparantie in de AI Act?
Naast AI-geletterdheid, is er nog iets wat relevant is voor jouw organisatie. Maar wat regelt de AI Act dan precies op het gebied van transparantie?
Artikel 50 van de AI Act, dat van kracht wordt per 2 augustus 2026, verplicht aanbieders en gebruikers van bepaalde AI-systemen om eindgebruikers te informeren wanneer ze met AI communiceren. Denk aan een klantenservice-chatbot: bezoekers moeten weten dat ze geen mens aan de lijn hebben, tenzij dat overduidelijk is. Daarnaast moet AI-gegenereerde content, zoals deepfakes of synthetische tekst, worden gelabeld.
Dit raakt direct aan de geletterdheidsverplichting. Want als jouw medewerkers begrijpen wat AI doet en wat de grenzen zijn, weten ze ook wanneer en hoe ze gebruikers moeten informeren. Artikel 4 en Artikel 50 versterken elkaar. Begin je met AI-geletterdheid, dan is transparantie naar eindgebruikers een logische volgende stap.
Zo begin je vandaag met AI-geletterdheid in jouw organisatie
Bij een klant in de logistiek zag ik dat de inventarisatie het meest waardevolle moment was. Niet de training erna, maar het simpele gesprek: welke AI gebruiken we eigenlijk? Dat gesprek opende ogen en maakte duidelijk waar de echte risico’s zaten. Zo kun jij ook beginnen.
- Inventariseer alle AI-tools. Vraag je team welke tools ze gebruiken, ook de privé-tools die ze voor werk inzetten. Je zult verrast zijn wat er al in gebruik is.
- Bepaal het risiconiveau per tool. Gebruik de tabel eerder in dit artikel als referentie. Laag risico of hoog risico? Dat bepaalt de intensiteit van je aanpak.
- Pas de bewustwordingsvorm aan op het risico. Laag risico? Een korte richtlijn of team-briefing. Hoog risico? Plan een gerichte training en sla die op. Wij adviseren MKB-organisaties om hier pragmatisch in te zijn: begin klein, pas aan waar nodig. Wil je verder gaan dan bewustwording en ook zelf aan de slag met het bouwen van geautomatiseerde oplossingen, dan biedt de cursus AI-agents en automatisering leren bouwen uitgebreide begeleiding.
- Leg alles vast in een simpel document. Welke tools, wie gebruikt ze, welke instructie is gegeven en wanneer. Dat document is je bewijs als een toezichthouder vragen stelt.
Je hoeft dit niet in één dag te doen. Een gerichte aanpak per team of afdeling is voor de meeste MKB-organisaties al meer dan voldoende. Een AI-scan van je huidige situatie is hierbij een logische en laagdrempelige eerste stap. Op AI-agents.nl kun je een gratis AI-scan aanvragen om snel inzicht te krijgen in welke tools je gebruikt en welk risiconiveau daarbij hoort.
Wil je weten waar AI jou tijd bespaart?
Vul in 1 minuut de scan in. Onze specialisten sturen je binnen één werkdag een persoonlijk rapport met concrete AI-toepassingen voor jouw functie en sector.
Geen verkoopgesprek. Geen verplichtingen.
Veelgestelde vragen
Geldt de AI-geletterdheidsverplichting ook voor kleine bedrijven?
Ja, de verplichting geldt voor elke organisatie die AI-systemen aanbiedt of gebruikt, ongeacht de grootte. Ook als je alleen ChatGPT of een AI-tool in je dagelijkse werk inzet, val je onder Artikel 4.
Wat is een toereikend niveau van AI-geletterdheid?
Er is geen vaste norm, maar medewerkers moeten begrijpen hoe het AI-systeem dat ze gebruiken werkt, wat de beperkingen zijn en hoe ze de output kritisch beoordelen. De lat ligt hoger naarmate het risiconiveau van het systeem hoger is.
Is het verplicht om trainingen te organiseren?
Training is niet in een vaste vorm verplicht, maar wel sterk aanbevolen. Voor hoog-risico AI-systemen eist Artikel 26 van de AI Act wel expliciet dat medewerkers voldoende zijn getraind.
Moet ik AI-geletterdheid documenteren?
Documentatie is niet wettelijk verplicht, maar wel verstandig. Een eenvoudig overzicht van welke stappen je hebt gezet is waardevol als bewijs bij toezicht.
Wat is het verschil tussen Artikel 4 en Artikel 50 van de AI Act?
Artikel 4 verplicht organisaties tot AI-geletterdheid bij medewerkers en geldt al vanaf 2 februari 2025. Artikel 50 gaat over transparantie naar eindgebruikers en treedt in werking op 2 augustus 2026.
Wanneer begint de handhaving van de AI Act?
Nationale toezichthouders mogen vanaf 3 augustus 2026 handhaven. De verplichting zelf, waaronder AI-geletterdheid, geldt al sinds 2 februari 2025.







