De EU AI Act komt eraan: wat is de impact op jouw kmo?  

EU AI Act: tijdlijn en transparantieverplichtingen voor kmo’s in 2025–2026

13 oktober 2025

De EU AI Act verandert hoe kmo’s met AI omgaan. Vanaf 2 augustus 2025 gelden transparantieverplichtingen voor o.a. chatbots en generatieve AI; vanaf 2026 volgen strengere regels voor hoogrisico-toepassingen. In dit artikel lees je wat er verandert en welke stappen je vandaag al zet om conform te zijn.

Tijdlijn in het kort

Sinds 2 februari 2025 zijn AI-toepassingen met onaanvaardbaar risico verboden (o.a. social scoring, emotieherkenning op school/werk). Vanaf 2 augustus 2025 gelden transparantieplichten voor AI die je klanten rechtstreeks beïnvloedt (chatbots, generatieve tools, deepfakes) en treden GPAI-verplichtingen in werking. Vanaf 2 augustus 2026 volgen de regels voor hoogrisico-AI (zoals HR of kredietbeoordeling). Voor GPAI-modellen die al vóór 2 augustus 2025 op de markt waren, geldt een overgang tot 2 augustus 2027.

Transparantie: wat moet je tonen aan klanten?

Gebruik je een chatbot of generatieve module? Meld duidelijk dat gebruikers met AI interacteren (bv. “Dit is een AI-assistent”). Publiceer waar relevant een korte uitleg over werking/risico’s en label synthetische media (deepfakes). Voor emotieherkenning of biometrische categorisatie gelden bijkomende meldplichten of verboden. Praktische voorbeelden en labels implementeren we mee via Bedrijfsadvies of contacteer ons.

GPAI in je tools: wat vraag je aan leveranciers?

Veel kmo’s kopen AI in via SaaS. Vraag je leverancier om documentatie (modeltype, data, copyrightmaatregelen), risicobeheersing en incidentprocedure. Leg in je contract vast dat zij conform de AI Act leveren, en bewaar hun bewijzen in je dossier. Twijfel je over formuleringen? Onze jurisch-fiscale collega’s helpen via Belastingsadvies.

Hoogrisico-toepassingen vanaf 2026

Gebruik je AI in rekrutering, kredietbeoordeling of toegang tot essentiële diensten? Dan kom je allicht in het hoogrisico-kader met strikte eisen rond data-kwaliteit, logging, menselijk toezicht en documentatie. Wacht niet tot 2026: bepaal nu of je tool onder “hoog risico” valt en plan je compliance-traject.

Drie stappen om vandaag te starten

1) Breng je AI-gebruik in kaart. Inventariseer chatbots, aanbevelers, HR-tools, voorspellende analyses en generatieve AI. Noteer doel, data, leverancier en gebruikers.

2) Beoordeel het risico. Valt iets onder een verboden praktijk of is het hoog risico? Zo niet, behandel het als “beperkt risico” en bereid je op transparantie voor (labels, meldingen).

3) Zet eerste compliance-acties. Voeg een duidelijke AI-melding toe in klantflows, maak een beknopt AI-beleid (wie is verantwoordelijk, welke gegevens, toezicht) en leg leveranciersverplichtingen contractueel vast. Heb je een voorbeeld nodig? Contacteer ons voor templates en een snelle AI Act-scan.

De EU AI Act legt vanaf 2 augustus 2025 transparantie op en verscherpt de eisen voor hoogrisico-AI in 2026. Wie nu inventariseert, labelt en contractueel afdekt, wint vertrouwen en vermijdt boetes. Wil je zeker zitten? Plan je 30’ AI Act-scan via onze contactpagina.