{"id":3436396,"date":"2026-04-08T10:31:33","date_gmt":"2026-04-08T09:31:33","guid":{"rendered":"https:\/\/datanorth.ai\/blog\/eu-ai-act-august-2026-the-step-by-step-compliance-checklist-for-enterprises"},"modified":"2026-04-16T08:53:46","modified_gmt":"2026-04-16T07:53:46","slug":"eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen","status":"publish","type":"post","link":"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen","title":{"rendered":"EU AI Act augustus 2026: De stapsgewijze compliance-checklist voor ondernemingen"},"content":{"rendered":"\n<p>De <a href=\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-wet\">EU AI Act<\/a> is &#8216;s werelds eerste wettelijke kader voor AI, met een op risico gebaseerde regulering structuur die gevolgen heeft voor elke organisatie die AI-systemen aanbiedt of inzet op de EU-markt. Vanaf april 2026 lopen verschillende overgangsperioden ten einde. Hoewel het verbod op systemen met een &#8220;onaanvaardbaar risico&#8221; begin 2025 de toon zette, wordt het regelgevings landschap voor ondernemingen gedefinieerd door een gefaseerde tijdlijn waarbij transparantieverplichtingen voor nieuwe General-purpose AI (GPAI) modellen feitelijk al in augustus 2025 van start gingen. Bij gevolg dient de veelgenoemde deadline van 2 augustus 2026 als de definitieve handhavingsdatum voor &#8220;standalone&#8221; hoog-risico toepassingen en algemene transparantieregels, zoals die voor deepfakes en emotieherkenning.<\/p>\n\n\n\n<p>Voor zakelijke leiders is compliance niet alleen een juridische hindernis, maar een structurele vereiste voor operationele continu\u00efteit. Non-compliance brengt ernstige financi\u00eble gevolgen met zich mee. De maximale boete voor overtredingen met verboden praktijken bedraagt \u20ac35 miljoen of 7% van de totale wereldwijde jaaromzet. Overtredingen van de vereisten voor hoog-risico systemen kunnen leiden tot boetes tot \u20ac15 miljoen of 3% van de wereldwijde omzet.<\/p>\n\n\n\n<p>Dit artikel biedt een technische en objectieve checklist voor het bereiken van compliance voor de deadline van augustus 2026.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img decoding=\"async\" width=\"1024\" height=\"486\" src=\"https:\/\/datanorth.ai\/wp-content\/uploads\/2026\/04\/image-5.png\" alt=\"image\" class=\"wp-image-3436398\" srcset=\"https:\/\/datanorth.ai\/wp-content\/uploads\/2026\/04\/image-5.png 1024w, https:\/\/datanorth.ai\/wp-content\/uploads\/2026\/04\/image-5-300x142.png 300w, https:\/\/datanorth.ai\/wp-content\/uploads\/2026\/04\/image-5-768x365.png 768w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Wat houdt de EU AI Act deadline van augustus 2026 in?<\/h2>\n\n\n\n<p>De deadline van 2 augustus 2026 is de primaire datum van toepassing voor de EU AI Act, specifiek gericht op AI-systemen die onder Bijlage III als &#8220;hoog-risico&#8221; zijn geclassificeerd. Dit omvat systemen die worden gebruikt in gevoelige sectoren zoals kritieke infrastructuur, onderwijs, werkgelegenheid en rechtshandhaving. Begin 2026 is er aanzienlijke wetgevende discussie geweest (de &#8220;Digital Omnibus&#8221;) over een mogelijke verlenging van 16 maanden voor Bijlage III hoog-risico systemen (wat de datum naar december 2027 zou verschuiven).<\/p>\n\n\n\n<p>Tegen deze datum moeten aanbieders conformiteitsbeoordelingen hebben voltooid, kaders voor risicobeheer hebben opgezet en hun systemen hebben geregistreerd in de EU-database voor hoog-risico AI-systemen.<\/p>\n\n\n\n<p>Daarnaast worden transparantieverplichtingen voor AI-systemen die interactie hebben met mensen (zoals chatbots) of synthetische content genereren (zoals deepfakes) volledig van kracht. Organisaties moeten ervoor zorgen dat gebruikers zich ervan bewust zijn dat ze met een AI communiceren en dat door AI gegenereerde content is gelabeld in een machine leesbaar formaat.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fase 1: Classificatie en inventarisatie<\/h2>\n\n\n\n<p>Ondernemingen moeten eerst vaststellen waar zij zich bevinden in de AI-waardeketen: als een aanbieder (ontwikkelen van AI), een inzetter (gebruiken van AI), een importeur of een distributeur.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">1. Identificeer risiconiveaus van AI-systemen<\/h3>\n\n\n\n<p>De Act categoriseert AI in vier risiconiveaus, die elk een ander niveau van documentatie en toezicht vereisen.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Onaanvaardbaar risico:<\/strong> Verboden sinds februari 2025 (bijv. social scoring, manipulatief gedrag).<\/li>\n\n\n\n<li><strong>Hoog-risico (Bijlage III):<\/strong> Systemen gebruikt bij werving, credit scoring of essenti\u00eble publieke diensten. Volledige compliance vereist tegen augustus 2026.<\/li>\n\n\n\n<li><strong>Beperkt risico:<\/strong> Systemen die voornamelijk onderworpen zijn aan transparantieregels (bijv. <a href=\"https:\/\/openai.com\/chatgpt\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">ChatGPT<\/a>, <a href=\"https:\/\/www.microsoft.com\/en-us\/microsoft-copilot\" target=\"_blank\" rel=\"noopener noreferrer nofollow\">Microsoft Copilot<\/a>).<\/li>\n\n\n\n<li><strong>Minimaal risico:<\/strong> Geen specifieke verplichtingen (bijv. AI-gestuurde spamfilters).<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">2. Breng hoog-risico use cases in kaart<\/h3>\n\n\n\n<p>Als je organisatie AI gebruikt voor prestatiebewaking van werknemers, geautomatiseerde werving of de berekening van verzekeringspremies, vallen deze waarschijnlijk onder Bijlage III. Je moet deze systemen documenteren en verifi\u00ebren of ze in aanmerking komen voor de uitzondering van Artikel 6(3), die geldt als het systeem een beperkte procedurele taak uitvoert die de menselijke besluitvorming niet wezenlijk be\u00efnvloedt.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fase 2: Technische en organisatorische vereisten<\/h2>\n\n\n\n<p>Voor systemen die als hoogrisico zijn aangemerkt, moeten ondernemingen v\u00f3\u00f3r de deadline van augustus 2026 strikte technische controles implementeren.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">3. Stel een systeem voor risicobeheer op<\/h3>\n\n\n\n<p>Volgens Artikel 9 moeten aanbieders gedurende de gehele levenscyclus van het AI-systeem een continu risicobeheersysteem onderhouden. Dit omvat:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Het identificeren van bekende en voorzienbare risico&#8217;s voor gezondheid, veiligheid en grondrechten.<\/li>\n\n\n\n<li>Het implementeren van mitigerende maatregelen en het testen op restrisico&#8217;s.<\/li>\n\n\n\n<li>Het organiseren van <a href=\"https:\/\/datanorth.ai\/blog\/ai-risk-management-compliance\">AI Risk Management &amp; Compliance<\/a> sessies om risicobeheer af te stemmen op de bredere corporate governance.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\">4. Data governance en kwaliteit van datasets<\/h3>\n\n\n\n<p>Hoog-risico AI-modellen moeten worden getraind op data die relevant en representatief is, en voor zover mogelijk vrij is van fouten. Documentatie moet details bevatten over de herkomst van trainingsdata, processen voor gegevensverzameling en strategie\u00ebn voor bias-mitigatie.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">5. Technische documentatie en verslaglegging<\/h3>\n\n\n\n<p>Ondernemingen moeten een technisch dossier opstellen voordat ze een systeem op de markt brengen. Dit omvat de architectuur van het systeem, het algoritmisch ontwerp en de validatieprocessen. Onder Artikel 12 moeten systemen ook automatisch logs genereren om de traceerbaarheid van prestaties en eventuele incidenten te waarborgen.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fase 3: Transparantie en menselijk toezicht<\/h2>\n\n\n\n<p>De Act vereist dat AI in omgevingen met een hoog risico niet functioneert als een &#8220;black box&#8221;.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">6. Ontwerp voor menselijk toezicht<\/h3>\n\n\n\n<p>AI-systemen moeten zo worden ontworpen dat ze effectief kunnen worden gecontroleerd door natuurlijke personen. Dit betekent dat er een &#8220;uit-knop&#8221; of een interventiemechanisme moet zijn. Organisaties zouden een <a href=\"https:\/\/datanorth.ai\/nl\/dienst\/training-workshop\/ai-geletterdheid-workshop\">AI Literacy workshop<\/a> voor personeel kunnen overwegen om ervoor te zorgen dat zij begrijpen hoe ze AI-outputs moeten interpreteren en wanneer ze moeten ingrijpen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">7. Transparantie voor gebruikers en inzetters<\/h3>\n\n\n\n<p>Voor AI-systemen met een beperkt risico, zoals general-purpose chatbots, is de primaire vereiste openbaarmaking. Gebruikers moeten worden ge\u00efnformeerd dat zij interactie hebben met een AI. Tekst, afbeeldingen of video gegenereerd door AI moeten worden voorzien van een watermerk of worden gelabeld in een machine leesbaar formaat.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Fase 4: Conformiteitsbeoordeling en registratie<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\">8. Voltooi de conformiteitsbeoordeling<\/h3>\n\n\n\n<p>De meeste Bijlage III hoog-risico systemen staan een route voor interne controle toe (zelfbeoordeling). Echter, als het systeem biometrie bevat of onder producten valt die al gereguleerd zijn door wetgeving van het Nieuw Wettelijk Kader (zoals medische hulpmiddelen), kan een beoordeling door een aangemelde instantie (een externe auditor) vereist zijn.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">9. Registreer in de EU-database<\/h3>\n\n\n\n<p>Voordat een hoog-risico systeem op de markt wordt gebracht, moeten aanbieders het registreren in de centrale EU-database, wat transparantie biedt aan markttoezichthouders en het grote publiek.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">10. Monitoring na het op de markt brengen<\/h3>\n\n\n\n<p>Compliance eindigt niet bij de inzet. Aanbieders moeten een systeem voor post-market monitoring opzetten om prestatiegegevens te verzamelen en te analyseren. Ernstige incidenten of defecten moeten binnen 15 dagen na ontdekking worden gemeld aan de nationale autoriteiten.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Vergelijking van AI Act verplichtingen per rol<\/h2>\n\n\n\n<figure class=\"wp-block-table\"><table><thead><tr><th><strong>Vereiste<\/strong><\/th><th><strong>Aanbieder (Ontwikkelaar)<\/strong><\/th><th><strong>Inzetter (Gebruiker)<\/strong><\/th><th><strong>Importeur\/Distributeur<\/strong><\/th><\/tr><\/thead><tbody><tr><td><strong>Risicobeheer<\/strong><\/td><td>Verplicht (Art. 9)<\/td><td>Niet verplicht<\/td><td>Verifieer compliance Aanbieder<\/td><\/tr><tr><td><strong>Technische Documentatie<\/strong><\/td><td>Verplicht (Art. 11)<\/td><td>Beheer instructies<\/td><td>Verifieer compliance Aanbieder<\/td><\/tr><tr><td><strong>Menselijk Toezicht<\/strong><\/td><td>Design-in (Art. 14)<\/td><td>Implementatie (Art. 14)<\/td><td>n.v.t.<\/td><\/tr><tr><td><strong>EU-database Registratie<\/strong><\/td><td>Verplicht (Art. 49)<\/td><td>Alleen overheidsinstanties<\/td><td>n.v.t.<\/td><\/tr><tr><td><strong>Post-market Monitoring<\/strong><\/td><td>Verplicht (Art. 72)<\/td><td>Monitor gebruik<\/td><td>Meld incidenten<\/td><\/tr><tr><td><strong>AI Literacy Training<\/strong><\/td><td>Verplicht<\/td><td>Verplicht<\/td><td>Aanbevolen<\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Implementatiestrategie voor ondernemingen<\/h2>\n\n\n\n<p>Om de deadline van augustus 2026 te halen, hadden organisaties al moeten beginnen met de voorbereiding. Een realistische gefaseerde aanpak ziet er als volgt uit:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Nu tot Q2 2026 (Audit):<\/strong> Voltooi een volledige inventarisatie van alle AI-systemen die momenteel in gebruik of in ontwikkeling zijn. Geef prioriteit aan systemen die betrekking hebben op werving, krediet of publieke diensten.<\/li>\n\n\n\n<li><strong>Q2 2026 (Gap Analysis):<\/strong> Vergelijk de huidige praktijken op het gebied van data governance en documentatie met de vereisten van Artikel 10 en 11.<\/li>\n\n\n\n<li><strong>Tegen juli 2026 (Governance):<\/strong> Stel een AI-ethiek- en compliance commissie in om het conformiteitsbeoordeling proces te overzien. Dit moet v\u00f3\u00f3r de deadline van augustus operationeel zijn, niet erna.<\/li>\n\n\n\n<li><strong>Continu (Training):<\/strong> Rollout van AI-geletterdheid programma&#8217;s. Artikel 4 vereist dat zowel aanbieders als inzetters ervoor zorgen dat personeel over een voldoende niveau van AI-geletterdheid beschikt.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\">Conclusie<\/h2>\n\n\n\n<p>De deadline van de EU AI Act in augustus 2026 markeert een fundamentele verschuiving in de manier waarop bedrijven algoritmische risico&#8217;s moeten beheren. Door over te stappen van ad-hoc AI-gebruik naar een gestructureerd, gedocumenteerd en transparant governancemodel, kunnen ondernemingen het risico op aanzienlijke boetes en reputatieschade verkleinen. Hoewel de technische vereisten voor hoog-risico systemen uitgebreid zijn, bieden ze een gestandaardiseerd kader voor het bouwen van AI die veilig, traceerbaar en onderworpen aan menselijk toezicht is. Organisaties die deze compliance-mijlpalen nu aanpakken, zijn beter gepositioneerd om geavanceerde AI-technologie\u00ebn te adopteren terwijl ze binnen de wettelijke kaders van de Europese markt blijven.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Veelgestelde vragen<\/h2>\n\n\n\n<div class=\"wp-block-wpseopress-faq-block-v2 is-layout-flow wp-block-wpseopress-faq-block-v2-is-layout-flow\">\n<details id=\"wat-gebeurt-er-als-ik-de-deadline-van-2-augustus-2026-mis\" class=\"wp-block-details is-layout-flow wp-block-details-is-layout-flow\"><summary><strong>Wat gebeurt er als ik de deadline van 2 augustus 2026 mis?<\/strong><\/summary>\n<p>Het missen van de deadline voor hoog-risico AI-systemen of transparantieverplichtingen kan leiden tot administratieve boetes. Overtredingen van de vereisten voor hoog-risico systemen dragen een maximale sanctie van \u20ac15 miljoen of 3% van de wereldwijde omzet. Markttoezichthouders hebben daarnaast de bevoegdheid om de terugtrekking van een niet-conform systeem van de EU-markt te bevelen.<\/p>\n<\/details>\n\n\n\n<details id=\"is-de-eu-ai-act-van-toepassing-op-bedrijven-buiten-europa\" class=\"wp-block-details is-layout-flow wp-block-details-is-layout-flow\"><summary><strong>Is de EU AI Act van toepassing op bedrijven buiten Europa?<\/strong><\/summary>\n<p>Ja. De Act heeft een extraterritoriale werking. Het is van toepassing op elke aanbieder die AI-systemen op de markt brengt of in gebruik neemt in de EU, ongeacht waar de aanbieder is gevestigd. Het is ook van toepassing op inzetters die gevestigd zijn in de EU, en op aanbieders of inzetters buiten de EU wanneer de output van het AI-systeem binnen de EU wordt gebruikt.<\/p>\n<\/details>\n\n\n\n<details id=\"zijn-open-source-ai-modellen-vrijgesteld\" class=\"wp-block-details is-layout-flow wp-block-details-is-layout-flow\"><summary><strong>Zijn open-source AI-modellen vrijgesteld?<\/strong><\/summary>\n<p>De Act biedt enkele vrijstellingen voor AI-modellen die worden uitgebracht onder vrije en open-source licenties, mits deze geen deel uitmaken van een hoog-risico systeem en niet worden gekwalificeerd als GPAI-modellen met systeemrisico&#8217;s. Transparantieverplichtingen (zoals het labelen van synthetische content) blijven echter van kracht als een open-source model wordt gebruikt om dergelijke content te genereren. Organisaties moeten er niet van uitgaan dat de open-source status alleen al voldoende bescherming biedt op het gebied van compliance.<\/p>\n<\/details>\n\n\n\n<details id=\"wat-is-een-fundamental-rights-impact-assessment-fria\" class=\"wp-block-details is-layout-flow wp-block-details-is-layout-flow\"><summary><strong>Wat is een Fundamental Rights Impact Assessment (FRIA)?<\/strong><\/summary>\n<p>Een FRIA is een verplichte beoordeling voor bepaalde inzetters van hoog-risico AI-systemen, specifiek voor overheidsinstanties en private entiteiten die essenti\u00eble publieke diensten verlenen, zoals bankieren of verzekeren. Het vereist dat de inzetter beoordeelt hoe het gebruik van de AI de grondrechten van de betrokken personen zal be\u00efnvloeden voordat het systeem in gebruik wordt genomen.<\/p>\n<\/details>\n<script type=\"application\/ld+json\">{\"@context\":\"https:\/\/schema.org\",\"@type\":\"FAQPage\",\"url\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen\",\"@id\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen\",\"mainEntity\":[{\"@type\":\"Question\",\"url\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen#wat-gebeurt-er-als-ik-de-deadline-van-2-augustus-2026-mis\",\"name\":\"Wat gebeurt er als ik de deadline van 2 augustus 2026 mis?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"&lt;p>Het missen van de deadline voor hoog-risico AI-systemen of transparantieverplichtingen kan leiden tot administratieve boetes. Overtredingen van de vereisten voor hoog-risico systemen dragen een maximale sanctie van \u20ac15 miljoen of 3% van de wereldwijde omzet. Markttoezichthouders hebben daarnaast de bevoegdheid om de terugtrekking van een niet-conform systeem van de EU-markt te bevelen.&lt;\/p>\"}},{\"@type\":\"Question\",\"url\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen#is-de-eu-ai-act-van-toepassing-op-bedrijven-buiten-europa\",\"name\":\"Is de EU AI Act van toepassing op bedrijven buiten Europa?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"&lt;p>Ja. De Act heeft een extraterritoriale werking. Het is van toepassing op elke aanbieder die AI-systemen op de markt brengt of in gebruik neemt in de EU, ongeacht waar de aanbieder is gevestigd. Het is ook van toepassing op inzetters die gevestigd zijn in de EU, en op aanbieders of inzetters buiten de EU wanneer de output van het AI-systeem binnen de EU wordt gebruikt.&lt;\/p>\"}},{\"@type\":\"Question\",\"url\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen#zijn-open-source-ai-modellen-vrijgesteld\",\"name\":\"Zijn open-source AI-modellen vrijgesteld?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"&lt;p>De Act biedt enkele vrijstellingen voor AI-modellen die worden uitgebracht onder vrije en open-source licenties, mits deze geen deel uitmaken van een hoog-risico systeem en niet worden gekwalificeerd als GPAI-modellen met systeemrisico's. Transparantieverplichtingen (zoals het labelen van synthetische content) blijven echter van kracht als een open-source model wordt gebruikt om dergelijke content te genereren. Organisaties moeten er niet van uitgaan dat de open-source status alleen al voldoende bescherming biedt op het gebied van compliance.&lt;\/p>\"}},{\"@type\":\"Question\",\"url\":\"https:\/\/datanorth.ai\/nl\/blog\/eu-ai-act-augustus-2026-de-stapsgewijze-compliance-checklist-voor-ondernemingen#wat-is-een-fundamental-rights-impact-assessment-fria\",\"name\":\"Wat is een Fundamental Rights Impact Assessment (FRIA)?\",\"answerCount\":1,\"acceptedAnswer\":{\"@type\":\"Answer\",\"text\":\"&lt;p>Een FRIA is een verplichte beoordeling voor bepaalde inzetters van hoog-risico AI-systemen, specifiek voor overheidsinstanties en private entiteiten die essenti\u00eble publieke diensten verlenen, zoals bankieren of verzekeren. Het vereist dat de inzetter beoordeelt hoe het gebruik van de AI de grondrechten van de betrokken personen zal be\u00efnvloeden voordat het systeem in gebruik wordt genomen.&lt;\/p>\"}}]}<\/script><\/div>\n\n\n<div class=\"brxe-container newsletter-sign-up-blog\"><div class=\"brxe-div newsletter-sign-up-blog__headings-div\"><div class=\"brxe-div newsletter-sign-up-blog__heading-icon-div\"><i id=\"brxe-xdnylt\" class=\"fa fa-envelope brxe-icon newsletter-sign-up-blog__icon\"><\/i><div class=\"brxe-heading newsletter-sign-up-blog__heading\">Schrijf je in voor onze Nieuwsbrief<\/div><\/div><div id=\"brxe-yrmmzb\" class=\"brxe-heading newsletter-sign-up-blog__subheading\">Blijf op de hoogte van onze nieuwste AI blogs, onderzoeken, diensten en nog veel meer!<\/div><\/div><div class=\"brxe-shortcode newsletter-sign-up-blog__shortcode form--light\"><div class='fluentform ff-default fluentform_wrapper_15 ffs_default_wrap'><form data-form_id=\"15\" id=\"fluentform_15\" class=\"frm-fluent-form fluent_form_15 ff-el-form-top ff_form_instance_15_1 ff-form-loading ffs_default\" data-form_instance=\"ff_form_instance_15_1\" method=\"POST\" ><fieldset  style=\"border: none!important;margin: 0!important;padding: 0!important;background-color: transparent!important;box-shadow: none!important;outline: none!important; min-inline-size: 100%;\">\n                    <legend class=\"ff_screen_reader_title\" style=\"display: block; margin: 0!important;padding: 0!important;height: 0!important;text-indent: -999999px;width: 0!important;overflow:hidden;\">Newsletter Sign Up Form (Blog) (NL)<\/legend><input type='hidden' name='__fluent_form_embded_post_id' value='3436396' \/><input type=\"hidden\" id=\"_fluentform_15_fluentformnonce\" name=\"_fluentform_15_fluentformnonce\" value=\"c0fbb0db48\" \/><input type=\"hidden\" name=\"_wp_http_referer\" value=\"\/nl\/wp-json\/wp\/v2\/posts\/3436396\" \/><div class='ff-el-group ff-el-form-hide_label'><div class=\"ff-el-input--label ff-el-is-required asterisk-right\"><label for='ff_15_email' id='label_ff_15_email' aria-label=\"Email\">Email<\/label><\/div><div class='ff-el-input--content'><input type=\"email\" name=\"email\" id=\"ff_15_email\" class=\"ff-el-form-control\" placeholder=\"E-mailadres\" data-name=\"email\"  aria-invalid=\"false\" aria-required=true><\/div><\/div><div class='ff-el-group ff-el-form-hide_label'><div class=\"ff-el-input--label ff-el-is-required asterisk-right\"><label   aria-label=\"Radio Field\">Radio Field<\/label><\/div><div class='ff-el-input--content'><div class='ff-el-form-check ff-el-form-check-'><label class='ff-el-form-check-label' for='input_radio_6c98368867b41af8d8b94f4424a8319d'><input  type=\"radio\" name=\"input_radio\" data-name=\"input_radio\" class=\"ff-el-form-check-input ff-el-form-check-radio\" value=\"Ik wil graag marketing gerelateerde e-mails ontvangen van DataNorth\"  id='input_radio_6c98368867b41af8d8b94f4424a8319d' aria-label='Ik wil graag marketing gerelateerde e-mails ontvangen van DataNorth' aria-invalid='false' aria-required=true> <span>Ik wil graag marketing gerelateerde e-mails ontvangen van DataNorth<\/span><\/label><\/div><\/div><\/div><div class='ff-el-group ff-text-left ff_submit_btn_wrapper'><button type=\"submit\" class=\"ff-btn ff-btn-submit ff-btn-md ff_btn_style\"  aria-label=\"Aanmelden!\">Aanmelden!<\/button><\/div><\/fieldset><\/form><div id='fluentform_15_errors' class='ff-errors-in-stack ff_form_instance_15_1 ff-form-loading_errors ff_form_instance_15_1_errors'><\/div><\/div>            <script type=\"text\/javascript\">\n                window.fluent_form_ff_form_instance_15_1 = {\"id\":\"15\",\"ajaxUrl\":\"https:\\\/\\\/datanorth.ai\\\/wp-admin\\\/admin-ajax.php\",\"settings\":{\"layout\":{\"labelPlacement\":\"top\",\"helpMessagePlacement\":\"with_label\",\"errorMessagePlacement\":\"inline\",\"cssClassName\":\"\",\"asteriskPlacement\":\"asterisk-right\"},\"restrictions\":{\"denyEmptySubmission\":{\"enabled\":false}}},\"form_instance\":\"ff_form_instance_15_1\",\"form_id_selector\":\"fluentform_15\",\"rules\":{\"email\":{\"required\":{\"value\":true,\"message\":\"This field is required\",\"global_message\":\"This field is required\",\"global\":true},\"email\":{\"value\":true,\"message\":\"This field must contain a valid email\",\"global_message\":\"This field must contain a valid email\",\"global\":true}},\"input_radio\":{\"required\":{\"value\":true,\"message\":\"This field is required\",\"global_message\":\"This field is required\",\"global\":true}}},\"debounce_time\":300};\n                            <\/script>\n            <\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Met de deadline van 2 augustus 2026 in zicht, moeten ondernemingen prioriteit geven aan compliance voor hoog-risico AI-systemen en transparantieregels, terwijl ze rekening houden met de verplichtingen voor General-purpose AI die al van kracht zijn.<\/p>\n","protected":false},"author":17,"featured_media":3436403,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_seopress_robots_primary_cat":"none","_seopress_titles_title":"EU AI Act augustus 2026: Stapsgewijze compliance-checklist","_seopress_titles_desc":"Bereid je voor op de deadline van de EU AI Act in augustus 2026 met deze compliance-checklist voor AI-systemen en transparantie vereisten.","_seopress_robots_index":"","footnotes":""},"categories":[69],"tags":[],"class_list":{"0":"post-3436396","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ai-basis"},"meta_box":{"faq_item":[]},"_links":{"self":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/posts\/3436396","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/users\/17"}],"replies":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/comments?post=3436396"}],"version-history":[{"count":2,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/posts\/3436396\/revisions"}],"predecessor-version":[{"id":3436509,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/posts\/3436396\/revisions\/3436509"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media\/3436403"}],"wp:attachment":[{"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/media?parent=3436396"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/categories?post=3436396"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/datanorth.ai\/nl\/wp-json\/wp\/v2\/tags?post=3436396"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}