Vanaf 2 augustus 2025 zullen aanbieders van algemene kunstmatige inlichtingen (GPAI) modellen die binnen de Europese Unie actief zijn onderworpen aan specifieke secties van de EU AI-wet, onderworpen aan het onderhoud van actuele technische documentatie en samenvattingen van trainingsgegevens.
De EU AI-wet, gepubliceerd in het officiële tijdschrift van de EU op 12 juli 2024, en effectief op 1 augustus 2024, vestigt een risicogebaseerd regelgevingskader om het veilige en ethische gebruik van AI over de EU te waarborgen. Dit framework categoriseert AI -systemen op basis van hun potentiële risico’s en impact op individuen.
Terwijl de wettelijke verplichtingen voor GPAI-modelaanbieders op 2 augustus 2025 beginnen, wordt een resperiode van een jaar voorzien voor naleving, waardoor het risico op boetes wordt uitgesteld tot 2 augustus 2026.
Er zijn vijf kernsets van regels waaraan GPAI -modelaanbieders op de hoogte moeten zijn van en zich houden aan vanaf 2 augustus 2025, die:
- Aangemelde lichamen (hoofdstuk III, sectie 4)
- GPAI -modellen (hoofdstuk V)
- Governance (hoofdstuk VII)
- Vertrouwelijkheid (artikel 78)
- Straffen (artikelen 99 en 100)
Aangemelde lichamen: Aanbieders van GPAI-modellen met een hoog risico zijn vereist om in contact te komen met aangemelde instanties voor conformiteitsbeoordelingen, in overeenstemming met de regelgevingsstructuur die deze evaluaties ondersteunt. AI-systemen met een hoog risico worden gedefinieerd als degenen die aanzienlijke bedreigingen vormen voor de gezondheid, veiligheid of fundamentele rechten. Deze systemen worden gebruikt als veiligheidscomponenten van producten die worden beheerst door EU -productveiligheidswetten of worden geïmplementeerd in gevoelige use cases, waaronder biometrische identificatie, kritisch infrastructuurbeheer, onderwijs, werkgelegenheid en HR en wetshandhaving.
GPAI -modellen: GPAI-modellen, die meerdere doeleinden dienen, worden beschouwd als een “systemisch risico” als ze meer dan 10^25 drijvende komma-bewerkingen per seconde (flops) tijdens de training overschrijden en als zodanig worden aangeduid door het EU AI-kantoor. Voorbeelden van modellen die aan deze criteria passen, zijn Openai’s Chatgpt, Meta’s LLAMA en Google’s Gemini.
Alle GPAI -modelaanbieders moeten technische documentatie, trainingsgegevenssamenvattingen, beleid voor het compliance van auteursrechten, richtlijnen voor downstream -implementers en transparantiemaatregelen met betrekking tot mogelijkheden, beperkingen en beoogd gebruik handhaven. Aanbieders van GPAI-modellen die systemisch risico vormen, moeten ook modelevaluaties uitvoeren, incidenten rapporteren, risicobeperkingstrategieën implementeren en waarborgen van cybersecurity worden toegestaan, het energieverbruik openbaar maken en post-market monitoring uitvoeren.
Bestuur: Deze set regels definieert de governance- en handhavingsarchitectuur op zowel het EU- als het nationale niveau. GPAI -modelaanbieders zullen moeten samenwerken met het EU AI -kantoor, de Europese AI Board, Scientific Panel en National Authorities bij het voldoen aan hun nalevingsverplichtingen, het beantwoorden van toezichtverzoeken en deelname aan risicomonitoring en incidentrapportageprocessen.
Vertrouwelijkheid: Alle gegevensverzoeken aan GPAI -modelaanbieders door autoriteiten zullen wettelijk gerechtvaardigd zijn, veilig worden behandeld en onderworpen aan vertrouwelijkheidsbescherming, met name voor intellectueel eigendom (IP), handelsgeheimen en broncode.
Straffen: Niet-naleving van verboden AI-praktijken op grond van artikel 5, zoals het manipuleren van menselijk gedrag, sociaal scoren, gegevens van gezichtsherkenning, schrapen of realtime biometrische identificatie in het openbaar, kunnen leiden tot boetes van maximaal € 35.000.000 of 7% van de totale wereldwijde jaarlijkse jaarlijkse omzet van de provider. Andere inbreuken op wettelijke verplichtingen, zoals die met betrekking tot transparantie, risicobeheer of inzetverantwoordelijkheden, kunnen leiden tot boetes van maximaal € 15.000.000 of 3% van de omzet. Het verstrekken van misleidende of onvolledige informatie aan de autoriteiten kan leiden tot boetes van maximaal € 7.500.000 of 1% van de omzet.
Voor kleine en middelgrote ondernemingen (MKB) en startups is de lagere van de vaste hoeveelheid of het percentage van toepassing. Straffen zullen rekening houden met de ernst van de inbreuk, de impact ervan, het samenwerkingsniveau van de aanbieder en of de overtreding opzettelijk of nalatig was.
Om de naleving te vergemakkelijken, heeft de Europese Commissie de AI -praktijkcode gepubliceerd, een vrijwillig kader dat technologiebedrijven kunnen aannemen om aan te passen aan de AI -wet. Google, Openai en Anthropic hebben zich gecommitteerd aan dit kader, terwijl Meta dit publiekelijk heeft geweigerd.
De Commissie is van plan om aanvullende richtlijnen te publiceren bij de AI-praktijkcode vóór 2 augustus 2025, waardoor de criteria voor bedrijven die in aanmerking komen als leveranciers van algemene modellen en AI-modellen voor algemene doeleinden met systemisch risico’s verduidelijken.
De EU AI -wet wordt in fasen geïmplementeerd:
- 2 februari 2025: Het verbod op bepaalde AI-systemen werd geacht een onaanvaardbaar risico te vormen, zoals die welke worden gebruikt voor sociaal scoren of realtime biometrische surveillance in het openbaar, werd van kracht. Bedrijven moeten er ook voor zorgen dat hun personeel een voldoende niveau van AI -geletterdheid heeft.
- 2 augustus 2026: GPAI -modellen die na 2 augustus 2025 op de markt worden geplaatst, moeten tegen deze datum voldoen. Regels voor bepaalde genoemde hoog-risico AI-systemen zijn ook van toepassing op die op de markt die na deze datum op de markt zijn geplaatst, en voor die vóór deze datum op de markt worden geplaatst die sindsdien een substantiële wijziging hebben ondergaan.
- 2 augustus 2027: Volledige naleving is vereist voor GPAI-modellen die vóór 2 augustus 2025 op de markt worden geplaatst. Systemen met een hoog risico worden gebruikt als veiligheidscomponenten van producten die zijn beheerst door EU-productveiligheidswetten, moeten ook voldoen aan strengere verplichtingen.
- 2 augustus 2030: Alle AI-systemen die worden gebruikt door organisaties in de publieke sector die onder de categorie risico vallen, moeten volledig compliant zijn.
- 31 december 2030: AI-systemen die componenten zijn van specifieke grootschalige EU IT-systemen en vóór 2 augustus 2027 op de markt werden geplaatst, moeten door deze laatste deadline in overeenstemming worden gebracht.
Een groep die Apple, Google, Meta en andere bedrijven vertegenwoordigt, hadden gevraagd om regelgevers de implementatie van de wet met ten minste twee jaar uit te stellen; Dit verzoek werd echter afgewezen door de EU.
Source: EU AI Act -regels voor GPAI -modellen worden van kracht op 2 augustus





