Politisk enighed om AI-forordning
Fredag den 9. december 2023 indgik forhandlere fra EU’s medlemslande, EU-kommissionen og EU-parlamentet en aftale om regulering af kunstig intelligens (AI).
Aftalens ordlyd er endnu ikke offentliggjort, hvorfor dens indhold alene kendes fra de udtalelser og det pressemateriale, som forhandlerne har afgivet og udsendt. Aftalen skal godkendes af medlemsstaterne og Europa-Parlamentet, hvilket forhandlerne betragter som en formalitet.
Reguleringen vil ske gennem en forordning, AI-forordningen. Forordninger er umiddelbart gældende i hele EU og skal derfor ikke implementeres ved nationale retsakter i de 27 medlemslande.
Ikrafttræden
Forordningen sættes gradvist i kraft. Således forventes forordningens forbud at træde i kraft seks måneder fra den endelige vedtagelse. Reglerne om kunstig intelligens til generelle formål finder anvendelse efter 12 måneder. Efter 24 måneder vil alle reglerne være sat i kraft.
AI-pagt
Indtil reglerne træder i kraft, vil Kommissionen lancere en AI-pagt, der skal samle AI-udviklere fra hele verden, som på frivillig basis forpligter sig til at gennemføre pligter fra forordningen forud for forordningens frister.
Kunstig intelligens
Forordningen vil indeholde en definition af kunstig intelligens. Ifølge EU-kommissionen vil der være tale om en fremtidssikret definition. Europa-Parlamentet har den 14. juni 2023 i sit ændringsforslag til EU-kommissionens forslag indarbejdet følgende definition på kunstig intelligens:
”et maskinbaseret system, der er designet til at fungere med en varierende grad af autonomi, og som med eksplicitte eller implicitte mål kan generere output såsom forudsigelser, anbefalinger eller beslutninger, der påvirker de fysiske eller virtuelle miljøer”.
Risikobaseret tilgang
AI-forordningen vil følge en risikobaseret tilgang, hvor der sondres mellem AI-systemer med minimal risiko og AI-systemer med høj risiko.
Som eksempler på AI-systemer med minimal risiko nævnes AI-baserede anbefalingssystemer og spamfiltre. AI-systemer med minimal risiko vil ikke blive underlagt forpligtelser. Virksomhederne kan på frivillig basis forpligte sig til adfærdskodekser for disse.
AI-systemer med høj risiko skal opfylde krav, som EU-kommissionen betegner som strenge. Kravene omfatter bl.a. risikoafbødningssystemer, aktivitetsregistrering, detaljeret dokumentation, klar brugerinformation, menneskelig kontrol og et højt niveau af robusthed, nøjagtighed og cybersikkerhed. Forordningen vil give mulighed for reguleringsmæssige sandkasser, hvilket skal fremme ansvarlig innovation og udvikling af AI-systemer.
AI-systemer med høj risiko omfatter kritiske infrastrukturer, fx vand, gas og elektricitet, medicinsk udstyr, systemer til bestemmelse af adgang til uddannelsesinstitutioner eller rekruttering. Systemer der anvendes inden for retshåndhævelse, grænsekontrol, retspleje og demokratiske processer samt biometrisk identifikation og følelsesgenkendelse.
AI-systemer der udgør en uacceptabel risiko forbydes. Som eksempel herpå nævnes systemer der manipulerer menneskets adfærd eller gør det muligt for regeringer at indføre sociale pointsystemer.
Transparens
Forordningen vil gøre anvendelsen af kunstig intelligens transparent. Brugerne skal fx være klar over, at de interagerer med chatbots. Brugerne skal også informeres, når der anvendes systemer til biometrisk kategorisering eller følelsesgenkendelse. AI-genereret indhold skal mærkes.
Systemudbyderne forpligtes til at udvikle deres systemer, således at syntetisk indhold såsom lyd, video, tekst og billeder mærkes i et maskinlæsbart format og kan identificeres som værende kunstigt generet eller manipuleret.
AI til generelle formål
Forordningen indfører særlige regler for AI-modeller til generelle formål, som fx den model ChatGPT bygger på.
Reglerne skal bl.a. sikre gennemsigtighed i hele værdikæden. Modeller, der kan udgøre systemiske risici, vil være forpligtet til risikostyring og overvågning af alvorlige hændelser mv. Pligterne skal operationaliseres ved hjælp af adfærdskodekser, som Kommissionen fastlægger i dialog med industrien og andre interessenter.
Bøder
Overtrædelse af AI-forordningen sanktioneres med bøder. Reglerne om udmåling af bødernes størrelse minder om bødereglerne fra persondataforordningen, idet virksomhedernes omsætning indgår som målestok.
Alt afhængig af overtrædelsens karakter udmåles bøderne som udgangspunkt til et sted mellem 7,5 mio. EUR og 35 mio. EUR eller mellem 1,5 % og 7 % af virksomhedens omsætning alt afhængig af, hvad der er størst.
Forordningen vil indeholde et lavere bødeloft for små og mellemstore virksomheder samt nystartede virksomheder.
Kilder: EU-Kommissionens pressemeddelelse af 9. december 2023 og Datatilsynets vejledning ”Offentlige myndigheders brug af kunstig intelligens – Inden I går i gang” fra oktober 2023.
Kommissionen glæder sig over politisk enighed om AI-forordningen (europa.eu)
Offentlige myndigheders brug af kunstig intelligens - Inden I går i gang.pdf (datatilsynet.dk)