Opdatering af EU's AI-lov - kommende love og regler

Udgivet af Europa-Parlamentet

Som en del af sin digitale strategi vil EU regulere kunstig intelligens (AI) for at skabe bedre betingelser for udvikling og brug af denne innovative teknologi. AI kan give mange fordele, f.eks. bedre sundhedspleje, sikrere og renere transport, mere effektiv produktion og billigere og mere bæredygtig energiforsyning.

I første omgang foreslog Kommissionen i april 2021 den første EU-retlige ramme for AI. Den anbefaler, at AI-systemer, som kan bruges i forskellige applikationer, analyseres og klassificeres ud fra den risiko, de udgør for brugerne. De forskellige risikoniveauer er underlagt mere eller mindre regulering.

Lær mere om, hvad kunstig intelligens er, og hvordan det bruges. Hvad Parlamentet forventer af AI-lovgivning

Europa-Parlamentet ønsker først og fremmest at sikre, at AI-systemer, der anvendes i EU, er sikre, gennemsigtige, sporbare, ikke-diskriminerende og miljøvenlige. AI-systemer skal overvåges af mennesker og ikke af automatisering for at forhindre skadelige resultater.

Parlamentet ønsker også at etablere en teknologineutral, ensartet definition af AI, som kan anvendes på fremtidige AI-systemer.

Læs mere om Parlamentets arbejde med AI og dets vision for AI's fremtid. Lov om kunstig intelligens: en risikobaseret tilgang

De nye regler fastlægger forpligtelser for udbydere og brugere, der er baseret på den risiko, som AI-systemet udgør. Selvom mange AI-systemer udgør en minimal risiko, skal de vurderes. Uacceptabel risiko


AI-skabelse af en fransk bulldog

AI-systemer udgør en uacceptabel risiko, når de anses for at være en trussel mod mennesker. Disse AI-systemer vil blive forbudt. De omfatter:

  • Kognitiv adfærdsmæssig manipulation af enkeltpersoner eller specifikke sårbare grupper, f.eks. stemmeaktiveret legetøj, der fremmer farlig adfærd hos børn;

  • Social scoring: Klassificering af mennesker baseret på adfærd, socioøkonomisk status og personlige egenskaber;

  • Biometrisk identifikation og kategorisering af fysiske personer;

  • Biometriske identifikationssystemer på afstand i realtid, f.eks. ansigtsgenkendelse.

Nogle undtagelser kan tillades til retshåndhævelsesformål. Systemer til biometrisk fjernidentifikation i realtid vil være tilladt i et begrænset antal alvorlige sager. Systemer til efterfølgende biometrisk fjernidentifikation, hvor identifikationen sker med betydelig forsinkelse, kan tillades i forbindelse med forfølgelse af alvorlige forbrydelser og kun efter rettens godkendelse. AI-systemer med høj risiko



AI-systemer, der udgør en høj risiko for fysiske personers sundhed og sikkerhed eller grundlæggende rettigheder, betragtes som højrisiko og inddeles i to hovedkategorier.

  • AI-systemer, der bruges i produkter, er underlagt EU's produktsikkerhedsbestemmelser. Disse omfatter legetøj, luftfart, køretøjer, medicinsk udstyr og elevatorer.

  • AI-systemer, der falder inden for specifikke områder og skal registreres i en EU-database:

  • Forvaltning og drift af kritisk infrastruktur; almen og erhvervsrettet uddannelse; beskæftigelse, arbejdsstyrkeforvaltning og adgang til selvstændig virksomhed; adgang til og brug af vigtige private og offentlige tjenester og ydelser; retshåndhævelse; forvaltning af migration, asyl og grænsekontrol; hjælp til at fortolke og anvende love.

Alle AI-systemer med høj risiko vil blive vurderet, før de markedsføres, og i hele deres livscyklus. Borgerne vil have ret til at indgive klager over AI-systemer til de kompetente nationale myndigheder. Krav om gennemsigtighed

en AI-fortolkning af Lissabons havn (Portugal)

Generative Foundation-modeller som ChatGPT er ikke klassificeret som højrisiko, men skal opfylde krav om gennemsigtighed og overholde EU's ophavsretslovgivning:

  • Oplysning om, at indholdet er genereret af AI;

  • Design af modellen for at forhindre, at den genererer ulovligt indhold;

  • Offentliggørelse af resuméer af ophavsretligt beskyttede data, der er brugt til træning.

AI-systemer med generel anvendelse og betydelige konsekvenser, der kan udgøre en systemisk risiko, såsom den avancerede AI-model GPT-4, skal vurderes grundigt, og alle alvorlige hændelser skal indberettes til Kommissionen.

Indhold, der er skabt eller ændret af AI - billeder, lyd- eller videofiler (f.eks. deepfakes) - skal tydeligt markeres som AI-genereret, så brugerne ved, hvornår de støder på sådant indhold. Fremme af innovation

Loven har til formål at give SMV'er og nystartede virksomheder mulighed for at udvikle og træne AI-modeller, før de frigives til den brede offentlighed.

Derfor skal de nationale myndigheder give virksomhederne et testmiljø, der simulerer forholdene i den virkelige verden. De næste skridt

Den aftalte tekst vil blive formelt vedtaget på en af de næste plenarforsamlinger i Parlamentet. Den vil være fuldt ud gældende 24 måneder efter ikrafttrædelsen, men nogle dele vil gælde tidligere:

  • Forbuddet mod AI-systemer, der udgør uacceptable risici, vil gælde seks måneder efter ikrafttrædelsen;

  • Adfærdskodekserne vil gælde ni måneder efter, at de er trådt i kraft;

  • Regler for AI-systemer til generelle formål, der skal opfylde krav om gennemsigtighed, vil gælde tolv måneder efter ikrafttrædelsen.

Højrisikosystemer vil få mere tid til at opfylde kravene; forpligtelserne for dem vil gælde 36 måneder efter ikrafttrædelsen.

 


 
 

Yderligere arbejde

Tidligere
Tidligere

Genoplivning af en klassiker: Squarespace-rejsen for Tilbage til fremtidens officielle hjemmeside af Braunsberger Media

Næste
Næste

Hvordan visualiserer man it- og softwaretjenester?