UE AI-loven. Hvordan regulerer Europa brugen af kunstig intelligens | AI i erhvervslivet #68

Hvad er AI-loven, og hvorfor er den vigtig for SMV’er (små og mellemstore virksomheder)?

AI-loven er den første regulering af sin art i verden. Den første, der omfattende adresserer kunstig intelligens fra en menneskecentreret tilgang til AI. Den sigter mod at sikre, at AI-systemer, der anvendes i Europa, er sikre og stimulerer innovation, samtidig med at de respekterer grundlæggende rettigheder, med særlig fokus på:

  • sundhedspleje – for eksempel at respektere privatlivets fred for patientdata,
  • uddannelse – overholde de værdier, der fremmes af Den Europæiske Union, og undgå diskrimination,
  • grænsebeskyttelse – sikre sikkerhed uden at krænke borgernes rettigheder,
  • offentlige tjenester – følge bedste praksis inden for databeskyttelse, retten til information og klar kommunikation.

For SMV’er vil AI-loven primært bringe større retssikkerhed, da den klart definerer rammerne for innovation: principperne for design, udvikling og anvendelse af AI-systemer. Det vil gøre det lettere for virksomheder at investere i AI-baserede løsninger og reducere juridiske risici. Derudover vil reguleringer, der gælder på tværs af hele Unionen, forhindre markedsfragmentering.

Europæiske reguleringer om kunstig intelligens blev vedtaget af Europa-Parlamentet og Europarådet den 9. december 2023. Nu skal de formelt accepteres af begge institutioner for at træde i kraft.

Nøgleaspekter af AI-loven for erhvervslivet

EU’s AI-lov introducerer et sæt krav til AI-systemer, afhængigt af risikoniveauet. Disse krav inkluderer blandt andet:

  • forpligtelsen til gennemsigtighed og at informere brugere i tilfælde af interaktioner med chatbots, biometriske systemer eller teknologier til følelsesgenkendelse,
  • forbud mod at bruge følsomme attributter til biometrisk kategorisering,
  • obligatorisk overholdelsesvurdering før markedsindtræden for højrisikosystemer,
  • obligatorisk registrering i EU-databasen – efter AI-loven træder i kraft, vil AI-systemer, der anvendes i nøglesektorer som uddannelse, beskæftigelse, sundhedspleje og retshåndhævelse, skulle registreres.

Producenter og virksomheder, der bruger AI-systemer, vil også være forpligtet til at overvåge risici efter introduktionen på markedet. Dette vil direkte påvirke virksomheder, der designer og implementerer AI-systemer.

Risikoniveauer for AI-systemer ifølge EU’s AI-lov

AI-loven klassificerer AI-systemer i fire kategorier baseret på deres risikoniveau:

  1. Uacceptabel risiko
  2. Høj risiko
  3. Begrænset risiko
  4. Minimal risiko

Lad os se nærmere på, hvordan hver gruppe vil blive defineret, sammen med eksempler på systemer og deres klassifikationer.

Uacceptabel risiko

Den Europæiske Union pålægger et fuldstændigt forbud mod brugen af teknologier, der er opført i AI-loven som systemer med uacceptabel risiko. Dette er primært systemer designet til at udnytte individers modtagelighed for forslag til manipulation eller bedrag, systemer, der giver kunstig intelligens mulighed for at træffe beslutninger i afgørende anliggender, og dem, der kan føre til magtmisbrug. Eksempler på AI med uacceptabel risiko inkluderer:

  • autonome våben, der opererer uden menneskelig overvågning,
  • troværdighedsvurderingssystemer, der anvendes af retshåndhævende myndigheder,
  • automatiske identifikationssystemer af personer i offentlige rum, såsom dem baseret på overvågningskameraoptagelser,
  • kunstige intelligenssystemer, der kan være skadelige for personer med fysiske eller mentale handicap,
  • AI anvendt til retshåndhævelsesformål, med begrænsede undtagelser,
  • kunstige intelligenssystemer, der anvender skadelige “subliminale” og manipulerende teknikker.

For virksomheder er den sidste kategori særligt vigtig. Derfor vil gennemsigtighed i driften af systemer, der giver forslag til brugere og kunder, være afgørende for overholdelse af den nye lovgivning fra Den Europæiske Union.

Høj risiko

Kunstig intelligens klassificeret som en højrisiko AI-løsning skal opfylde strenge krav, før den kan komme på markedet. Dette involverer overholdelsesvurderinger og strenge tests, før den godkendes til brug. Denne risikokategori inkluderer otte områder, såsom:

  • autonome køretøjer,
  • medicinske diagnostiske systemer,
  • prædiktive algoritmer, der understøtter retssystemet,
  • migration og asylforvaltning, grænsekontrol, samt
  • beskæftigelse og arbejdsstyring.
Begrænset risiko

For systemer med begrænset risiko, der oftest anvendes i erhvervslivet, har lovgiverne heldigvis givet meget mindre opmærksomhed. Denne kategori inkluderer:

  • AI chatbots – anvendt til kundeservice eller til at besvare ofte stillede spørgsmål i form af en fri samtale,
  • følelsesgenkendelsessystemer – anvendt, for eksempel, til at indsamle data om kunders meninger om en virksomhed,
  • biometriske kategoriseringssystemer – såsom vurdering af køn eller alder på kunder i en fysisk butik,
  • billede-, lyd- eller videoproduktion – på trods af truslen fra deep fakes, vil dette område være underlagt et begrænset sæt forpligtelser.
Lav eller minimal risiko

AI-løsninger med lav risiko er ikke underlagt juridiske reguleringer. AI-loven vil kun nævne, at skabere og brugere af sådanne løsninger bør etablere brugsretningslinjer frivilligt. Dette vedrører løsninger som:

  • indholdsrekommandationssystemer i streamingtjenester, eller
  • chatbots på hjemmesider, der svarer på typiske kundespørgsmål.

Hvilke krav stiller AI-loven til løsninger, der anvendes af min virksomhed?

For at tjekke, om den kunstige intelligens, der anvendes af en virksomhed, overholder AI-loven, bør du:

  • klassificere den i en af de fire risikokategorier, der er beskrevet ovenfor,
  • hvis det er AI med høj risiko, udføre en overholdelsesvurdering,
  • anvende gode praksisser vedrørende AI med lav risiko.

Lad os se på eksempler på ofte anvendte AI-løsninger af virksomheder. Hvilke krav skal de opfylde?

En kundeservice chatbot, der giver grundlæggende information om produkter eller besvarer typiske kundespørgsmål, vil sandsynligvis blive klassificeret som et system med minimal risiko. Den skal:

  • informere brugerne om, at de interagerer med AI,
  • give mulighed for at blive omdirigeret til en menneskelig konsulent,
  • overholde generelle krav vedrørende gennemsigtighed, ikke-diskrimination osv.

Et produktanbefalingssystem i e-handel vil sandsynligvis blive betragtet som et system med lav risiko. Det vil være nødvendigt at informere kunderne om, at de modtager personlige anbefalinger og give mulighed for at deaktivere dem.

På den anden side vil et system til automatisk medicinsk diagnostik blive klassificeret som et højrisikosystem. Det skal gennemgå en grundig vurdering, før det kan komme på markedet, og være under menneskelig overvågning. Derudover vil det være nødvendigt at overvåge dets drift og rapportere hændelser.

Det urbane kriminalitetsforebyggelsessystem vil også blive betragtet som højrisiko. Det skal overholde reguleringer om beskyttelse af privatlivets fred og andre grundlæggende rettigheder. Dets drift skal være under konstant menneskelig overvågning.

Det er uklart, hvilken kategori AI-baserede beslutningssystemer vil falde ind under. Det er sandsynligt, at et AI-baseret rekrutteringssystem, der træffer ansættelsesbeslutninger på egen hånd, vil blive betragtet som en AI-løsning med uacceptabel risiko. På den anden side ville et rekrutteringsstøttesystem, der hjælper folk med at udføre deres arbejde, blive betragtet som en højrisikoløsning.

For brugernes velfærd, såvel som mulige ændringer i klassifikationer, er det meget vigtigt at nærme sig konstruktionen og brugen af AI-systemer på en etisk og ansvarlig måde fra starten.

Hvad vil konsekvenserne være af ikke at overholde AI-loven?

At undlade at følge AI-loven kan føre til betydelige bøder for virksomheder, der spænder fra €35 millioner eller 7% af den globale omsætning for store virksomheder til €7,5 millioner eller 1,5% for SMV’er. Ulovlige AI-systemer kan blive taget af markedet, og deres brug kan blive begrænset.

Hvordan forbereder man sig på, at AI-loven træder i kraft?

Så hvordan forbereder man en virksomhed, der bruger kunstig intelligens, til AI-loven, der træder i kraft i 2025? Her er nogle tips til, hvordan SMV’er og startups kan forberede sig til dette øjeblik:

  • holde sig ajour med fremskridtene i arbejdet og tidsplanen for implementeringen af reguleringerne,
  • vurdere AI-systemer, der allerede er i brug, og tilpasse dem til de nye krav,
  • lægge særlig vægt på etiske aspekter i designet af AI.

Sammenfatning

Indførelsen af AI-loven er en stor ændring for AI-økosystemet i Europa. Men med klare og konsekvente regler lover den at sikre en sikker og etisk udvikling af denne teknologi, som især bør komme SMV’er og startups til gode.

AI-loven, der træder i kraft i 2025, vil medføre betydelige ændringer i, hvordan små og mellemstore virksomheder (SMV’er) kan udnytte kunstig intelligens. For SMV’er betyder dette primært nødvendigheden af omhyggelig overvejelse og analyse af de AI-løsninger, de bruger, både med hensyn til overholdelse af reguleringer og potentiel indvirkning på kunder og samfund.

For små virksomhedsejere og ledere er det vigtigt at forstå, hvordan deres AI-systemer klassificeres i forhold til risiko, og hvilke handlinger der er nødvendige for at tilpasse dem til de kommende reguleringer. Tag for eksempel AI-systemer, der anvendes i kundehåndtering eller marketing, som tidligere blev brugt ret frit. Nu vil de kræve en grundig analyse for overholdelse af AI-loven. Dette kan skabe nye muligheder for virksomheder, der specialiserer sig i teknologisk juridisk rådgivning, og give SMV’er støtte til at tilpasse sig disse nye krav.

Hvis du kan lide vores indhold, så bliv en del af vores travle bier-fællesskab på Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

JavaScript-ekspert og instruktør, der coacher IT-afdelinger. Hans hovedmål er at hæve teamproduktiviteten ved at lære andre, hvordan man effektivt samarbejder, mens man koder.

View all posts →

Robert Whitney

JavaScript-ekspert og instruktør, der coacher IT-afdelinger. Hans hovedmål er at hæve teamproduktiviteten ved at lære andre, hvordan man effektivt samarbejder, mens man koder.

Share
Published by
Robert Whitney

Recent Posts

AI’s rolle i indholdsmoderation | AI i erhvervslivet #129

Virksomheder kæmper med at håndtere en stor mængde indhold, der offentliggøres online, fra sociale medieindlæg…

2 days ago

Sentimentanalyse med AI. Hvordan hjælper det med at drive forandring i erhvervslivet? | AI i erhvervslivet #128

I en tid med digital transformation har virksomheder adgang til en hidtil uset mængde data…

2 days ago

AI videoproduktion. Nye horisonter inden for videoinholdproduktion for virksomheder | AI i erhvervslivet #126

Forestil dig en verden, hvor dit firma kan skabe engagerende, personlige videoer til enhver lejlighed…

2 days ago

LLMOps, eller hvordan man effektivt håndterer sprogmodeller i en organisation | AI i erhvervslivet #125

For fuldt ud at udnytte potentialet i store sprogmodeller (LLMs) skal virksomheder implementere en effektiv…

3 days ago

Automatisering eller augmentation? To tilgange til AI i en virksomhed | AI i erhvervslivet #124

I 2018 havde Unilever allerede påbegyndt en bevidst rejse for at balancere automatiserings- og augmenteringsevner.…

3 days ago