22. august 2024
Konkurrencemyndighederne i EU, Storbritannien og USA har udsendt en fælles erklæring om konkurrencen inden for generative foundation models (FM'er) og AI-produkter med kunstig intelligens (AI). Europa-Kommissionen, UK Competition and Markets Authority (CMA), U.S. Department of Justice (DOJ) og U.S. Federal Trade Commission (FTC) siger i erklæringen, at de "vil arbejde for at sikre effektiv konkurrence og en fair og ærlig behandling af forbrugere og virksomheder" i brugen af AI-produkter.
Udtalelsen kommer midt i forskellige tilgange til regulering af brugen af AI på tværs af jurisdiktioner. Indtil videre har EU ført an og var den første til at indføre en omfattende lovgivningsramme med EU's AI Act, som trådte i kraft den 1. august 2024. I mellemtiden har Storbritannien vedtaget en ikke-lovpligtig tilgang, som de kalder "pro-innovation", hvor eksisterende lovgivere vil anvende fem tværsektorielle principper for AI inden for deres eksisterende lovgivningsmæssige rammer. Storbritannien har dog udsendt en udtalelse med syv principper, der skal bruges, når man udvikler og implementerer FM'er. Dette papir blev revideret i april 2024. I USA har Biden-administrationen brugt bekendtgørelser til at fastsætte krav til sikker brug af AI, mens reguleringsorganer arbejder på deres egne sektorspecifikke retningslinjer for AI-produkter.
Centrale AI-risici
Den fælles erklæring anerkender tre centrale risici for konkurrencen i forbindelse med AI-produkter:
- Koncentreret kontrol med vigtige input, som potentielt kan kvæle innovation eller sætte et lille antal virksomheder i stand til at udnytte eksisterende eller nye flaskehalse i AI-udviklingen. Bekymringen er, at disse virksomheder vil få alt for stor indflydelse på den fremtidige udvikling af AI-værktøjer.
- Forankring eller udvidelse af markedsstyrke på AI-relaterede markeder. Dette problem kan opstå, hvis store etablerede digitale virksomheder, der allerede har stærke akkumulerede fordele, opnår endnu større gevinster.
- Aftaler, der involverer nøgleaktører, som forstærker risici ved at underminere eller udnytte konkurrencemæssige trusler. Selvom partnerskaber i forbindelse med udviklingen af generativ AI måske ikke skader konkurrencen i alle tilfælde, kan de i nogle tilfælde bruges til at styre markedsresultaterne til deres fordel på bekostning af offentligheden.
Foranstaltninger til beskyttelse af markedet
Ud over at identificere de centrale risici opstiller den fælles erklæring også tre principper for at beskytte konkurrencen i AI-økosystemet. Disse bygger på eksisterende fælles principper på relaterede markeder:
- Fair handel, hvor virksomheder med markedsstyrke bør undgå ekskluderende taktikker for at fremme innovation, investeringer og konkurrence.
- Interoperabilitet, som vil styrke innovation og konkurrence ved at muliggøre mere kompatibilitet på tværs af AI-produkter. Konkurrencemyndighederne bemærker, at alle påstande om, at interoperabilitet kræver ofre for privatlivets fred og sikkerhed, vil blive nøje undersøgt.
- Valgmuligheder, som vil gavne virksomheder og forbrugere i AI-økosystemet. Ifølge myndighederne betyder det, at man skal undersøge, hvordan virksomheder anvender lock-in-mekanismer, der forhindrer brugerne i at søge eller vælge andre muligheder. Derudover vil myndighederne undersøge partnerskaber mellem etablerede og nye virksomheder for at sikre, at aftalerne ikke omgår håndhævelsen af fusioner eller giver de etablerede virksomheder uberettiget indflydelse.
Konkurrencemyndighederne vil også overvåge og håndtere eventuelle specifikke risici, der kan opstå som følge af anden udvikling og anvendelse af AI ud over generativ AI. Myndighederne vil også gøre opmærksom på den potentielle skade, som AI kan påføre forbrugerne, og "være opmærksomme på eventuelle trusler mod forbrugerbeskyttelsen, der kan opstå som følge af brugen og anvendelsen af AI."
Se fremad
Udviklingen og brugen af kunstig intelligens er en prioritet for lovgivere på tværs af brancher og jurisdiktioner. Selvom de myndigheder, der har udsendt denne fælles erklæring, har vedtaget forskellige tilgange til reguleringen af AI, er de forenet i deres forpligtelse til at undersøge potentiel konkurrencebegrænsende adfærd og til at beskytte forbrugerne mod AI-relateret skade. Mens myndighederne arbejder på at skabe retningslinjer for sikker brug af AI, bør virksomheder følge udviklingen nøje og regelmæssigt revidere deres egne aktiviteter for at sikre, at de er i overensstemmelse med bedste praksis og nye regler.
Sedgwick brand protection, som verdens førende brands har tillid til, har håndteret mere end 7.000 af de mest tidskritiske og følsomme produkttilbagekaldelser i mere end 100 lande og på mere end 50 sprog i løbet af 30 år. Hvis du vil vide mere om vores løsninger til produkttilbagekaldelse og afhjælpning, kan du besøge vores hjemmeside her.