23. november 2023
Tilsynsmyndigheder, lovgivere og teknologieksperter synes at være enige om to ting: Kunstig intelligens (AI) er en vigtig del af vores fremtid, og der er brug for retningslinjer for brugen af den. Over hele verden har der for nylig været en strøm af aktiviteter, der spænder fra bekendtgørelser og vejledende principper til frivillige adfærdskodekser og lovforslag.
Mens EU var tidligt ude med at regulere AI med sit forslag til EU AI Act, har andre styrende organer været hurtige til at følge trop med en række forskellige tilgange til regulering af en teknologi, der fortsat udvikler sig. Vi fortsætter med at følge udviklingen inden for AI-regulering, og her er nogle af de seneste opdateringer, som kan påvirke, hvordan virksomheder på tværs af brancher bruger AI i deres produkter.
G7-ledere når til enighed om vejledende principper for AI
På et møde i slutningen af oktober nåede ledere fra Group of Seven (G7) økonomier til enighed om International Guiding Principles for Organizations Develop ing Advanced AI Systems og en frivillig Codeof Conduct for Organizations Developing Advanced AI Systems. Begge dokumenter har til formål at "fremme sikker og pålidelig AI på verdensplan" og give vejledning til organisationer, der udvikler AI, mens lovgiverne arbejder på at udvikle regler.
Den frivillige adfærdskodeks beskriver 11 handlinger, som AI-udviklere opfordres til at følge. Disse omfatter passende foranstaltninger til at identificere, evaluere og afbøde risici i hele AI-livscyklussen samt offentlig rapportering af avancerede AI-systemers evner, begrænsninger og områder med passende brug for at bidrage til øget ansvarlighed.
Ved offentliggørelsen af aftalen understregede G7-lederne, at de vejledende principper og adfærdskodeksen ville være levende dokumenter, der "vil blive gennemgået og opdateret efter behov" for at sikre, at de forbliver "lydhøre over for denne hurtigt udviklende teknologi". Selv om de tiltag, G7 har skitseret, ikke er obligatoriske, bør virksomheder med interesse i AI forsøge at overholde dem, da de efterfølgende regler sandsynligvis vil bygge på disse modeller.
Amerikansk bekendtgørelse skitserer omfattende standarder for AI-sikkerhed
I slutningen af oktober udstedte præsident Joe Biden også en bekendtgørelse om sikker og pålidelig kunstig intelligens, som indfører nye krav til AI-sikkerhed og skitserer nye sikkerhedsstandarder, der skal udvikles. Mens de fleste hilste bekendtgørelsen velkommen som et nødvendigt første skridt, udtrykte nogle interessenter i teknologibranchen bekymring over bekendtgørelsens brede karakter og dens potentiale til at kvæle innovation.
Nogle af de vigtigste foranstaltninger i ordren omfatter et krav om, at udviklere af AI-systemer "deler deres sikkerhedstestresultater og andre kritiske oplysninger med den amerikanske regering" for at sikre, at disse systemer er sikre og pålidelige, før virksomhederne offentliggør dem. Ordren pålægger også flere føderale agenturer at udvikle standarder, værktøjer og tests for at "hjælpe med at sikre, at AI-systemer er trygge, sikre og pålidelige." Tidslinjen for implementering af tiltagene i bekendtgørelsen er relativt kort, idet de fleste deadlines indtræffer mellem 90 og 270 dage efter bekendtgørelsen blev udstedt.
Se fremad
De to udviklinger inden for AI-styring, der er beskrevet ovenfor, føjer sig til en voksende liste over bestræbelser på at styre risiciene ved AI og samtidig fremme innovation på området. For virksomheder, der udvikler AI-systemer eller bruger dem i deres produkter, kan det være svært at holde styr på de frivillige retningslinjer og obligatoriske regler, som de enten bør eller skal overholde. Efterhånden som lovgiverne fortsætter med at væve et internationalt, brancheoverskridende net af regler for AI, bliver det afgørende for virksomhedernes succes at have et solidt team af ekspertpartnere inden for compliance, brandbeskyttelse og retssager ved deres side.