5. december 2024
Tre højtstående embedsmænd fra U.S. Food and Drug Administration (FDA) har udgivet en artikel i TheJournal of the American Medical Association (JAMA), der deler agenturets perspektiver på regulering af kunstig intelligens (AI) i sundhedsvæsenet og biomedicinen. Artiklen er skrevet af FDA-kommissær Robert Califf, Senior Clinical Advisor for Chronic Disease Haider Warraich og direktør for Digital Health Center of Excellence inden for Center for Devices and Radiological Health Troy Tazbaz.
Artiklen skitserer 10 koncepter, der skal overvejes, "når reguleringssystemet tilpasser sig" den hurtigt udviklende AI-teknologi. Ifølge forfatterne vil FDA fortsat "spille en central rolle i at sikre sikre, effektive og troværdige AI-værktøjer", men interessenter i branchen skal også interessere sig for at identificere og håndtere uansvarlige aktører. Desuden skal interessenter deltage i udviklingen og optimeringen af de værktøjer, der er nødvendige for at "vurdere den løbende sikkerhed og effektivitet af AI".
De bedste koncepter til regulering af AI
FDA godkendte det første delvist AI-aktiverede medicinske udstyr i 1995. Siden da har agenturet godkendt ca. 1.000 medicinske apparater, der anvender AI-teknologi. Med det hurtige tempo i den teknologiske udvikling og den voksende brug af AI i medicinsk udstyr og lægemiddeludvikling skitserede FDA's embedsmænd 10 koncepter, der skal guide reguleringen af AI:
- AI-regulering inden for den bredere amerikanske regering og globale kontekst - Regler for AI skal tilpasses det bredere amerikanske lovgivningssystem og samtidig sikre kompatibilitet med globale standarder.
- At holde trit med forandringshastigheden inden for AI - Udviklingen, implementeringen og brugen af AI-aktiverede produkter vil kræve en "adaptiv, videnskabeligt baseret reguleringsordning for at forhindre skade og samtidig støtte innovation, der optimerer deres fordele."
- Fleksible tilgange på tværs af spektret af AI-modeller - AI-regler skal være fleksible og risikobaserede og vil kræve "omhyggelig overvejelse og tilpasning" afhængigt af den planlagte brug af AI-systemer.
- Den centrale betydning af AI-livscyklusstyring - AI's ydeevne skal overvåges i det miljø, hvor den bruges. Dette vil kræve flere tilgange og værktøjer til yderligere at forfine AI-evaluering, fordi "et uovervåget AI-system, der implementeres i praksis, kan gøre betydelig skade."
- De regulerede industriers ansvar - Udviklingen af AI illustrerer et stort kvalitets- og reguleringsdilemma, da omfanget af den indsats, der er nødvendig for at gennemføre tilbagevendende evalueringer for at vurdere sikkerheden og effektiviteten af mange AI-modeller, kan overskride enhver nuværende FDA-reguleringsordning.
Embedsmændene tilbød også koncepter om brugen af AI i udviklingen af medicinske produkter; forberedelse på det ukendte ved store sprogmodeller (LLM'er) og generativ AI; opretholdelse af robuste forsyningskæder; at finde balancen mellem Big Tech, start-ups og den akademiske verden; og spændingen mellem at bruge AI til at optimere det økonomiske afkast og forbedre sundhedsresultaterne.
Se fremad
JAMA-artiklen har ingen juridiske eller lovgivningsmæssige konsekvenser, men den kan give værdifuld indsigt for virksomheder inden for medicinsk udstyr og lægemidler, så de bedre kan forstå FDA's sandsynlige tilgang til regulering af AI. Virksomheder i hele sundhedsøkosystemet bør gennemgå publikationen og være særligt opmærksomme på FDA's vægt på industriens rolle i at støtte den ansvarlige udvikling af AI-systemer. Mens reguleringen af kunstig intelligens fortsætter med at udvikle sig, er denne publikation en nyttig ressource til at forstå den retning, den kan tage.
Sedgwick brand protection, som verdens førende brands har tillid til, har håndteret mere end 7.000 af de mest tidskritiske og følsomme produkttilbagekaldelser i mere end 100 lande og på mere end 50 sprog i løbet af 30 år. Hvis du vil vide mere om vores løsninger til produkttilbagekaldelse og afhjælpning, kan du besøge vores hjemmeside her.