Mededingingsautoriteiten in de Europese Unie, het Verenigd Koninkrijk en de Verenigde Staten hebben een gezamenlijke verklaring uitgebracht over concurrentie op het gebied van generatieve kunstmatige intelligentie (AI) foundation models (FM's) en AI-producten. De Europese Commissie, de Britse Competition and Markets Authority (CMA), het Amerikaanse Ministerie van Justitie (DOJ) en de Amerikaanse Federal Trade Commission (FTC) zeiden in de verklaring dat ze "zullen werken aan het waarborgen van effectieve concurrentie en de eerlijke en oprechte behandeling van consumenten en bedrijven" bij het gebruik van AI-producten.
De verklaring komt in een context van verschillende benaderingen om het gebruik van AI in verschillende rechtsgebieden te reguleren. Tot nu toe heeft de EU het voortouw genomen en als eerste een uitgebreid wetgevingskader ingevoerd met de EU AI Act die op 1 augustus 2024 van kracht werd. Ondertussen heeft het VK gekozen voor een niet-wettelijke aanpak die het omschrijft als "pro-innovatie", waarbij bestaande regelgevers vijf sectoroverschrijdende beginselen voor AI zullen toepassen binnen hun bestaande regelgevingskaders. Het Verenigd Koninkrijk heeft echter een opiniedocument uitgebracht met zeven principes die moeten worden gebruikt bij het ontwikkelen en inzetten van FM's. Dit document is herzien in april 2024. Dit document is in april 2024 herzien. In de VS heeft de regering Biden gebruik gemaakt van uitvoeringsbesluiten om eisen op te stellen voor een veilig gebruik van AI, terwijl regelgevende instanties werken aan hun eigen sectorspecifieke richtlijnen voor AI-producten.
Centrale AI-risico's
De gezamenlijke verklaring erkent drie centrale risico's voor de concurrentie in verband met AI-producten:
- Geconcentreerde controle over belangrijke inputs, waardoor innovatie in de kiem kan worden gesmoord of een klein aantal bedrijven in een positie kan worden gebracht om bestaande of opkomende knelpunten in de AI-ontwikkeling uit te buiten. De zorg is dat deze bedrijven een buitensporige invloed zouden hebben op de toekomstige ontwikkeling van AI-instrumenten.
- Verankering of uitbreiding van marktmacht in AI-gerelateerde markten. Deze kwestie kan aan de orde komen als grote gevestigde digitale bedrijven die al sterke geaccumuleerde voordelen genieten, nog meer winst boeken.
- Afspraken waarbij belangrijke spelers betrokken zijn, vergroten de risico's doordat bedreigingen voor de concurrentie worden ondermijnd of gecoöpteerd. Hoewel partnerschappen in verband met de ontwikkeling van generatieve AI de concurrentie niet in alle gevallen zullen schaden, kunnen ze in sommige gevallen worden gebruikt om marktresultaten in hun voordeel te sturen ten koste van het publiek.
Maatregelen om de markt te beschermen
Naast het identificeren van de centrale risico's worden in de gezamenlijke verklaring ook drie beginselen uiteengezet voor het beschermen van de concurrentie in het AI-ecosysteem. Deze bouwen voort op bestaande gemeenschappelijke beginselen in verwante markten:
- Eerlijk zakendoen, waarbij bedrijven met marktmacht uitsluitingstactieken moeten vermijden om innovatie, investeringen en concurrentie aan te moedigen.
- interoperabiliteit, die innovatie en concurrentie zal bevorderen door meer compatibiliteit tussen AI-producten mogelijk te maken. De mededingingsautoriteiten merken op dat alle beweringen dat interoperabiliteit ten koste gaat van privacy en veiligheid nauwkeurig zullen worden onderzocht.
- Keuze, waarvan bedrijven en consumenten in het AI-ecosysteem zullen profiteren. Volgens de toezichthouders betekent dit dat ze nauwkeurig moeten kijken naar manieren waarop bedrijven lock-in-mechanismen gebruiken die gebruikers verhinderen om andere opties te zoeken of te kiezen. Daarnaast zullen de autoriteiten partnerschappen tussen gevestigde bedrijven en nieuwkomers onderzoeken om ervoor te zorgen dat overeenkomsten de handhaving van fusies niet omzeilen of gevestigde bedrijven ongepaste invloed geven.
De mededingingsautoriteiten zullen ook alle specifieke risico's die kunnen voortvloeien uit andere ontwikkelingen en toepassingen van AI dan generatieve AI in de gaten houden en aanpakken. De toezichthouders zullen ook wijzen op de potentiële schade die AI kan toebrengen aan consumenten en " alert zijn op bedreigingen voor de consumentenbescherming die kunnen voortvloeien uit het gebruik en de toepassing van AI".
Vooruitblik
De ontwikkeling en het gebruik van AI is een prioriteit voor toezichthouders in alle sectoren en rechtsgebieden. Hoewel de autoriteiten die deze gezamenlijke verklaring hebben uitgegeven verschillende benaderingen hebben gekozen voor de regulering van AI, zijn ze eensgezind in hun streven om mogelijk concurrentieverstorend gedrag nauwkeurig te onderzoeken en consumenten te beschermen tegen AI-gerelateerde schade. Terwijl toezichthouders richtlijnen opstellen voor een veilig gebruik van AI, moeten bedrijven de nieuwe ontwikkelingen op de voet volgen en regelmatig controleren of hun eigen activiteiten in overeenstemming zijn met best practices en nieuwe regels.
Sedgwick brand protection , waarop 's werelds grootste merken vertrouwen, heeft in 30 jaar meer dan 7.000 van de meest tijdkritische en gevoelige product recalls in 100+ landen en 50+ talen beheerd. Bezoek hier onze website voor meer informatie over onze oplossingen voor het terugroepen en herstellen van producten.
Tags: AI, Kunstmatige Intelligentie, Merk, Brand protection, Consument, Europa, Behoud van merken, terugroepen, regelgeving, onderzoek en intelligentie, Risico, Technologische vooruitgang, Technologie, Verenigd Koninkrijk, Verenigde Staten