Penulis

Oleh Mark Buckingham, Konsultan Penarikan Produk Internasional

Otoritas persaingan di Uni Eropa, Inggris, dan Amerika Serikat telah mengeluarkanpernyataan bersamamengenai persaingan dalam model dasar kecerdasan buatan (AI) generatif (FM) dan produk AI. Komisi Eropa, Otoritas Persaingan dan Pasar Inggris (CMA), Departemen Kehakiman Amerika Serikat (DOJ), dan Komisi Perdagangan Federal Amerika Serikat (FTC) menyatakan dalam pernyataan tersebut bahwa mereka “akan bekerja untuk memastikan persaingan yang efektif dan perlakuan yang adil dan jujur terhadap konsumen dan bisnis” dalam penggunaan produk AI.

Pernyataan ini muncul di tengah pendekatan yang beragam dalam mengatur penggunaan kecerdasan buatan (AI) di berbagai yurisdiksi. Hingga saat ini, Uni Eropa (UE) telah memimpin upaya ini dan menjadi yang pertama memperkenalkan kerangka hukum komprehensif melaluiUndang-Undang AI UE, yang mulai berlaku pada 1 Agustus 2024. Sementara itu, Inggris telah mengadopsi pendekatan non-statutory yang dijuluki "pro-inovasi," di mana regulator yang ada akan menerapkan lima prinsip lintas sektor untuk AI dalam kerangka regulasi yang sudah ada. Namun, Inggris telah menerbitkan dokumen panduan yang menetapkan tujuh prinsip yang harus digunakan saat mengembangkan dan menerapkan FMs. Dokumen ini direvisi pada April 2024. Di AS, Administrasi Biden telah menggunakan perintah eksekutif untuk menetapkan persyaratan penggunaan AI yang aman, sementara lembaga regulasi bekerja pada pedoman sektoral mereka sendiri untuk produk AI.

Risiko AI Pusat

Pernyataan bersamamengakui tiga risiko utama terhadap persaingan yang terkait dengan produk kecerdasan buatan (AI):

  1. Pengendalian yang terpusat terhadap masukan kunci dapat berpotensi menghambat inovasi atau memberikan posisi dominan bagi sejumlah kecil perusahaan untuk memanfaatkan kelemahan atau hambatan yang ada atau sedang berkembang dalam pengembangan kecerdasan buatan (AI). Kekhawatiran utama adalah bahwa perusahaan-perusahaan tersebut akan memiliki pengaruh yang berlebihan terhadap pengembangan alat-alat AI di masa depan.
  2. Memperkuat atau memperluas dominasi pasar di pasar yang terkait dengan kecerdasan buatan (AI). Masalah ini dapat muncul jika perusahaan digital besar yang sudah memiliki keunggulan kompetitif yang kuat terus memperluas dominasi mereka.
  3. Pengaturan yang melibatkan pemain kunci dapat memperbesar risikodengan melemahkan atau mengkooptasi ancaman persaingan. Meskipun kemitraan yang berkaitan dengan pengembangan kecerdasan buatan generatif (generative AI) tidak selalu merugikan persaingan, dalam beberapa kasus, kemitraan tersebut dapat digunakan untuk mengarahkan hasil pasar demi keuntungan mereka sendiri dengan mengorbankan kepentingan publik.

Langkah-langkah untuk melindungi pasar

Selain mengidentifikasi risiko utama, pernyataan bersama tersebut juga menetapkan tiga prinsip untuk melindungi persaingan dalam ekosistem kecerdasan buatan (AI). Prinsip-prinsip ini didasarkan pada prinsip-prinsip umum yang sudah ada di pasar terkait:

  1. Praktik yang adil, di mana perusahaan yang memiliki kekuatan pasar harus menghindari taktik yang bersifat eksklusif guna mendorong inovasi, investasi, dan persaingan.
  2. Interoperabilitas, yang akan meningkatkan inovasi dan persaingan dengan memungkinkan kompatibilitas yang lebih luas di antara produk-produk kecerdasan buatan (AI). Otoritas persaingan mencatat bahwa klaim apa pun yang menyatakan bahwa interoperabilitas memerlukan pengorbanan terhadap privasi dan keamanan akan ditinjau secara ketat.
  3. Pilihan ini akan menguntungkan bisnis dan konsumen dalam ekosistem kecerdasan buatan (AI). Menurut regulator, hal ini berarti memeriksa cara-cara yang digunakan perusahaan untuk menerapkan mekanisme penguncian yang mencegah pengguna mencari atau memilih opsi lain. Selain itu, otoritas akan meninjau kemitraan antara pemain lama dan pendatang baru untuk memastikan perjanjian tidak mengelak dari penegakan merger atau memberikan pengaruh yang tidak wajar kepada pemain lama.

Otoritas persaingan usaha juga akan memantau dan menangani risiko-risiko spesifik yang mungkin timbul dari perkembangan dan penerapan kecerdasan buatan (AI) di luar kecerdasan buatan generatif. Regulator juga akan menyoroti potensi bahaya yang dapat ditimbulkan oleh AI terhadap konsumen dan "tetapwaspadaterhadap ancaman perlindungan konsumen yang mungkin timbul dari penggunaan dan penerapan AI."

Melihat ke depan

Pengembangan dan penggunaan kecerdasan buatan (AI) menjadi prioritas bagi regulator di berbagai industri dan yurisdiksi. Meskipun otoritas yang mengeluarkan pernyataan bersama ini telah mengadopsi pendekatan yang berbeda dalam regulasi AI, mereka bersatu dalam komitmen untuk mengawasi perilaku anti-persaingan yang berpotensi dan melindungi konsumen dari dampak negatif yang terkait dengan AI. Saat regulator bekerja untuk menciptakan pedoman penggunaan AI yang aman, perusahaan harus memantau perkembangan terbaru secara ketat dan secara rutin melakukan audit terhadap operasional mereka untuk memastikan kesesuaian dengan praktik terbaik dan aturan baru. 

Dipercaya oleh merek-merek terkemuka di dunia, perlindungan merek Sedgwick telah menangani lebih dari 7.000 penarikan produk yang paling penting dan sensitif di lebih dari 100 negara dan 50 bahasa, selama lebih dari 30 tahun. Untuk mengetahui lebih lanjut tentang penarikan produk dan solusi remediasi kami, kunjungi situs web kami di sini.