Pejabat UE
berencana untuk membatasi penggunaan pengenalan wajah oleh polisi dan sepenuhnya melarang jenis sistem kecerdasan buatan (AI) tertentu. Ini akan menjadi salah satu upaya paling signifikan untuk memberlakukan pembatasan pada penggunaan AI.
Larangan itu akan mencakup seluruh daftar kasus penggunaan AI yang dianggap "berisiko tinggi" oleh para pejabat. Diantaranya - pengelolaan infrastruktur penting negara-negara UE, penerimaan pelamar ke perguruan tinggi dan pemrosesan aplikasi pinjaman. Penerapan AI ke opsi pada daftar akan dipantau secara ketat. Direncanakan untuk mengembangkan standar khusus untuk penerapan dan penggunaan AI dalam kasus ini.
Uni Eropa dikenal aktif memperjuangkan hak-hak warganya, termasuk. demi privasi mereka, dan dengan segala cara yang memungkinkan membatasi kekuatan yang berlebihan dari perusahaan teknologi besar, mencoba menghindari konsekuensi yang berpotensi berbahaya dari penggunaan teknologi baru. Anda dapat mengingat "Peraturan Perlindungan Data Umum" (GDPR) - peraturan yang digunakan anggota Uni Eropa untuk memperkuat dan menyatukan perlindungan data pribadi semua warga negara, dan juga membatasi ekspor data dari UE.
Juga, beberapa tahun yang lalu, Uni Eropa membuat
rancangan undang - undang "tentang melindungi manusia dari AI", menekankan bahwa masyarakat dapat memperoleh sesuatu dari teknologi hanya jika ada kepercayaan penuh pada mereka, dan bahwa sistem AI harus "berpusat pada manusia, ditujukan sepenuhnya untuk melayani kemanusiaan dan kebaikan bersama dan untuk berkontribusi pada perbaikan kondisi keberadaan manusia dan kebebasannya. "
Menurut Margreta Vestager, wakil presiden eksekutif Komisi Eropa, peraturan yang diusulkan membahas ancaman dari kasus penggunaan AI tertentu kepada orang-orang dan komunitas secara keseluruhan. Dia mengklaim bahwa UE adalah yang pertama di planet ini yang menawarkan platform legal semacam itu.
Direncanakan untuk melarang polisi menggunakan "sistem identifikasi biometrik jarak jauh" secara real time, dengan pengecualian kasus-kasus seperti pencarian anak-anak yang diculik atau pencegahan serangan teroris, serta pencarian penjahat dari jenis tertentu.
Itu juga direncanakan untuk mewajibkan perusahaan yang menyediakan layanan yang terkait dengan interaksi orang dengan AI, dengan jelas menunjukkan kasus-kasus ketika seseorang menemukan bot - misalnya, dalam obrolan. Demikian pula, pembuat deepfakes dan media serupa lainnya harus membuat fakta ini tidak ambigu.
Menurut Julien Cornebiz, RUU semacam itu belum tentu memiliki implikasi yang sama dengan GDPR, jika hanya karena definisi AI terlalu luas. Dia menggambarkan AI sebagai target yang bergerak, dan mengatakan bahwa ponsel kita saat ini melakukan hal-hal yang 20 tahun lalu pasti dapat diklasifikasikan sebagai "AI". Oleh karena itu, ada risiko bahwa aturan baru akan membingungkan definisi atau dengan cepat menjadi usang.