Alat AI mengenali gambar pelecehan anak dengan akurasi 99%

Terjemahan artikel disiapkan pada malam dimulainya kursus "Visi komputer" .














Pengembang alat baru berbasis kecerdasan buatan mengklaim bahwa alat ini mendeteksi gambar pelecehan anak dengan akurasi hampir 99 persen.



Safer adalah alat yang dikembangkan oleh Thorn, sebuah organisasi nirlaba, untuk membantu bisnis yang tidak memiliki sistem pemfilteran sendiri untuk mendeteksi dan menghapus gambar ini.



Menurut Internet Watch Foundation di Inggris, laporan pelecehan anak selama karantina COVID-19 telah meningkat hingga 50 persen. Dalam 11 minggu mulai 23 Maret, hotline mereka menerima 44.809 laporan pemulihan gambar, naik dari 29.698 tahun lalu. Banyak dari gambar-gambar ini berasal dari anak-anak yang menghabiskan banyak waktu di Internet dan harus mempublikasikan gambar mereka.



Andy Burroughs, kepala keamanan anak di Internet di NSPCC, baru-baru ini mengatakan kepada BBC: "Kerusakannya dapat dikurangi jika media sosial berinvestasi lebih cerdas dalam teknologi, berinvestasi dalam fitur desain yang lebih aman dalam suatu krisis."



Lebih aman adalah salah satu alat yang membantu Anda menandai konten pelecehan anak dengan cepat untuk mengurangi kerugian yang ditimbulkan.



Layanan penemuan yang lebih aman meliputi:



  • Pencocokan Hash Gambar: Layanan unggulan yang menghasilkan hash kriptografi dan persepsi untuk gambar dan membandingkan hash ini dengan hash CSAM yang diketahui. Pada saat publikasi, database mencakup 5,9 juta hash. Hashing terjadi di infrastruktur klien untuk menjaga privasi pengguna.
  • CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
  • (Video Hash Matching): , , CSAM. 650 . CSAM.
  • SaferList : Safer, Safer , Safer, . , - .


Namun, masalahnya tidak terbatas pada penandaan konten. Telah didokumentasikan bahwa moderator platform media sosial sering kali memerlukan terapi atau bahkan membantu mencegah bunuh diri setelah terpapar konten paling mengganggu yang diposting di Internet dari hari ke hari.



Thorn mengklaim Safer dirancang dengan mempertimbangkan kesejahteraan moderator. Untuk tujuan ini, konten secara otomatis diburamkan (perusahaan mengatakan saat ini hanya berfungsi untuk gambar).



Safer memiliki API yang tersedia untuk pengembang yang "dirancang untuk memperluas pengetahuan umum tentang konten pelecehan anak dengan menambahkan hash, memindai dengan hash dari industri lain, dan mengirimkan masukan positif palsu".



Flickr adalah salah satu klien Thorn paling terkenal saat ini. Menggunakan Safer, Flickr menemukan gambar pelecehan anak di platformnya, yang, setelah penyelidikan penegakan hukum, mengakibatkan penyitaan 21 anak berusia antara 18 bulan dan 14 tahun serta penangkapan para penjahat.



Safer saat ini tersedia untuk perusahaan mana pun yang beroperasi di AS. Thorn berencana untuk memperluas operasinya ke negara lain tahun depan, setelah beradaptasi dengan persyaratan pelaporan nasional masing-masing negara.



Anda dapat membaca lebih lanjut tentang alat ini dan cara memulai di sini .



All Articles