Dengan perkembangan media sosial dan platform online lainnya, orang memiliki kesempatan yang belum pernah terjadi sebelumnya untuk menyelenggarakan acara publik. Namun seringkali kemampuan untuk mempublikasikan dan menyebarkan informasi ini tidak digunakan untuk kebaikan. Di sini dan merebaknya kekerasan, terorisme, pemalsuan, pemasyarakatan obat-obatan terlarang, spam, penghinaan dan masih banyak lagi, yang menimbulkan gaung di masyarakat. Dan dalam kasus seperti itu, kemampuan platform online untuk menyebarkan informasi mulai bekerja hingga merugikan orang.
Pada saat yang sama, platform online memiliki cukup banyak kesulitan dalam mengidentifikasi informasi yang tidak ingin kami lihat, karena volume konten yang didistribusikan di Internet sangat besar, dan terus berkembang, dan tugas moderasi konten sama sekali tidak sepele. Oleh karena itu, terlepas dari keberhasilan metode otomatis, jumlah moderator yang dipekerjakan oleh platform online untuk melihat konten secara manual juga terus bertambah, seperti gelombang kritik publik terhadap proses moderasi.
Dan di atas segalanya, perselisihan tentang siapa dan sejauh mana harus bertanggung jawab atas konten tersebut semakin berkobar di masyarakat.
Pada akhir Mei 2020, Presiden Donald Trump menandatangani perintah eksekutif di platform media sosial yang meminta mereka untuk dimintai pertanggungjawaban atas konten yang diposting di situs mereka dan memerintahkan FTC dan jaksa agung untuk mulai menyelidiki perusahaan. Alasannya, postingan label peringatan pengecekan fakta di beberapa tweet presiden di Twitter, yang dianggap sebagai sensor, diterapkan secara selektif dan tidak transparan.
Tapi apa yang kita inginkan dari perusahaan Internet? Agar mereka menjadi semacam sensor global untuk semua dan semua orang di platform mereka, bahkan dengan biaya moderasi manual yang mahal? Atau apakah mereka tidak masuk ke komunikasi kita, atas nama kebebasan berbicara? Dimana garisnya? Siapa yang menetapkan aturan mainnya? Apakah kompromi mungkin dilakukan dengan moderasi bidang informasi untuk semua pihak yang terlibat: Perusahaan Internet, pengguna, otoritas pengatur? Mungkinkah mempertahankan budaya Internet adalah masalah kompleks yang tidak hanya menjadi masalah bagi perusahaan Internet, tetapi juga membutuhkan partisipasi masyarakat itu sendiri dalam proses ini dan mengharuskannya untuk memikul setidaknya sebagian dari tanggung jawab atas konten yang diterbitkannya?
Pertanyaan tersebut muncul lebih dan lebih sering ...
?
Saat ini, perusahaan mencoba menarik pengguna ke moderasi dengan menggunakan tombol "komplain", yang implementasinya memiliki beberapa pendekatan utama.
Jadi, dengan menekan tombol ini, konten yang dipilih oleh pengguna dapat dikirim untuk ditinjau ke moderator yang telah ditunjuk sebelumnya. Keuntungan dari pendekatan ini adalah kemudahan bagi pengguna akhir untuk mengindikasikan pelanggaran. Kerugian dari pendekatan ini adalah kurangnya kepercayaan dalam penilaian dari pengguna individu dan, sebagai akibatnya, kebutuhan untuk mengkonfirmasi pelanggaran oleh moderator, yang seringkali tidak punya waktu untuk merespon karena pertumbuhan volume konten yang konstan. Dan dalam hal ini, keputusan akhir, dan karenanya tanggung jawab atas penolakan informasi yang tidak pantas berada sepenuhnya di pundak perusahaan Internet.
Moderasi kolektif adalah pendekatan utama lainnya. Ada banyak variasi dari pendekatan ini, tetapi secara umum pendekatan ini dapat digambarkan sebagai berikut. Ketika tombol "komplain" diklik oleh sejumlah pengguna pada konten yang sama, perusahaan dapat mempertimbangkan bahwa ada pelanggaran dan memulai prosedur otomatis untuk menghapus konten yang tidak pantas atau menandainya dengan cara apapun, dengan demikian memperingatkan pengguna mereka. Keuntungan dari pendekatan ini adalah bahwa pengguna dapat sepenuhnya secara mandiri mempengaruhi budaya informasi. Dengan demikian memikul tanggung jawab kelompok untuk menolak informasi yang tidak pantas. Sisi negatifnya adalah bahwa teknologi tersebut masih tidak mempercayai penilaian pengguna individu dan, sebagai akibatnya, ini menyiratkan beberapapengguna pemungutan suara dalam jumlah yang memadai, yang mungkin tidak direkrut untuk mengatur pemungutan suara pada konten tertentu.
Akibatnya, partisipasi masyarakat dalam proses pengaturan budaya jaringan dalam praktiknya merupakan prosedur tidak langsung atau rumit yang sulit digunakan secara massal. Ini terlepas dari kenyataan bahwa pengguna tertarik untuk mempertahankan budaya Internet yang memadai dan, seperti yang ditunjukkan oleh praktik menggunakan tombol "keluhan", mereka siap untuk berpartisipasi di dalamnya jika terjadi pelanggaran! Namun, suara mereka dianggap sangat bersyarat, dan semua karena fakta bahwa di Internet tidak ada kepercayaan dalam penilaian yang dibuat oleh pengguna biasa. Tidak, secara default.
Tapi bisakah kita belajar untuk memercayai penilaian pengguna individu?
Tampaknya tidak mungkin untuk hanya menggunakan Internet dan mempercayai penilaian pengguna biasa. Tetapi kondisi dapat dibuat di mana penilaian ini dapat dipercaya. Dan kami sudah memiliki pengalaman yang begitu sukses. Metode ini digunakan oleh reCaptcha yang terkenal dan membosankan. Lebih tepatnya, salah satu versi pertamanya, di mana pengguna diminta untuk menulis beberapa kata untuk otorisasi di situs. Salah satu dari kata-kata ini adalah validasi dan diketahui sistem, dan yang lainnya tidak dikenal oleh sistem dan perlu dikenali. Pengguna sendiri tidak tahu kata mana yang diketahui dan mana yang tidak, dan untuk login lebih cepat, mereka harus mencoba menjawab dengan jujur, dan tidak menebak.
Akibatnya, pengguna yang menjawab dengan jujur ββdan memasukkan kata pengujian dengan benar dianggap objektif, dan reCaptcha melewatinya lebih jauh, dan juga menerima kata yang sebelumnya tidak dikenal sebagai hasil yang benar. Dan ternyata efektif. Dengan metode sederhana ini, pengguna reCaptcha dalam enam bulan pertama pekerjaan berhasil mengenali sekitar 150 juta kata tidak dikenal yang tidak dapat dikenali dengan metode otomatis.
Bagaimana jika Anda menerapkan pendekatan ini di bidang moderasi?
Mirip dengan reCaptcha, Anda dapat memberi pengguna individu kemampuan untuk melakukan tes moderasi, mis. tes untuk menilai kepatuhan sejumlah publikasi dengan aturan tertentu yang telah ditetapkan sebelumnya. Pada saat yang sama, di antara publikasi akan ada publikasi yang penilaiannya tidak kami ketahui, dan publikasi lainnya akan menjadi publikasi verifikasi dengan perkiraan yang diketahui sebelumnya. Selanjutnya, jika pengguna telah berhasil lulus tes, mis. jujur ββdalam mengevaluasi publikasi verifikasi yang diketahui sistem, kemudian kami menerima penilaiannya atas publikasi yang tidak dikenal, yaitu, kami mempercayai pendapat pengguna ini. Selain itu, untuk menerima penilaian atas publikasi yang tidak kami kenal, dengan demikian, kami tidak perlu mengadakan pemungutan suara bersama. Satu pengguna sudah cukup.
Dengan menggabungkan tes ini dengan tombol "komplain", kita dapat menciptakan lingkungan yang memungkinkan pengguna untuk memoderasi informasi itu sendiri. Untuk mengaturnya, setelah mengklik tombol "komplain", pengguna akan diminta untuk mengikuti tes. Kemudian, jika dia lulus ujian, postingan yang ingin dia laporkan dan yang menurutnya melanggar beberapa aturan yang telah ditentukan akan dikirim untuk ditinjau.
Dalam proses lulus tes, pengguna tanpa disadari akan menjadi moderator yang tidak memihak dari publikasi tertentu, yang peringkatnya belum diketahui, di antara publikasi lainnya. Dan publikasi yang dikeluhkan pengguna akan dikirim ke miliknya sendiri ke pengguna lain yang juga menggunakan tombol "keluhan", yang berfungsi dengan cara yang sama ... Dan pengguna ini, pada gilirannya, akan menjadi moderator yang tidak disengaja dan tidak memihak untuk publikasi ini.
Apa yang bisa diberikan oleh pendekatan ini?
- Pendekatan ini akan menyederhanakan proses moderasi, menjadikannya prosedur massal, di mana setiap pengguna memiliki kesempatan untuk mengidentifikasi informasi yang melanggar aturan.
- : , β , , .
- : , -, . , , .
Penggunaan pendekatan ini terlihat terutama saat memoderasi diskusi online (komentar). Jadi, dengan bantuannya, mudah untuk mengatur pengguna dari situs yang berbeda menjadi semacam komunitas moderator. Sebuah komunitas di mana pengguna yang sesuai dan secara budaya menghormati dan lebih diutamakan daripada pelanggar dan menggunakan aturan sederhana. Contoh kecil dari kemungkinan penerapan pendekatan dan aturan komunitas seperti itu diberikan di sini .
Pendekatan ini dapat digunakan di tempat lain di bidang informasi. Misalnya, untuk memberi markup konten video, untuk mengidentifikasi kekasaran, kekejaman, narkoba, dll. Ini bisa berupa markup video yang Anda lihat di YouTube atau dikirimkan kepada Anda melalui Whatsapp ke salah satu grup tempat Anda menjadi anggota. Kemudian, jika video ini mengejutkan Anda dan ingin memperingatkan orang lain, Anda dapat menggunakan pendekatan ini untuk menandainya sebagai video yang berisi beberapa jenis konten yang tidak pantas. Tentunya setelah menyelesaikan tes moderasi. Untuk menyederhanakan moderasi video, Anda dapat mengoptimalkan dan tidak mengirimkan seluruh video untuk moderasi, tetapi hanya fragmen video yang berisi konten yang tidak pantas. Alhasil, dengan penyebaran video ini lebih lanjut, maka akan didistribusikan dengan tanda yang mungkin berguna bagi pengguna lain,yang tidak ingin melihat konten semacam ini.
Pendekatan yang sama dapat diterapkan pada jenis pelanggaran lainnya. Misalnya, dalam kasus pemalsuan, pengguna dapat menambahkan label pemeriksa fakta sendiri atau menambahkan link ke informasi bantahan.
Dan sebagai kesimpulan, perlu dicatat bahwa informasi pelanggaran yang diidentifikasi oleh pengguna yang menggunakan pendekatan ini di satu tempat atau tempat lain dari bidang informasi dapat ditransfer ke input dengan metode otomatis, dengan tujuan mengotomatiskan proses lebih lanjut untuk mengidentifikasi pelanggaran tersebut. Ini akan memungkinkan pengguna, bersama dengan perusahaan Internet, untuk menyelesaikan tugas sulit dalam memoderasi informasi yang kami publikasikan dan disebarkan.
