Facebook dan Instagram Tolak Hapus Konten Berbahaya? Anda Kini Bisa Adukan ke Dewan Pengawas

Ilustrasi via Yahoo

Cyberthreat.id - Dewan Pengawas Facebook hari ini mengumumkan akan mulai menerima kasus dari pengguna Facebook dan Instagram yang meyakini bahwa perusahaan secara keliru mengizinkan konten berbahaya tetap berada di platformnya. Berbeda dengan sebelumnya di mana orang-orang hanya bisa mengajukan banding atas kasusnya sendiri, keputusan baru ini berlaku untuk konten bikinan orang lain yang dianggap berbahaya.

Kemampuan baru ini, yang telah lama dicari oleh para pendukung moderasi konten independen, kata Dewan Pengawas, merupakan langkah penting menuju penyampaian model moderasi konten yang lebih berprinsip dan transparan. Keputusan yang dibuat melalui penilaian independen Dewan bersifat mengikat untuk diterapkan oleh Facebook.

“Ini memungkinkan pengguna untuk menarik konten yang ingin mereka lihat dihapus dari Facebook merupakan perluasan signifikan dari kemampuan Dewan Pengawas,” kata Thomas Hughes, Direktur Administrasi Dewan Pengawas Facebook dalam siaran pers yang diterima Cyberthreat.id, Selasa (13 April 2021).

“Dewan Pengawas dibentuk untuk memastikan bahwa lebih sedikit keputusan tentang masalah konten yang sangat signifikan yang diambil oleh Facebook saja, dan keputusan yang lebih baik dapat disampaikan melalui proses yang independen dan transparan yang berfungsi untuk melindungi hak asasi manusia dan kebebasan berekspresi. Pengumuman hari ini adalah langkah lain untuk mewujudkan hal ini," tambah Hughes.

Sejak Oktober 2020, pengguna dapat mengajukan banding ke Dewan Pengawas tentang penghapusan konten mereka sendiri. Keputusan terbaru Dewan Pengawas dikeluarkan untuk Facebook hari ini, pada kasus dari Belanda, di mana perusahaan menghapus video yang menunjukkan seorang anak kecil bertemu orang dewasa dengan wajah mereka dicat hitam, berpakaian untuk menggambarkan "Zwarte Piet" - juga disebut sebagai " Pete Hitam."

Dewan Pengawas mendukung keputusan Facebook setelah menemukan cukup bukti kerugian untuk membenarkan penghapusan tersebut. Mereka berpendapat bahwa konten tersebut termasuk karikatur yang terkait dengan stereotip rasis dan dianggap oleh sebagian masyarakat Belanda menopang rasisme sistemik di Belanda.

Sejak Dewan Pengawas mulai beroperasi, Facebook telah bekerja untuk merancang, membangun dan menguji fungsionalitas teknis untuk memungkinkan orang mengajukan banding untuk menghapus konten yang diposting oleh pihak ketiga, sambil memastikan privasi mereka dilindungi.

Mulai hari ini dengan peluncuran yang meluas selama beberapa minggu mendatang, setelah seseorang menyelesaikan proses banding Facebook, mereka akan menerima ID Referensi Dewan Pengawas dan secara resmi dapat mengajukan banding untuk peninjauan independen.

Konten yang memenuhi syarat untuk ditinjau meliputi postingan, pembaruan status, foto, video, komentar, dan pembagian. Karena konten akan ditayangkan langsung di Facebook dan Instagram, banyak orang mungkin melaporkan konten yang sama.

Dalam kasus ini, beberapa banding pengguna akan dikumpulkan ke dalam satu file kasus untuk Dewan, memberikan konteks yang lebih besar dari dampak konten. Terkait banding atas konten yang ingin dikembalikan pengguna ke Facebook, pengguna dapat mengajukan banding ke Dewan Pengawas setelah mereka menyelesaikan proses banding dengan perusahaan.

Seperti  diketahui, Dewan Pengawas Facebook ini beranggotakan para ahli termasuk pakar hukum dan hak asasi manusia dari 27 negara, termasuk Indonesia. Facebook mengumumkan pembentukan Dewan Pengawas ini pada Mei 2020. Meskipun digaji oleh Facebook, mereka bekerja secara independen dan keputusannya bersifat mengikat. Dewan Pengawas ini dipimpin oleh Helle Thorning Schmidt, mantan Perdana Menteri Denmark.[]