Dewan Pengawas Putuskan Facebook Bersalah Hapus Gambar Payudara dan Konten terkait Muslim Uighur

Anggota Dewan Pengawas Facebook yang diumumkan pada Mei 2020 lalu

Cyberthreat.id - Kelompok independen yang bertugas mengevaluasi bagaimana Facebook menangani konten di platformnya yang disebut Dewan Pengawas Facebook, untuk pertama kalinya memutuskan Facebook bersalah dalam penghapusan sejumlah konten.

Dalam keputusan yang diumumkan pada Kamis (28 Janauri 2021), dari lima konten yang ditinjau, hanya satu kasus yang disetujui Dewan Pengawas untuk dihapus. Facebook diharuskan untuk mengembalikan 4 unggahan lainnya.

Satu-satunya kasus yang disetujui untuk dihapus oleh Facebook terkait serangan terhadap orang Azerbaijan yang dibuat dalam bahasa Rusia.

Seperti  diketahui, Dewan Pengawas Facebook ini beranggotakan para ahli termasuk pakar hukum dan hak asasi manusia dari 27 negara, termasuk Indonesia. Facebook mengumumkan pembentukan Dewan Pengawas ini pada Mei 2020. Meskipun digaji oleh Facebook, mereka bekerja secara independen dan keputusannya bersifat mengikat. Dewan Pengawas ini dipimpin oleh Helle Thorning Schmidt, mantan perdana menteri Denmark.

Berikut adalah keputusan Dewan Pengawas terhadap kasus-kasus itu, dikutip dari laman resmi Dewan Pengawas Facebook.  

1. Kasus postingan di Grup Facebook orang Burma mempertanyakan penindasan terhadap orang Uighur oleh China.

Dalam kasus ini, Dewan Pengawas memutuskan postingan berbahasa Burma (Myanmar) yang mengunggah foto anak meninggal dan mempertanyakan mengapa tidak ada pembalasan terhadap China atas perlakuannya terhadap Muslim Uighur,  tidaklah melanggar Standar Komunitas Ujaran Kebencian Facebook. Karena itu, Dewan Pengawas meminta postingan itu dimunculkan kembali.

"Dewan menganggap bahwa meskipun bagian pertama dari postingan, yang diambil sendiri, mungkin tampak membuat generalisasi yang menghina tentang Muslim (atau pria Muslim), postingan tersebut harus dibaca secara keseluruhan, dengan mempertimbangkan konteksnya" kata Dewan Pengawas.

Dilihat dari konteksnya, Dewan Pengawas, percaya bahwa teks di gambar itu lebih dipahami sebagai komentar atas ketidakkonsistenan yang tampak antara reaksi Muslim terhadap peristiwa di Prancis dan di China.

"Ekspresi pendapat tersebut dilindungi oleh Standar Komunitas Facebook dan tidak mencapai tingkat perkataan yang mendorong kebencian" tambah Dewan Pengawas.

Menurut Dewan, meskipun postingan itu dapat dianggap merendahkan atau menyinggung Muslim, penggunggah tidak menganjurkan kebencian atau dengan sengaja menghasut sehingga bisa menimbulkan hal-hal berbahaya. Karena itu, Dewan menganggap postingan itu tidak perlu dihapus.

Dewan juga menekankan bahwa sensitivitas Facebook terhadap ujaran kebencian anti-Muslim dapat dimaklumi, terutama mengingat sejarah kekerasan dan diskriminasi terhadap Muslim di Myanmar dan peningkatan risiko menjelang pemilihan umum negara itu pada November 2020. Namun, khusus postingan ini, Dewan menyimpulkan Facebook tak seharusnya menghapus konten itu.

"Dewan Pengawas membatalkan keputusan Facebook untuk menghapus konten dan mengharuskan kiriman tersebut dipulihkan" tegas Dewan Pengawas.
 

2. Kasus Foto Payudara di Instagram dalam Konteks Kanker Payudara

Pada kasus unggahan foto payudara dalam konteks informasi kanker payudara, Dewan Pengawas juga membatalkan keputusan Facebook menghapus postingan itu di Instagram. Facebook sendiri telah memunculkan kembali postingan itu.

Disebutkan, postingan itu awalnya dihapus oleh sistem otomatis Facebook karea dianggap melanggar Standr Komunitas tentang Ketelanjangan dan Aktivitas Seksual Dewasa.

"Dewan menemukan bahwa postingan tersebut diizinkan berdasarkan pengecualian kebijakan untuk "kesadaran kanker payudara" dan moderasi otomatis Facebook dalam kasus ini menimbulkan masalah hak asasi manusia yang penting," kata Dewan Pengawas.

Menurut Dewan Pengawas, keputusan awal Facebook menghapus unggahan itu karena dilakukan secara otomatis oleh sistem. Karena itu, Dewan Pengawas menilai kasus ini menunjukkan bahwa penegakan aturan yang hanya mengandalkan otomatisasi tanpa pengawasan manusia yang memadai juga mengganggu kebebasan berekspresi. Sebab, standar Facebook sendiri mengizinkan ketelanjangan dalam konteks pendidikan medis.

Terkait kasus ini, Dewan Pengawas merekomendasikan kepada Facebook untuk memberitahu pengguna jika kontennya dimoderasi secara otomatis. Dengan begitu, saat pengguna mengajukan klaim keberatan, dapat diteliti kembali oleh manusia.

"Facebook juga harus meningkatkan pelaporan transparansi tentang penggunaan penegakan otomatisnya," kata tambah Dewan Pengawas.

3. Penghinaan untuk Orang Azerbaijan.

Pada November 2020, seorang pengguna memposting konten foto-foto bersejarah yang menggambarkan gereja-gereja di Baku, Azerbaijan. Foto itu dilengkapi dengan teks dalam bahasa Rusia yang mengklaim bahwa bahwa orang-orang Armenia membangun Baku dan warisan ini, termasuk gereja-gereja, telah dihancurkan.

Pengguna menggunakan istilah "tazik" untuk menggambarkan orang Azerbaijan, yang diklaim pengguna sebagai pengembara dan tidak memiliki riwayat dibandingkan dengan orang Armenia.

Pengguna memasukkan tagar di postingannya yang menyerukan diakhirinya agresi dan vandalisme Azerbaijan. Tagar lain menyerukan pengakuan Artsakh, nama Armenia untuk wilayah Nagorno-Karabakh, yang menjadi pusat konflik antara Armenia dan Azerbaijan. Posting itu diunggah di tengah konflik bersenjata baru-baru ini antara kedua negara.

Facebook menghapus postingan itu karena melanggar Standar Komunitas tentang Ujaran Kebencian, mengklaim postingan tersebut menggunakan penghinaan untuk mendeskripsikan sekelompok orang berdasarkan karakteristik yang dilindungi (asal negara).

Menurut Dewan Pengawas, analisis bahasa independen yang dilakukan atas nama Dewan membenarkan pemahaman Facebook tentang penggunaan istilah "tazik" sebagai penghinaan yang menyerang asal usul kebangsaan yang tidak manusiawi.

Menurut Dewan Pengawas, penggunaan istilah "tazik" untuk menggambarkan orang Azerbaijan, dalam bahasa Rusia memang dapat diterjemahkan sebagai "mangkuk cuci." Namun, itu bisa juga dipahami sebagai permainan kata pada istilah Rusia "aziks", istilah yang merendahkan orang Azerbaijan yang ditampilkan di daftar internal istilah penghinaan Facebook.

"Konteks di mana istilah itu digunakan memperjelas bahwa istilah itu dimaksudkan untuk merendahkan targetnya. Karena itu, Dewan yakin postingan itu melanggar Standar Komunitas Facebook," kata Dewan Pengawas.

Dewan juga menemukan bahwa keputusan Facebook untuk menghapus konten tersebut sesuai dengan nilai-nilai perusahaan. Meskipun Facebook menganggap "Suara" sebagai nilai terpenting, nilai perusahaan juga mencakup "Keamanan" dan "Martabat".

Dewan Pengawas menambahkan, dari September hingga November 2020, perebutan wilayah yang disengketakan di Nagorno-Karabakh mengakibatkan kematian beberapa ribu orang. Sementara konten yang dipermasalahkan diposting tak lama sebelum gencatan senjata.

Mengingat sifat penghinaan yang tidak manusiawi dan penghinaan semacam itu dapat meningkat menjadi kekerasan fisik, kata Dewan Pengawas,  Facebook diizinkan untuk memprioritaskan "Keamanan" dan "Martabat" orang daripada "Suara" pengguna.

"Mayoritas Dewan menemukan bahwa penghapusan postingan ini konsisten dengan standar hak asasi manusia internasional tentang pembatasan kebebasan berekspresi. Dewan yakin, menggunakan istilah "tazik" untuk menggambarkan orang Azerbaijan akan digolongkan sebagai label yang tidak manusiawi untuk grup milik kebangsaan tertentu, dan bahwa Facebook memiliki tujuan yang sah untuk menghapus kiriman itu."


4. Kasus kutipan yang dituduhkan oleh kepala propaganda Nazi Jerman Joseph Goebbels

Pada Oktober 2020, seorang pengguna memposting kutipan yang salah dan dikaitkan dengan Joseph Goebbels, Menteri Propaganda Reich di Nazi Jerman. Kutipan dalam bahasa Inggris itu menyatakan bahwa "daripada menarik bagi para intelektual, argumen harus menarik emosi dan naluri."

Dikatakan bahwa kebenaran tidak penting dan tunduk pada taktik dan psikologi. Tidak ada gambar Joseph Goebbels atau simbol Nazi di postingan tersebut.

Dalam pernyataannya kepada Dewan Pengawas, pengguna tersebut mengatakan bahwa niat mereka adalah untuk menarik perbandingan antara sentimen dalam kutipan itu dengan mantan presiden AS Donald Trump.

Pengguna pertama kali memposting konten itu dua tahun sebelumnya. Tepat di tahun kedua, fungsi "memori" Facebook menampilkan kembali postingan itu di berandanya, dan menawarkan kemungkinan untuk dibagikan ulang sebagai pengingat.

Setelah dibagikan, eh, Facebook malah menghapus postingan itu karena dianggap melanggar Standar Komunitas tentang Individu dan Organisasi Berbahaya.

Kepada Dewan Pengawas,  Facebook mengonfirmasi bahwa Joseph Goebbels ada dalam daftar individu berbahaya yang dibuat perusahaan. Facebook mengklaim bahwa posting yang membagikan kutipan yang dikaitkan dengan individu berbahaya diperlakukan sebagai dukungan yang diungkapkan untuk mereka, kecuali pengguna memberikan konteks tambahan untuk menjelaskan maksudnya. Facebook menghapus postingan itu karena pengguna tidak menjelaskan bahwa mereka membagikan kutipan untuk mengutuk Joseph Goebbels, untuk melawan ekstremisme atau perkataan yang mendorong kebencian, atau untuk tujuan akademis atau berita.

Dalam tinjauannya, Dewan Pengawas menyimpulkan kutipan itu tidak mendukung ideologi partai Nazi atau tindakan kebencian dan kekerasan rezim tersebut. Komentar pada postingan dari teman pengguna mendukung klaim pengguna bahwa mereka berusaha untuk membandingkan presiden Donald Trump dengan rezim Nazi.

"Di bawah standar hak asasi manusia internasional, setiap aturan yang membatasi kebebasan berekspresi harus jelas, tepat, dan dapat diakses publik, sehingga individu dapat berperilaku sesuai dengan itu. Dewan tidak percaya bahwa aturan Facebook tentang Individu dan Organisasi Berbahaya memenuhi persyaratan ini," tulis Dewan Pengawas.

Dewan mencatat adanya kesenjangan antara aturan yang dipublikasikan melalui Standar Komunitas Facebook dan aturan tambahan non-publik yang digunakan oleh moderator konten perusahaan. Dalam aturan yang tersedia untuk umum, Facebook tidak cukup jelas memberitahu pengguna bahwa ketika memposting kutipan yang dikaitkan dengan individu berbahaya, pengguna harus menjelaskan bahwa mereka tidak memuji atau mendukungnya.

"Meskipun Facebook mengonfirmasi kepada Dewan bahwa Joseph Goebbels ditetapkan sebagai individu berbahaya, perusahaan tidak memberikan daftar publik dari individu dan organisasi berbahaya, atau contohnya. Dewan juga mencatat bahwa, dalam kasus ini, pengguna tampaknya tidak diberi tahu Standar Komunitas mana yang dilanggar konten mereka," kata Dewan Pengawas.

Karena itu, Dewan Pengawas membatalkan keputusan Facebook yang menghapus konten itu dan mengharuskan untuk dipulihkan.

Dewan Pengawas juga merekomendasikan Facebook untuk memberikan daftar publik dari organisasi dan individu yang ditetapkan sebagai 'berbahaya' di bawah Standar Komunitas Individu dan Organisasi Berbahaya atau, setidaknya, daftar contoh.

5. Video tentang penolakan Prancis untuk mengizinkan hydroxychloroquine dan azithromycin sebagai obat untuk Covid-19.

Pada Oktober 2020, seorang pengguna memposting video dan memberi teks dalam bahasa Prancis di grup Facebook publik terkait dengan COVID-19. Postingan itu menuduh adanya skandal di Agence Nationale de Sécurité du Médicament (lembaga Prancis yang bertanggung jawab mengatur produk kesehatan), yang menolak mengizinkan hydroxychloroquine yang dikombinasikan dengan azitromisin untuk digunakan melawan COVID-19, tetapi mengizinkan dan mempromosikan remdesivir.

Pengunggah konten itu mengkritik kurangnya strategi kesehatan di Prancis dan menyatakan bahwa "Obat [Didier] Raoult" digunakan di tempat lain untuk menyelamatkan nyawa. Postingan itu juga mempertanyakan kerugian masyarakat dengan mengizinkan dokter meresepkan "obat yang tidak berbahaya" dalam keadaan darurat ketika gejala pertama COVID-19 muncul.

Dalam rujukannya ke Dewan, Facebook mengutip kasus ini sebagai contoh tantangan dalam menangani risiko bahaya offline yang dapat dipicu oleh informasi yang salah tentang pandemi COVID-19.

Menurut Facebook, postingan itu dihapus karena mengandung klaim bahwa ada obat untuk COVID-19. Klaim itu, menurut Facebook, dapat membuat orang mengabaikan panduan kesehatan atau mencoba mengobati sendiri tanpa perlu ke dokter. Karena itu, Facebook menghapusnya lantaran melanggar aturan tentang informasi yang salah dan aturan bahaya yang mungkin terjadi (bagian dari Standar Komunitas Kekerasan dan Penghasutan).

Dewan Pengawas tak sepakat dengan Facebook. Menurut Dewan, penggunggah menentang kebijakan pemerintah dan bertujuan untuk mengubah kebijakan itu. Kombinasi obat-obatan yang diklaim sebagai penyembuhan, tidak tersedia tanpa resep di Prancis dan isinya tidak mendorong orang untuk membeli atau menggunakan obat tanpa resep.

"Mempertimbangkan ini dan faktor kontekstual lainnya, Dewan mencatat bahwa Facebook tidak menunjukkan bahwa postingan tersebut akan meningkat ke tingkat bahaya, seperti yang disyaratkan oleh aturannya sendiri dalam Standar Komunitas," kata Dewan Pengawas.

Dewan juga menilai keputusan Facebook tidak sesuai dengan standar hak asasi manusia internasional tentang pembatasan kebebasan berekspresi. Mengingat Facebook memiliki berbagai alat untuk menangani kesalahan informasi, seperti memberikan konteks tambahan kepada pengguna.

"Berbagai kebijakan yang ditemukan di berbagai bagian situs Facebook menyulitkan pengguna untuk memahami konten apa yang dilarang. Perubahan pada kebijakan COVID-19 Facebook yang diumumkan di Ruang Berita perusahaan tidak selalu tercermin dalam Standar Komunitasnya, sementara beberapa dari perubahan ini bahkan tampak bertentangan," tambah Dewan Pengawas.

Karena itu,"Dewan Pengawas membatalkan keputusan Facebook untuk menghapus konten dan mengharuskan kiriman tersebut dipulihkan."

Merespon keputusan Dewan Pengawas itu, Facebook mengonfirmasi bahwa mereka telah memulihkan empat konten, tetapi memperingatkan bahwa mereka akan terus mengambil tindakan tegas terhadap postingan yang mempromosikan kebohongan seputar COVID-19.

“Pendekatan kami saat ini dalam menghapus informasi yang salah didasarkan pada konsultasi ekstensif dengan para ilmuwan terkemuka, termasuk dari CDC dan WHO,” kata Monika Bickert, wakil presiden kebijakan konten Facebook, seperti dilansir Politico.

Selain lima kasus itu, Dewan Pengawas juga sedang meninjau keputusan Facebook untuk mengunci akun mantan Presiden AS Donald Trump setelah kerusuhan Capitol Hill awal bulan ini. Keputusan tentang kasus itu akan diumumkan pada April mendatang.[]