Riset AS: Sistem Facial Recognition Cenderung Rasialis

Ilustrasi | Foto: freepik.com

Cyberthreat.id – Sistem pengenalan wajah (facial recognition/FR) masih ditemukan banyak kelemahan. Dalam riset terbaru yang dikeluarkan oleh pemerintah Amerika Serikat menunjukkan, sistem FR salah mengartikan orang berkulit berwarna daripada orang kulit putih.

Dengan adanya temuan kelemahan tersebut kian cenderung meningkatkan skeptisisme teknologi FR yang mulai masif digunakan oleh lembaga penegak hukum saat ini. Terlebih, sistem FR mulai diaplikasikan di ruang publik, seperti bandara dan pusat perbelanjaan.

Riset yang dilakukan oleh Institut Nasional Standar dan Teknologi (National Institute of Standards and Technology/NIST)--badan di bawah Kementerian Perdagangan AS--menunjukkan, ketika sistem melakukan pencarian basis data tertentu yang dikenal sebagai pencocokan "satu-ke-satu", algoritma pengenalan wajah yang mengidentifikasi wajah Afrika-Amerika dan Asia selalu salah 10 hingga 100 kali  ketimbang ketika mencocokkan dari wajah orang Kaukasia.


Berita Terkait:


Riset juga menemukan, perempuan Afrika-Amerika lebih cenderung salah diidentifikasi dalam pencocokan. Peneliti juga mengemukakan, bahwa pencocokan wajah juga mengalami kesulitan dalam hal demografi.

Joy Buolamwini, pendiri Algorithmic Justice League, menyebut laporan itu sebagai "bantahan komprehensif" dari kalangan yang mengklaim, bahwa bias kecerdasan buatan (AI) bukan suatu masalah.

Riset tersebut muncul di saat ketidakpuasan publik terhadap teknologi FR di Amerika Serikat karena bisa menyebabkan pelecehan atau penangkapan yang tidak adil.

NIST menguji 189 algoritma dari 99 pengembang, tidak termasuk perusahaan, seperti Amazon.com Inc. Yang diuji berbeda dari apa yang dijual perusahaan. Algoritma yang dipelajari NIST terlepas dari cloud dan data pelatihan yang dipatenkan.

Microsoft

SenseTime China, perusahaan rintisan (startup) di bidang AI yang memiliki valuasi ekonomi lebih dari US$ 7,5 miliar, ternyata masuk kategori yang memiliki kesalahan yang tinggi.

“Memiliki tingkat kecocokan salah yang tinggi untuk semua perbandingan dalam salah satu tes NIST,” demikian tulis laporan itu seperti dikutip dari Reuters, Jumat (20 Desember 2019).

Algoritma SenseTime menghasilkan false positive lebih dari 10 persen dari waktu ketika melihat foto-foto laki-laki Somalia. Jika sistem SenseTime ditempatkan di bandara, berarti seorang laki-laki Somalia dapat melewati pemeriksaan pabean satu dari 10 kali percobaan menggunakan paspor laki-laki Somalia lainnya.


Berita Terkait:


Sementara, Yitu, startup AI China lain, lebih akurat dibanding SenseTime, tapi memiliki sedikit kecenderungan rasialis.

Perangkat Microsoft Corp yang diteliti memiliki kesalahan hampir 10 kali lebih banyak untuk perempuan berkulit berwarna daripada laki-laki kulit berwarna dalam beberapa kasus selama pengujian. Microsoft mengatakan sedang meninjau laporan itu.

Anggota Kongres Bennie Thompson, juga Ketua Komite Parlemen AS untuk Keamanan Dalam Negeri, mengatakan temuan bias dari sistem FR tersebut ternyata lebih buruk daripada yang dikhawatirkan. "Pemerintah harus menilai kembali rencananya untuk teknologi pengenalan wajah mengingat hasil yang mengejutkan ini," kata dia.