Dapatkah AI Menghindari Simpulan Bias?
Cyberthreat.id – Secanggih apa pun kecerdasan buatan (artificial intelligence/AI), bisakah teknologi ini dikembangkan dan dipakai secara adil dan tanpa bias?
Apakah AI juga netral, tanpa emosi, dan hanya mampu membuat keputusan rasional? Pertanyaan-pertanyaan tersebut cukup mengganjal karena AI juga menjadi masalah di dunia nyata.
Google baru-baru ini menghapus deskripsi gender pada perangkat AI-nya untuk menghindari bias. Google melakukan perubahan tersebut agar AI tidak menyimpulkan gender seseorang berdasarkan penampilan.
Bahkan, seperti dilansir E&T, 18 Februari 2020, perempuan mengeluhkan karena sulit diterima di Amazon. Ini bukan karena diskriminasi dari Departemen Sumber Daya Manusia, tapi karena bias yang melekat dalam algoritma seleksi yang digerakkan oleh AI.
Dalam kasus Amazon, algoritma mendiskriminasi perempuan hanya karena melihat pola historis rekrutmen, di mana lebih banyak laki-laki daripada perempuan yang telah dipekerjakan. Hasilnya, AI menyimpulkan lelaki lebih cocok untuk pekerjaan itu.
AI membuat simpulan bias karena sebagian besar aplikasi AI saat ini menggunakan pembelajaran mendalam (deep learning) untuk menemukan pola data. Meski model pembelajaran dalam diuji sebelum digunakan, AI tidak diuji untuk efek hilir, seperti bias yang tidak disengaja.
Berita Terkait:
- Hapus Deskripsi Gender pada Foto, Google: AI Bisa Salah!
- Ancaman AI Sangat Mengkhawatirkan Jika Dikendalikan Hacker
- Ancaman dari Clearview AI, Pengenal Wajah Paling Menakutkan
- Kala Teknologi AI China Turun Tangan Deteksi Virus Corona
Tantangan pengembang
Igor Carron, CEO dan co-founder LightOn, perusahaan teknologi komputasi AI, mengatakan, di kalangan pengembang memang sedang mencoba mencari cara bagaimana menggabungkan data dan algoritma yang baik agar bisa mendapatkan hasil terbaik. “Di sisi algoritma ini topik yang sangat menarik bagi para peneliti di seluruh dunia,” ujar dia.
Namun, untuk menemukan kumpulan data yang tidak bias bukanlah tantangan yang mudah. Bahkan, data yang diambil dari sistem peradilan, yang mungkin diharapkan banyak orang adalah yang paling “adil”, juga terbukti bermasalah.
Contoh kontroversial, tulis Forbes, ketika Departemen Kehakiman Amerika Serikat menggunakan machine learning untuk memprediksi tingkat residivisme di antara tahanan. Residivisme adalah kecenderungan individu atau kelompok untuk mengulangi perbuatan tercela walaupun ia sudah pernah dihukum karena melakukan perbuatan itu.
Alat itu dikenal dengan nama “COMPAS” yang mengambil data dari sejumlah tahanan pembebasan bersyarat. Selanjutnya, data itu dimasukkan ke dalam algoritma dan memintanya untuk membuat prediksi.
Apa hasilnya? Memang konsisten dengan data pelatihan, “Tetapi, alat itu bias terhadap masyarakat berpenghasilan rendah dan minoritas, mungkin, karena penggunaan data historis,” tulis Forbes, Rabu (20 Februari 2020).
Berita Terkait:
- Sistem Pengenal Wajah di Bandara AS Dikritik
- China Atur Penggunaan Face Recognition, Ini Alasannya
- CISSReC: Facial Recognition Terlalu Berlebihan
- Riset AS: Sistem Facial Recognition Cenderung Rasialis
- Sistem Facial Recognition Masih Lemah, Ini Bukti Risetnya
Oleh karena itu, kebutuhan untuk mendukung AI tidak hanya algoritma yang tepat dan sesuai tujuan, tetapi juga data yang tepat untuk memberikan AI peluang terbaik untuk menjadi efektif.
“Masalahnya ... jika AI tidak bisa mengenali bias, dan kemampuan menghadapinya, setiap data baru memperkuat bias itu. Dan, efeknya bertambah besar," tulis E&T.
Satu hal yang perlu dipahami lagi, bahwa AI dibuat dan dilatih oleh dataset yang dikuratori oleh manusia. Jadi, bias itu bisa saja terjadi. Dan, menghapus bias pada AI ini menjadi tantangan bagi para pengembang AI.[]
Redaktur: Andi Nugroho