Mengapa Software Berbasis AI untuk Profiling Pelamar Kerja Ancam Privasi?
Cyberthreat.id - Sebuah perangkat lunak terbaru yang didukung dengan kecerdasan buatan (artificial intelligence/AI) untuk menganalisa kebiasaan dan prilaku seseorang memunculkan kekhawatiran soal privasi.
Bernama Cryfe, perangkat lunak itu ditujukan bagi perusahaan untuk membuat profiling calon karyawan atau pelamar. Secara sederhana, profiling semacam pemetaan karakteristik personal atau pola tingkah laku seseorang. Dari sana, akan ditarik kesimpulan apakah seseorang itu layak untuk dipekerjakan atau tidak.
Dikutip dari Lifewire, Cryfe dikembangkan oleh sebuah perusahaan Swiss yang karyawannya dilatih oleh Biro Investigasi Federal (FBI) dalam teknik pembuatan profil. Pengembang Cryfe menggabungkan teknik analisis perilaku dengan AI. Cryfe diklaim mampu menganalisis semua komunikasi interpersonal.
Algoritma Cryfe yang dibangun tidak hanya mampu mendengarkan kata-kata, tetapi juga dapat mengidentifikasi sinyal lain yang dipancarkan oleh manusia seperti emosi, ekspresi mikro, dan semua gerak tubuh. Dengan kemampuannya, perangkat ini diklaim dapat menganalisis perilaku atau semacam membuat profil orang yang dianalisisnya.
“Selama perekrutan, misalnya, ini memungkinkan kami untuk mengetahui kepribadian sebenarnya dari lawan bicara kami,” kata Caroline Matteucci, pendiri Cryfe, kepada Lifewire, dikutip Kamis (21 Januari 2021).
Namun, perusahaan yang mengandalkan Cryfe dikritik oleh pengamat AI karena dapat mengganggu privasi lantaran kode algoritmanya dibuat oleh manusia juga yang dinilai tidak jelas dalam memberikan rekomendasi.
“Staf dukungan pelanggan yang Anda hubungi melalui telepon [saja], tidak dapat memberitahu Anda mengapa mereka membuat rekomendasi tertentu, “ kata pakar AI, Vaclav Vincale.
Terkait isu privasi, Cryfe, kata Caroline, mengklaim pihaknya melindungi privasi penggunanya karena perusahaan transparan tentang cara kerja perangkat lunaknya.
“Pengguna sebelum bisa menggunakan platform harus menerima kondisi umum,” ujarnya.
Kondisi umum yang dimaksud Caroline adalah penggunaan Cryfe ini harus mendapatkan persetujuan dari lawan bicara atau orang yang akan dianalisis perilakunya.
“Pengguna tidak boleh mengajukan wawancara untuk dianalisis tanpa mendapat persetujuan tertulis dari lawan bicara,” ujar Caroline.
Sebenarnya Cryfe bukanlah satu-satunya yang memiliki kemampuan atau menawarkan analisa perilaku, ada juga Humantic yang mengklaim pada laman perusahaannya dapat menganalisis perilaku konsumen.
“Teknologi inovatif Humantic memprediksi perilaku setiap orang tanpa mereka pernah perlu mengikuti tes kepribadian,” menurut situs web perusahaan.
Sama halnya dengan Cryfe, perangkat Humantic juga didukung AI untuk membuat profil psikologis pelamar. Humantic melakukan profiling berdasarkan kata-kata pelamar yang digunakan dalam resume, surat lamaran kerja, profil LinkedIn, dan bagian teks lain yang mereka kirimkan.
Perangkat lunak sejenis Cryfe dan Humantic sejak dulu sudah mengalami tantangan hukum. Pada 2019, Bloomberg Law melaporkan bahwa Equal Employment Opportunity Commission (EEOC) menyelidiki kasus dugaan diskriminasi yang melanggar hukum karena keputusan Sumber Daya Manusia yang dibantu dengan algoritme.
“Ini semua harus diselesaikan karena masa depan perekrutan adalah AI,” kata pengacara Bradford Newman kepada Bloomberg.
Pengamat pun mempermasalahkan perusahaan yang menggunakan perangkat sejenis untuk melacak perilaku karena perangkat tidak cukup akurat.
Nigel Duffy, pemimpin AI global di perusahaan layanan profesional EY, mengatakan kepada InformationWeek bahwa dirinya bermasalah dengan perangkat lunak yang menggunakan kuis media sosial dan mempengaruhi deteksi. Memang sudah ada literatur terkait potensi mempengaruhi deteksi tapi menurutnya tetap saja cara yang diterapkan perangkat lunak itu agak naif.
“Orang-orang menarik kesimpulan bahwa sains tidak benar-benar mendukung [seperti] memutuskan seseorang adalah karyawan yang berpotensi baik karena mereka banyak tersenyum atau memutuskan bahwa seseorang menyukai produk Anda karena mereka banyak tersenyum,” ujar Nigel.
Pelacakan perilaku seperti yang dilakukan Cryfe dan Humantic juga berpotensi lebih jahat, kata beberapa kelompok hak asasi manusia. Seperti halnya di China, raksasa pasar online Alibaba yang baru-baru ini menimbulkan kehebohan setelah mengklaim bahwa perangkat lunaknya dapat mendeteksi orang Uyghur dan etnis minoritas lainnya.
The New York Times melaporkan bahwa bisnis komputasi awan Alibaba memiliki perangkat lunak yang dapat memindai gambar dan video.
The Washington Post juga baru-baru ini melaporkan bahwa Huawei, perusahaan teknologi Cina, telah menguji perangkat lunaknya yang dapat memperingatkan penegak hukum ketika kamera pengawasnya mendeteksi wajah Uyghur. (Baca: Peneliti: Huawei Uji Pengenal Wajah Muslim Uighur dan Mengirim Peringatan ke Polisi)
Aplikasi paten 2018 oleh Huawei dilaporkan mengklaim bahwa “identifikasi atribut pedestrian (pejalan kaki) sangat penting” dalam teknologi pengenalan wajah.
“Atribut objek sasaran dapat berupa jenis kelamin (pria,wanita), usia (remaja, paruh baya, tua), [atau] ras (Han, Uighur),” kata aplikasi itu.
Namun, seorang juru bicara Huawei mengatakan kepada CNN Business bahwa fitur identifikasi etnis seharusnya tidak pernah menjadi bagian dari aplikasi.
Penggunaan kecerdasan buatan yang berkembang pesat untuk memilah-milah data dalam jumlah besar pasti akan meningkatkan masalah privasi. Sehingga, kemungkinan masyarakat tidak pernah tahu siapa atau apa yang menganalisisnya pada saat wawancara kerja.
Di bawah ini, adalah video promosi software Cryfe yang diunggah di Youtube pada 8 Januari lalu.[]
Editor: Yuswardi A. Suud