NEWS : Deepfake Voice, Teknik Baru Penjahat Siber Rampok Uang

Deepfake Voice, Teknik Baru Penjahat Siber Rampok Uang

Deepfake Voice, Teknik Baru Penjahat Siber Rampok Uang
Ilustrasi | Foto: freepik.com
Andi Nugroho Rabu, 09 Oktober 2019 - 16:37 WIB

Cyberthreat.id – Bisakah teknologi deepfake dipakai untuk serangan siber? Sangat bisa.

Serangan siber tidak selalu berkaitan pengiriman ransomware atau penyuntikan skrip jahat ke situs web perusahaan korban, tapi penipuan online juga termasuk bagian dari jenis serangan siber.

Biasanya penipuan online dilakukan oleh kelompok penjahat siber yang mengandalkan email phishing. Email ini seolah-olah terlihat asli, ternyata setelah diklik dan dibuka lampirannya, pengirim telah mengarahkan korban ke “lembah malware”. Dari senjata malware itu, penjahat siber bisa menggaruk informasi kredensial korban berupa nama pengguna atau kata sandi email.

Dalam kaitan teknologi deepfake, penjahat siber menggunakan audio yang dihasilkan teknologi kecerdasan buatan (AI) untuk menyamar sebagai suara CEO atau bos perusahaan.

Selanjutnya, penjahat itu mengirimkan file audio itu ke petugas keuangan perusahaan tersebut; isinya adalah menugaskan si karyawan itu mentransfer sejumlah uang ke akun bank tertentu—tentu saja ini akun bank milik sang penipu (scammer).


Berita Terkait:


Menurut ZDNet, serangan “suara palsu (deepfake voice)  bisa menjadi modus lain ke depan dalam kejahatan penipuan online. Penipuan online telah menyebabkan kerugian ekonomi bagi pebisnis Amerika Serikat hampir US$ 2 miliar selama dua tahun terakhir—senjatanya adalah email phishing.

The Wall Street Journal sebelumnya melaporkan ada seorang CEO perusahaan energi asal Inggris, yang tidak disebutkan namanya,  sedang berbicara di telepon dengan bosnya, CEO dari perusahaan induk di Jerman. CEO perusahaan induk itu memintanya untuk segera mentransfer uang senilai US$ 243.000 ke pemasok (supplier) Hungaria.

Ternyata, CEO Inggris itu menerima instruksi dari scammer yang menggunakan teknologi suara bertenaga AI untuk menyamar sebagai CEO Jerman. “[Pemalsuan suara] ini mirip dengan video deepfake  yang juga berpotensi untuk memanipulasi opini publik dan menyebabkan perselisihan sosial,” tulis ZDNet.

Dalam kasus insiden penipuan suara itu WSJ mendapatkan informasi dari perusahaan asuransi energi, Euler Hermes Group.

Perusahaan asuransi meyakini saat ini para penipu online telah menggunakan perangkat lunak penghasil suara AI yang tersedia secara komersial untuk melakukan penipuan.


Berita Terkait:


Menurut laporan WSJ, CEO Inggris curiga ketika penipu menelepon untuk ketiga kalinya meminta transfer kedua dan melihat panggilan itu dari nomor telepon Austria. Namun, ia memilih untuk tidak melakukan transfer lagi. Namun, transfer pertama telah dikirim ke akun Hungaria yang kemudian di dipindahkan ke Meksiko.

Itu bukan kasus pertama yang memakai suara CEO.

Pada 8 Juli 2019, BBC pernah menurunkan artikel tentang penipuan online juga berbasis “suara palsu”. Peristiwa itu ditemukan oleh perusahaan keamanan siber (cybersecurity) asal Amerika Serikat, Symantec.

Symantec mengatakan telah mendapati tiga kasus pesan “suara palsu” dari CEO yang berbeda. Pesan audio itu dipakai untuk meminta bagian keuangan perusahaan mentrasnfer sejumlah uang. Sistem AI dapat dilatih untuk meniru suara top eksekutif.

“Video-video perusahaan, panggilan telepon, penampilan di media, di konferensi, dan presentasi, semua itu akan berguna bagi para pemalsu yang ingin membangun model suara seseorang,” kata Chief Technology Officer (CTO) Symantec Hugh Thompson.

Dengan kata lain, penampilan wawancara di televisi atau di YouTube, semua itu menjadi data besar bagi para scammer untuk merancang model “suara palsu”.

Sekadar diketahui, deepfake, yang merujuk pada kombinasi istilah "deep learning” (pembelajaran mendalam)" dan "fake” (palsu), menggunakan kecerdasan buatan (AI) untuk menunjukkan orang melakukan dan mengatakan sesuatu yang tidak mereka lakukan atau katakan.

Media ini cukup baru, video-video pertama yang diketahui, diunggah ke media sosial Reddit pada 2017, menampilkan wajah-wajah selebriti yang ditukar dengan wajah para bintang porno.


Standardisasi dan Validasi Teknologi