Deepfake: Rekayasa yang Menakutkan di Jagat Siber

Wajah-wajah berikut ini adalah contoh hasil dari teknologi deepfake dan mereka tidaklah nyata. | Foto: Progressive GAN

Cyberthreat.idDeepfake. Istilah ini baru terdengar santer beberapa tahun terakhir.

Menggunakan kekuatan kecerdasan buatan, alat satu ini menjadi ancaman paling berbahaya di jagat internet di masa depan.

Jika selama ini teks dan gambar jamak dimanipulasi untuk produksi berita palsu (hoaks), kini giliran video palsu yang disebarkan—video dan audio asli bisa ditempel atau ditambah atau dikurangi dengan materi lain (bisa suara, wajah, dan lain-lain) sehingga menjadi video baru yang tampak asli padahal palsu, lalu diedarkan demi kepentingan tertentu.

Produksi deepfake melonjak sejak Desember 2018 hingga Juni lalu, menurut temuan dari Deeptrace Labs.


Berita Terkait:


Bagaimana cara kerja deepfake AI?

Alat ini bergantung pada apa yang dikenal sebagai Generative Adversarial Networks (GAN), suatu teknik yang ditemukan pada 2014 oleh Ian Goodfellow, seorang doktor yang sekarang bekerja di Apple, tulis Popular Mechanics.

GAN adalah sebuah arsitektur jaringan saraf tiruan yang bertujuan untuk membentuk atau membangkitkan suatu data yang benar-benar baru dari tidak ada menjadi ada. Umumnya target utama dari GAN adalah data citra.

Menurut Ferianda Satya, editor AI Laboratory Universitas Telkom, secara umum arsitektur GAN terdiri dari dua jaringan yang disebut sebagai jaringan “Generator” dan “Discriminator”.

Misal, jaringan Generator menerima input sebuah vektor angka z, kemudian mengubahnya menjadi output gambar tiga dimensi. Vektor input z umumnya dibangkitkan secara acak, lalu dari angka sembarang tersebut Generator membangkitkan gambar yang juga sembarang.

Selanjutnya, Discriminator mulai bekerja. Jaringan Discriminator merupakan jaringan klasifikasi biner yang menerima input gambar tiga dimensi dan mengeluarkan klasifikasi menyatakan input gambar adalah gambar asli dari dataset atau merupakan gambar buatan Generator.

“Discriminator dilatih dengan sekumpulan data yang dibangkitkan oleh Generator, dan sekumpulan data dari dataset, dan dilatih untuk bisa membedakan keduanya,” tulis Ferianda.

Gambar-gambar Generator yang berhasil dikenali Discriminator sebagai gambar “palsu”, akan dikembalikan sebagai umpan balik pada jaringan Generator.

“Tugas Generator kini dilatih untuk bisa membuat sekumpulan gambar palsu, yang saat dilihat oleh Discriminator,” tulis Ferianda.


Berita Terkait:


Namun, Discriminator tidak bisa membedakan antara asli dan palsunya.

“Tugas Generator bisa dianalogikan seperti pemalsu uang, sementara Discriminator bisa disebut seperti polisi,” kata dia.

“Polisi” dilatih untuk belajar bagaimana membedakan uang yang asli dengan uang palsu, sedangkan “Pemalsu” juga selalu mencoba membuat uang palsu sebaik baiknya, kata Ferianda menganalogikannya.


KeteranganIni contoh deepfake yang sangat halus pembuatannya. Di sini, komedian Amerika Serikat Bill Harder sedang bercerita tentang pertemuannya dengan aktor Tom Cruise dan Seth Rogen. Ia mencoba menirukan mimik Tom Cruise dan Rogen, tapi di saat itu pula wajah Tom Cruise dan Rogen ditampilkan dalam gerakan mimik Harder. Tampak, nyaris wajah mereka melebur jadi satu. Dan, ini sungguh mengkhawatirkan dan menakutkan. Deepfake menunjukkan betapa mudah orang memanipulasi video. (Sumber: Populer Mechanics)


Tidak selalu negatif

GAN adalah alat yang mengesankan dan tidak selalu digunakan untuk tujuan negatif atau jahat. Pada 2018, sebuah lukisan buatan GAN yang meniru gaya seniman "Old Master" dari Belanda, seperti Rembrandt van Rijn dari abad ke-17 dijual di rumah lelang Christie dengan harga US$ 432.500.

Namun, ketika GAN dilatih tentang file video dan audio, mereka dapat menghasilkan beberapa materi yang benar-benar “mengganggu”. Pada 2017, para peneliti dari University of Washington di Seattle melatih AI untuk mengubah video mantan Presiden AS Barack Obama. Bibirnya bergerak sesuai dengan kata-kata dari pidato yang sama sekali berbeda. Karya ini diterbitkan dalam jurnal ACM Transactions on Graphics (TOG).

Pada tahun yang sama, deepfake menjadi terkenal luas, terutama melalui pengguna media sosial Reddit. Teknik GAN sering digunakan untuk menempatkan wajah selebriti terkenal, seperti Gal Gadot, Maisie Williams, dan Taylor Swift ke tubuh aktris film porno.

Pada 2019, sebuah deepfake dapat menghasilkan film-film Mona Lisa yang menyeramkan, tapi realistis, bergerak dan tersenyum di posisi yang berbeda.

Deepfake juga dapat mengubah konten audio. Seperti dilansir The Verge awal tahun ini, teknik ini dapat menyambungkan kata-kata baru menjadi video seseorang yang sedang berbicara, membuatnya tampak bahwa mereka mengatakan sesuatu yang tidak pernah mereka maksudkan.

“Kemudahan penggunaan alat baru ini berpotensi menimbulkan konsekuensi yang menakutkan,” tulis Livescience, 1 Oktober lalu.

Begitulah, deepfake bekerja.

Sekarang, orang di mana saja dapat membuat film realistis yang menampilkan selebriti atau politisi berbicara, bergerak dan mengucapkan kata-kata yang tidak pernah mereka katakan. Di sinilah, literasi digital harus dimiliki publik.

Jangan sampai publik dengan mudah membagikan video yang tampaknya asli, ternyata palsu. Sekalig lagi harus lebih waspada terhadap konten di internet.