16 Potensi Krisis Etis dalam Teknologi Saat Ini
KEKUATAN teknologi membentuk kembali industri dan merevolusi cara kita hidup dan bekerja.
Namun, seiring dengan peningkatan produktivitas, kenyamanan, dan kekuatan yang dihasilkan oleh teknologi, terdapat tanggung jawab besar bagi industri, pemerintah, dan masyarakat untuk memastikan penggunaan teknologi yang etis.
Kendati kehadiran teknologi baru yang memasuki pasar itu cukup menggembirakan—terutama, tidak terbatas pada, kecerdasan buatan— namun penting memastikan bahwa teknologi tersebut digunakan dengan bijak dan baik, serta demi kepentingan masyarakat.
Di bawah ini, 16 anggota Forbes Technology Council (Dewan Teknologi Forbes) berbagi beberapa tantangan etika terkini dan potensial terkait teknologi serta bagaimana kita semua sebagai masyarakat dapat mengatasinya.
1. Melindungi Informasi Pribadi
Dengan peningkatan eksponensial dalam pengumpulan dan penyimpanan data pribadi, tantangan terkait privasi pun muncul. Saat kita melintasi batas-batas teknologi, masalah yang semakin mendesak dan sangat meresahkan saya adalah sulitnya menjaga kerahasiaan informasi pribadi, karena semakin besarnya ketergantungan kita pada infrastruktur digital di hampir semua aktivitas sehari-hari. Privasi adalah suatu hak istimewa saat ini. - Mark Ruber, Grup MTSolutions
2. Ketergesaan dalam Menerapkan AI
Dengan kemajuan AI generatif, perusahaan tidak dapat menghindari ketergesaan dalam memanfaatkan percepatan tugas pekerja berpengetahuan. Namun, penerapan AI yang terburu-buru akan menimbulkan risiko baru, termasuk bias yang tidak disengaja dan pelanggaran peraturan. PHK massal tim etika internal di beberapa perusahaan teknologi besar harus menjadi motivasi bagi perusahaan lain untuk meningkatkan upaya mereka dalam mewujudkan AI yang bertanggung jawab. - Usama Fayyad, Institut Experiential AI, Universitas Northeastern
3. Penyebaran Misinformasi
Salah satu krisis etika dalam teknologi adalah kemampuannya menciptakan “kepalsuan” dan informasi yang salah. Teknologi memungkinkan video yang Anda tonton terlihat akurat, padahal sebenarnya tidak. Atau, artikel yang Anda baca mungkin tampak benar, namun sebenarnya penuh dengan informasi yang salah. Saat ini, lebih dari sebelumnya, mengandalkan sumber terpercaya yang menyediakan konten yang tervalidasi dengan kuat sangatlah penting. - Michael Dennis, CAS, sebuah divisi dari American Chemical Society
4. Perlunya Pagar Pembatas AI
Alat AI dapat memberikan manfaat besar bagi perusahaan dalam hal produktivitas dan efisiensi, namun pengawasan terhadap alat tersebut sangat penting. Para pemimpin teknologi harus mengatasi masalah etika terkait perlindungan data, keamanan, dan kekayaan intelektual dengan memperkenalkan peraturan di seluruh industri, serta batasan di tingkat perusahaan yang akan memastikan bahwa kecerdasan buatan aman dan efektif. - Marco Santos, GFT
5. Kurangnya Transparansi Penggunaan Data
Kami tahu bahwa data kami digunakan oleh bisnis, dan kami senang bila data kami digunakan untuk meningkatkan kualitas layanan. Namun, potensi masalah yang berkembang saat ini adalah kurangnya transparansi seputar penggunaan data pribadi oleh perusahaan. Konsumen membutuhkan jawaban atas pertanyaan-pertanyaan berikut. Bagaimana bisnis menggunakan data saya? Apakah mereka membaginya dengan penyedia lain untuk memberikan layanan yang lebih baik? Data apa yang digunakan dan di mana? Krisis transparansi semakin dekat. - Kiran Menon, Tydy
6. Memastikan AI Digunakan Hanya untuk Kebaikan
AI generatif dan model bahasa besar khususnya berkembang pesat dan menjadi semakin canggih dari hari ke hari. Bagaimana kita memastikan AI digunakan untuk kebaikan? Bagaimana kami menyediakan pagar pembatas, privasi, dan keamanan yang diperlukan? Dan bagaimana kita meminimalkan penipuan dan, yang lebih penting, memberikan transparansi mengenai AI generatif? Hal pertama yang paling saya khawatirkan—semoga saja regulasi bisa segera terwujud. - Lana Feng, Huma.AI, Inc.
7. Perangkat mata-mata
Spyware pemerintah dan pasar eksploitasi zero-day menghadirkan krisis etika. Perangkat lunak yang dirancang untuk bersembunyi di komputer Anda dan mencuri informasi tanpa sepengetahuan Anda adalah malware, meskipun perusahaan “sah” telah menjualnya ke organisasi pemerintah. Dan tidak mengungkapkan kerentanan zero-day pada produk konsumen yang tersedia secara luas, sehingga pemerintah dapat menggunakannya untuk spionase, akan menempatkan kita semua dalam risiko. Perusahaan harus berbuat lebih baik. - Corey Nachreiner, WatchGuard Technologies Inc.
8. Kemudahan Akses Terhadap AI
Dampak kecerdasan buatan terhadap masyarakat sama atau lebih besar dibandingkan dengan penemuan energi nuklir, sehingga pedoman etika yang kuat perlu diterapkan. Dan AI jauh lebih mudah diakses dibandingkan energi nuklir, sehingga AI lebih sulit dikendalikan. Banyak pemikiran yang harus dilakukan untuk mengembangkan cara mendeteksi bahaya AI dan memperbaikinya. Saat ini kami tidak memiliki banyak langkah efektif untuk mengatasi hal ini. - Kazuhiro Gomi, Peneliti NTT
9. Studi Buatan yang Dikutip oleh AI Generatif
AI generatif menghasilkan artikel yang mengutip penelitian yang dilakukan oleh organisasi nyata, namun penelitian tersebut dibuat-buat. Jadi sekarang kita disuguhi statistik yang sepenuhnya dibuat-buat, namun dikaitkan dengan kelompok analis atau konsultan 5 Besar. Jumlah disinformasi yang disebarkan sangat mengkhawatirkan. Kita semua perlu memeriksa fakta saat menggunakan AI generatif untuk membantu membuat konten. - Laureen Knudsen, Broadcom
10. Kurangnya Kesadaran Tentang LLM
Beberapa entitas menyembunyikan atau mengaburkan fakta bahwa teknologi generatif bergantung pada large language models (LLM) dan memberikan keluaran sebagai fakta atau kebenaran. Sulit untuk membedakan fakta dan fiksi pada tahun 2023, tetapi saya menduga keadaannya akan menjadi jauh lebih buruk. - Elise Carmichael, Perangkat Lunak Lakeside
11. Kerentanan Blockchain Terhadap Penipuan
Saya belum pernah melihat industri yang lebih rawan penipuan dibandingkan blockchain. Peluncuran koin secara cepat memicu inovasi dan penyalahgunaan, dan penipuan besar telah terjadi bahkan di bursa yang diatur seperti FTX. Regulasi bukanlah jawabannya; solusi kriptografi seperti bukti tanpa pengetahuan. Mereka dapat membuktikan fungsi kontrak pintar, memvalidasi cadangan yang diklaim bursa, dan menjamin keakuratan data on-chain. - Marlene Ronstedt, Play by Ear
12. Risiko Hasil yang Bias dari AI
AI—khususnya percepatan penerapan AI generatif—memiliki risiko yang terus menerus untuk menghasilkan hasil yang bias. Model AI dilatih berdasarkan data masukan yang mencerminkan bias masyarakat, yang dapat diperkuat melalui pembelajaran mesin. Untuk mengembangkan teknologi AI yang bertanggung jawab, kita harus memahami apa saja bias-bias tersebut dan memastikan bahwa kita dapat memperhitungkannya dengan tepat. - Merav Yuravlivker, Data Society
13. Kurangnya Konsensus Mengenai Penggunaan yang Tepat untuk AI Generatif
Pertanyaan tentang penggunaan etis ChatGPT tersebar luas di berita, karena kami belum siap dari sudut pandang etika. Bolehkah menggunakan ChatGPT untuk memberikan pandangan pada diskusi ini atau untuk mendiagnosis pasien? Kami tidak memiliki strategi untuk mendekati AI. Saya berharap teknologi besar dan pemerintah akan membuat kode etik tentang cara terbaik menggunakan AI dalam kehidupan kita. Ini akan memakan waktu, dan sekarang, ini adalah pertanyaan tentang etika pribadi. - Nadya Knysh, a1qa
14. Keterasingan Konsumen Lanjut Usia
Seiring kemajuan teknologi, perusahaan perlu memastikan bahwa mereka tidak meninggalkan pengguna yang kurang paham teknologi. Menutup lokasi fisik untuk lokasi di metaverse mungkin masuk akal secara finansial dan menarik bagi demografi yang lebih muda, tetapi hal ini dapat mengasingkan pelanggan yang lebih tua. - Patti Mikula, Hackworks Inc.
15. Laporan Ramah Lingkungan yang Dipalsukan
Para pecinta teknologi menyukai perbincangan tentang keamanan siber, namun ketika masalah lingkungan menjadi pertanyaannya, keamanan siber gagal. Terkadang, individu akan menghasilkan “laporan ramah lingkungan” yang metrik dan informasinya dipalsukan untuk memuaskan manajemen. Hal ini bisa dilakukan dengan cara yang sederhana seperti melepas printer agar memenuhi standar—yang tetap saja berarti bahwa lingkungan masih dalam bahaya. Ini tidak etis. Mendorong kepemilikan yang bertanggung jawab adalah kuncinya. - Dewayne Hart, SEMAIS
16. Risiko Sistem AI yang Otonom dan Tidak Terkendali
Jika sistem AI menjadi terlalu otonom dan beroperasi tanpa perlindungan yang tepat, sistem tersebut dapat mengambil keputusan yang merugikan atau bertentangan dengan nilai-nilai kemanusiaan, sehingga menimbulkan konsekuensi yang tidak diinginkan dan tidak terkendali. Pemerintah harus bekerja sama dengan dunia usaha, peneliti, dan pakar untuk mengembangkan kerangka tata kelola AI yang komprehensif. - Fidelis Chibueze, Teknologi Fixtops
Catatan: artikel ini telah dipublikasikan oleh Forbes.com dengan judul: 16 Current And Potential Ethical Crises In Technology