16 Potensi Krisis Etis dalam Teknologi Saat Ini

forbes.com

KEKUATAN teknologi membentuk kembali industri dan merevolusi cara kita hidup dan bekerja.

Namun, seiring dengan peningkatan produktivitas, kenyamanan, dan kekuatan yang dihasilkan oleh teknologi, terdapat tanggung jawab besar bagi industri, pemerintah, dan masyarakat untuk memastikan penggunaan teknologi yang etis.

Kendati kehadiran teknologi baru yang memasuki pasar itu cukup menggembirakan—terutama, tidak terbatas pada, kecerdasan buatan— namun penting memastikan bahwa teknologi tersebut digunakan dengan bijak dan baik, serta demi kepentingan masyarakat.

Di bawah ini, 16 anggota Forbes Technology Council (Dewan Teknologi Forbes) berbagi beberapa tantangan etika terkini dan potensial terkait teknologi serta bagaimana kita semua sebagai masyarakat dapat mengatasinya.

1. Melindungi Informasi Pribadi

Dengan peningkatan eksponensial dalam pengumpulan dan penyimpanan data pribadi, tantangan terkait privasi pun muncul. Saat kita melintasi batas-batas teknologi, masalah yang semakin mendesak dan sangat meresahkan saya adalah sulitnya menjaga kerahasiaan informasi pribadi, karena semakin besarnya ketergantungan kita pada infrastruktur digital di hampir semua aktivitas sehari-hari. Privasi adalah suatu hak istimewa saat ini. - Mark Ruber, Grup MTSolutions

2. Ketergesaan dalam Menerapkan AI

Dengan kemajuan AI generatif, perusahaan tidak dapat menghindari ketergesaan dalam memanfaatkan percepatan tugas pekerja berpengetahuan. Namun, penerapan AI yang terburu-buru akan menimbulkan risiko baru, termasuk bias yang tidak disengaja dan pelanggaran peraturan. PHK massal tim etika internal di beberapa perusahaan teknologi besar harus menjadi motivasi bagi perusahaan lain untuk meningkatkan upaya mereka dalam mewujudkan AI yang bertanggung jawab. - Usama Fayyad, Institut Experiential AI, Universitas Northeastern

3. Penyebaran Misinformasi

Salah satu krisis etika dalam teknologi adalah kemampuannya menciptakan “kepalsuan” dan informasi yang salah. Teknologi memungkinkan video yang Anda tonton terlihat akurat, padahal sebenarnya tidak. Atau, artikel yang Anda baca mungkin tampak benar, namun sebenarnya penuh dengan informasi yang salah. Saat ini, lebih dari sebelumnya, mengandalkan sumber terpercaya yang menyediakan konten yang tervalidasi dengan kuat sangatlah penting. - Michael Dennis, CAS, sebuah divisi dari American Chemical Society

4. Perlunya Pagar Pembatas AI

Alat AI dapat memberikan manfaat besar bagi perusahaan dalam hal produktivitas dan efisiensi, namun pengawasan terhadap alat tersebut sangat penting. Para pemimpin teknologi harus mengatasi masalah etika terkait perlindungan data, keamanan, dan kekayaan intelektual dengan memperkenalkan peraturan di seluruh industri, serta batasan di tingkat perusahaan yang akan memastikan bahwa kecerdasan buatan aman dan efektif. - Marco Santos, GFT

5. Kurangnya Transparansi Penggunaan Data

Kami tahu bahwa data kami digunakan oleh bisnis, dan kami senang bila data kami digunakan untuk meningkatkan kualitas layanan. Namun, potensi masalah yang berkembang saat ini adalah kurangnya transparansi seputar penggunaan data pribadi oleh perusahaan. Konsumen membutuhkan jawaban atas pertanyaan-pertanyaan berikut. Bagaimana bisnis menggunakan data saya? Apakah mereka membaginya dengan penyedia lain untuk memberikan layanan yang lebih baik? Data apa yang digunakan dan di mana? Krisis transparansi semakin dekat. - Kiran Menon, Tydy

6. Memastikan AI Digunakan Hanya untuk Kebaikan

AI generatif dan model bahasa besar khususnya berkembang pesat dan menjadi semakin canggih dari hari ke hari. Bagaimana kita memastikan AI digunakan untuk kebaikan? Bagaimana kami menyediakan pagar pembatas, privasi, dan keamanan yang diperlukan? Dan bagaimana kita meminimalkan penipuan dan, yang lebih penting, memberikan transparansi mengenai AI generatif? Hal pertama yang paling saya khawatirkan—semoga saja regulasi bisa segera terwujud. - Lana Feng, Huma.AI, Inc.

7. Perangkat mata-mata

Spyware pemerintah dan pasar eksploitasi zero-day menghadirkan krisis etika. Perangkat lunak yang dirancang untuk bersembunyi di komputer Anda dan mencuri informasi tanpa sepengetahuan Anda adalah malware, meskipun perusahaan “sah” telah menjualnya ke organisasi pemerintah. Dan tidak mengungkapkan kerentanan zero-day pada produk konsumen yang tersedia secara luas, sehingga pemerintah dapat menggunakannya untuk spionase, akan menempatkan kita semua dalam risiko. Perusahaan harus berbuat lebih baik. - Corey Nachreiner, WatchGuard Technologies Inc.

8. Kemudahan Akses Terhadap AI

Dampak kecerdasan buatan terhadap masyarakat sama atau lebih besar dibandingkan dengan penemuan energi nuklir, sehingga pedoman etika yang kuat perlu diterapkan. Dan AI jauh lebih mudah diakses dibandingkan energi nuklir, sehingga AI lebih sulit dikendalikan. Banyak pemikiran yang harus dilakukan untuk mengembangkan cara mendeteksi bahaya AI dan memperbaikinya. Saat ini kami tidak memiliki banyak langkah efektif untuk mengatasi hal ini. - Kazuhiro Gomi, Peneliti NTT

9. Studi Buatan yang Dikutip oleh AI Generatif

AI generatif menghasilkan artikel yang mengutip penelitian yang dilakukan oleh organisasi nyata, namun penelitian tersebut dibuat-buat. Jadi sekarang kita disuguhi statistik yang sepenuhnya dibuat-buat, namun dikaitkan dengan kelompok analis atau konsultan 5 Besar. Jumlah disinformasi yang disebarkan sangat mengkhawatirkan. Kita semua perlu memeriksa fakta saat menggunakan AI generatif untuk membantu membuat konten. - Laureen Knudsen, Broadcom

10. Kurangnya Kesadaran Tentang LLM

Beberapa entitas menyembunyikan atau mengaburkan fakta bahwa teknologi generatif bergantung pada large language models (LLM) dan memberikan keluaran sebagai fakta atau kebenaran. Sulit untuk membedakan fakta dan fiksi pada tahun 2023, tetapi saya menduga keadaannya akan menjadi jauh lebih buruk. - Elise Carmichael, Perangkat Lunak Lakeside

11. Kerentanan Blockchain Terhadap Penipuan

Saya belum pernah melihat industri yang lebih rawan penipuan dibandingkan blockchain. Peluncuran koin secara cepat memicu inovasi dan penyalahgunaan, dan penipuan besar telah terjadi bahkan di bursa yang diatur seperti FTX. Regulasi bukanlah jawabannya; solusi kriptografi seperti bukti tanpa pengetahuan. Mereka dapat membuktikan fungsi kontrak pintar, memvalidasi cadangan yang diklaim bursa, dan menjamin keakuratan data on-chain. - Marlene Ronstedt, Play by Ear

12. Risiko Hasil yang Bias dari AI

AI—khususnya percepatan penerapan AI generatif—memiliki risiko yang terus menerus untuk menghasilkan hasil yang bias. Model AI dilatih berdasarkan data masukan yang mencerminkan bias masyarakat, yang dapat diperkuat melalui pembelajaran mesin. Untuk mengembangkan teknologi AI yang bertanggung jawab, kita harus memahami apa saja bias-bias tersebut dan memastikan bahwa kita dapat memperhitungkannya dengan tepat. - Merav Yuravlivker, Data Society

13. Kurangnya Konsensus Mengenai Penggunaan yang Tepat untuk AI Generatif

Pertanyaan tentang penggunaan etis ChatGPT tersebar luas di berita, karena kami belum siap dari sudut pandang etika. Bolehkah menggunakan ChatGPT untuk memberikan pandangan pada diskusi ini atau untuk mendiagnosis pasien? Kami tidak memiliki strategi untuk mendekati AI. Saya berharap teknologi besar dan pemerintah akan membuat kode etik tentang cara terbaik menggunakan AI dalam kehidupan kita. Ini akan memakan waktu, dan sekarang, ini adalah pertanyaan tentang etika pribadi. - Nadya Knysh, a1qa

14. Keterasingan Konsumen Lanjut Usia

Seiring kemajuan teknologi, perusahaan perlu memastikan bahwa mereka tidak meninggalkan pengguna yang kurang paham teknologi. Menutup lokasi fisik untuk lokasi di metaverse mungkin masuk akal secara finansial dan menarik bagi demografi yang lebih muda, tetapi hal ini dapat mengasingkan pelanggan yang lebih tua. - Patti Mikula, Hackworks Inc.

15. Laporan Ramah Lingkungan yang Dipalsukan

Para pecinta teknologi menyukai perbincangan tentang keamanan siber, namun ketika masalah lingkungan menjadi pertanyaannya, keamanan siber gagal. Terkadang, individu akan menghasilkan “laporan ramah lingkungan” yang metrik dan informasinya dipalsukan untuk memuaskan manajemen. Hal ini bisa dilakukan dengan cara yang sederhana seperti melepas printer agar memenuhi standar—yang tetap saja berarti bahwa lingkungan masih dalam bahaya. Ini tidak etis. Mendorong kepemilikan yang bertanggung jawab adalah kuncinya. - Dewayne Hart, SEMAIS

16. Risiko Sistem AI yang Otonom dan Tidak Terkendali

Jika sistem AI menjadi terlalu otonom dan beroperasi tanpa perlindungan yang tepat, sistem tersebut dapat mengambil keputusan yang merugikan atau bertentangan dengan nilai-nilai kemanusiaan, sehingga menimbulkan konsekuensi yang tidak diinginkan dan tidak terkendali. Pemerintah harus bekerja sama dengan dunia usaha, peneliti, dan pakar untuk mengembangkan kerangka tata kelola AI yang komprehensif. - Fidelis Chibueze, Teknologi Fixtops

Catatan: artikel ini telah dipublikasikan oleh Forbes.com dengan judul: 16 Current And Potential Ethical Crises In Technology