AS-Inggris dan 16 Negara Merilis Pedoman Pengembangan Sistem AI yang Aman

The Hacker News

Cyberthreat.id - Inggris dan Amerika Serikat, bersama 16 negara lainnya, merilis pedoman baru untuk pengembangan sistem kecerdasan buatan (AI) yang aman.

“Pendekatan ini memprioritaskan kepemilikan hasil keamanan bagi pelanggan, mencakup transparansi dan akuntabilitas radikal, dan menetapkan struktur organisasi di mana desain yang aman adalah prioritas utama,” kata Badan Keamanan Siber dan Infrastruktur (CISA) A.S sebagaimana dikutip The Hacker News.

Tujuannya adalah untuk meningkatkan tingkat keamanan siber AI dan membantu memastikan bahwa teknologi tersebut dirancang, dikembangkan, dan diterapkan dengan cara yang aman, tambah National Cyber ​​Security Center (NCSC).

Pedoman ini juga didasarkan pada upaya berkelanjutan pemerintah AS untuk mengelola risiko yang ditimbulkan oleh AI dengan memastikan bahwa alat-alat baru telah diuji secara memadai sebelum dirilis ke publik, terdapat batasan untuk mengatasi kerugian sosial, seperti bias dan diskriminasi, serta masalah privasi, dan menyiapkan metode yang kuat bagi konsumen untuk mengidentifikasi materi yang dihasilkan AI.

Komitmen tersebut juga mengharuskan perusahaan untuk berkomitmen memfasilitasi penemuan pihak ketiga dan pelaporan kerentanan dalam sistem AI mereka melalui sistem bug bounty sehingga kerentanan tersebut dapat ditemukan dan diperbaiki dengan cepat.

Pedoman terbaru ini “membantu pengembang memastikan bahwa keamanan siber merupakan prasyarat penting dari keselamatan sistem AI dan merupakan bagian integral dari proses pengembangan sejak awal dan menyeluruh, yang dikenal sebagai pendekatan 'aman berdasarkan desain',” kata NCSC.

Hal ini mencakup desain yang aman, pengembangan yang aman, penerapan yang aman, serta pengoperasian dan pemeliharaan yang aman, yang mencakup semua area penting dalam siklus hidup pengembangan sistem AI, yang mengharuskan organisasi membuat model ancaman terhadap sistem mereka serta menjaga rantai pasokan dan infrastruktur mereka.

Tujuannya, kata lembaga-lembaga tersebut, adalah untuk memerangi serangan musuh yang menargetkan sistem AI dan pembelajaran mesin (ML) yang bertujuan menyebabkan perilaku yang tidak diinginkan dalam berbagai cara, termasuk memengaruhi klasifikasi model, memungkinkan pengguna melakukan tindakan tidak sah, dan mengekstraksi informasi sensitif.

“Ada banyak cara untuk mencapai efek ini, seperti serangan injeksi cepat dalam domain model bahasa besar (LLM), atau dengan sengaja merusak data pelatihan atau umpan balik pengguna (dikenal sebagai ‘keracunan data’),” kata NCSC.[]