Generative AI hingga kini masih menjadi primadona dan inovasi yang signifikan sepanjang tahun. Dengan kecerdasan buatan yang dapat dengan cepat men-generate konten, gambar, video, dan varian lainnya membantu percepatan otomatisasi, analisis, dan proses bisnis. Namun sepandai-pandainya suatu Generative Artificial Intelligence (AI) atau genAI tetaplah suatu program komputer, sehingga tidak luput dari ancaman, kerentanan, dan serangan IT. Ahli dan Pakar genAI di seluruh dunia lantas berbondong-bondong merumuskan model ancaman genAI, salah satunya menggunakan kerangka threat modelling lama STRIDE yang disesuaikan dengan kasus-kasus dalam genAI. Tentunya kita berharap kerangka ini dapat menjadi suatu referensi di kemudian hari, dan menjadi pakem pengembangan genAI yang aman.
Baca Juga : Istilah-Istilah dalam Artificial Intelligence Part-1
Apa Itu STRIDE Threat Modelling?
STRIDE adalah singkatan dari enam kategori ancaman yang dapat digunakan untuk menganalisis dan menilai potensi risiko dalam sistem perangkat lunak atau aplikasi. Model ini dikembangkan oleh Praerit Garg, dan Loren Kohnfelder dari Microsoft[1]. Kategori-kategori dalam STRIDE meliputi :
1) Spoofing – Mencoba menjadi seseorang selain diri Anda
2) Tampering – Mengubah sesuatu baik di jaringan, kode aplikasi, basis data, dll
3) Repudation – Menyangkal bahwa Anda tidak bertanggung jawab atau tidak melakukan sesuatu
4) Information Disclosure – Seseorang mengambil informasi yang tidak seharusnya mereka dapatkan
5) Denial of Service – Habisnya resource sehingga terjadi gangguan layanan
6) Elevation of Privilege – Memberikan izin seseorang untuk melakukan sesuatu yang seharusnya tidak diizinkan.
STRIDE dalam Generative AI
Penggunaan STRIDE dalam penilaian ancaman Generative AI sangat penting untuk melindungi sistem dari berbagai risiko yang mungkin timbul. Dengan memahami dan mengidentifikasi ancaman-ancaman ini, pengembang dan organisasi dapat menerapkan langkah-langkah mitigasi yang tepat untuk menjaga keamanan dan integritas sistem Generative AI [2, 3]. Adapun hasil pemetaan stride dalam Generative AI meliputi :
1. Spoofing – Damage: HIGH | Reproducibility: HIGH | Exploitability: MEDIUM
Spoofing dalam Generative AI bisa terjadi jika penyerang berpura-pura menjadi pengguna atau entitas yang sah untuk mengakses model atau data yang sensitif. Misalnya, seorang penyerang mungkin menyamar sebagai peneliti atau pengembang untuk mendapatkan akses ke dataset pelatihan yang rahasia atau model AI yang berharga. Jika penyerang berhasil, mereka dapat menyuntikkan data yang bias atau salah ke dalam model, yang dapat menghasilkan output yang tidak akurat atau merugikan.
2. Tampering – Damage: HIGH | Reproducibility:HIGH | Exploitability:MEDIUM
Tampering dalam Generative AI dapat terjadi jika penyerang mengubah data pelatihan atau kode model. Misalnya, seorang penyerang mungkin mengubah data pelatihan untuk memasukkan informasi yang salah atau bias, yang kemudian mempengaruhi hasil keluaran model. Mereka juga bisa merusak model yang ada untuk merusak fungsionalitasnya atau memanipulasi hasil yang dihasilkan, sehingga merugikan pengguna akhir atau mengarah pada penggunaan yang tidak etis.
3. Repudiation – Damage: MEDIUM | Reproducibility: MEDIUM | Exploitability: LOW
Dalam konteks Generative AI, repudiation bisa terjadi jika pengguna atau sistem menolak tanggung jawab atas hasil yang dihasilkan. Misalnya, jika model AI menghasilkan konten yang merugikan atau menyesatkan, pihak yang terlibat mungkin menyangkal keterlibatan mereka dalam pembuatan atau pelatihan model tersebut. Ini dapat menyebabkan masalah dalam penegakan kebijakan atau hukum terkait penggunaan dan output AI.
4. Information Disclosure – Damage: HIGH | Reproducibility: MEDIUM| Exploitability: MEDIUM
Information Disclosure dalam Generative AI dapat terjadi jika model AI mengungkapkan informasi sensitif dari data pelatihan atau jika data yang diproses mengandung informasi pribadi yang tidak seharusnya diungkapkan. Misalnya, model AI yang dilatih dengan data pribadi dapat menghasilkan output yang mengandung informasi yang dapat diidentifikasi, yang mengancam privasi individu.
5. Denial of Service – Damage: HIGH | Reproducibility: HIGH | Exploitability: HIGH
Denial of Service dalam Generative AI bisa terjadi jika penyerang membanjiri sistem AI dengan permintaan yang berlebihan atau tidak valid, menyebabkan model tidak dapat memproses permintaan yang sah. Misalnya, jika sebuah model generatif digunakan untuk menghasilkan konten secara real-time, penyerang bisa memanfaatkan permintaan berlebih untuk melumpuhkan layanan atau menyebabkan keterlambatan dalam respon sistem.
6. Elevation of Privilege – Damage: HIGH | Reproducibility: LOW| Exploitability:LOW
Dalam Generative AI, peningkatan hak akses dapat terjadi jika penyerang mengeksploitasi kelemahan dalam sistem untuk mendapatkan hak akses yang lebih tinggi daripada yang seharusnya mereka miliki. Misalnya, seorang penyerang mungkin mengeksploitasi bug dalam sistem untuk mendapatkan akses administratif ke model AI atau data sensitif, memungkinkan mereka untuk memodifikasi model atau data tanpa izin.
Referensi :
[1] https://learn.microsoft.com/en-us/previous-versions/commerce-server/ee823878(v=cs.20)
[2] https://arxiv.org/html/2406.11007v1
[3] https://owasp.org/www-project-top-10-for-large-language-model-applications/llm-top-10-governance-doc/LLM_AI_Security_and_Governance_Checklist-v1.1.pdf