Model Tampering: Cara Peretas Mengacaukan Kinerja AI
- Rita Puspita Sari
- •
- 05 Nov 2025 01.18 WIB
Ilustrasi Hacker 3
Bayangkan kamu baru saja menuntaskan proyek besar: sebuah model Artificial Intelligence (AI) yang kamu yakini bisa membawa perubahan besar. Setelah berbulan-bulan riset, pengujian, dan pelatihan data, model tersebut akhirnya siap digunakan. Hasilnya di laboratorium luar biasa akurat, efisien, dan menjanjikan. Dengan penuh percaya diri, kamu mengunggahnya ke sistem produksi berbasis cloud dan menantikan dampak nyatanya di lapangan.
Namun, beberapa minggu kemudian, sesuatu terasa aneh. Model yang sebelumnya bekerja sempurna tiba-tiba memberikan hasil yang tidak akurat. Performa sistem menurun drastis, keputusan yang diambil model menjadi tidak konsisten, bahkan ada indikasi kesalahan pada proses klasifikasi. Kamu pun bertanya-tanya: “Apa yang terjadi? Apakah ada kesalahan teknis, atau justru seseorang telah menyerang model ini?”
Inilah skenario nyata yang menggambarkan salah satu ancaman keamanan paling berbahaya namun jarang disadari dalam dunia AI yaitu Model Tampering atau perusakan/pemalsuan model.
Apa Itu Model Tampering?
Model Tampering adalah bentuk serangan siber yang secara khusus menargetkan model kecerdasan buatan. Tujuannya sederhana namun berbahaya: mengubah atau merusak cara kerja model agar tidak berfungsi sebagaimana mestinya.
Jika kamu pernah mendengar istilah Adversarial Attack yaitu serangan yang memanipulasi input data untuk mengecoh AI, maka Model Tampering bisa dibilang “versi yang lebih langsung.”
Perbedaannya terletak pada metode serangan:
- Adversarial Attack mengeksploitasi kelemahan matematis pada model. Pelaku memasukkan data yang tampak normal, tapi sebenarnya dirancang untuk menipu algoritma AI.
- Model Tampering, sebaliknya, menyerang langsung file model atau sistem yang menyimpannya. Pelaku hanya perlu mendapatkan akses ke file model, kemudian mengubah strukturnya, bobotnya, atau bahkan mengganti komponennya secara diam-diam.
Serangan ini ibarat meracuni otak AI tanpa sepengetahuan pengembangnya.
Bagaimana Model AI Bisa Diserang?
Untuk memahami bagaimana serangan ini bekerja, kita perlu mengetahui bagaimana sebuah model AI dibangun.
Secara umum, model AI terdiri dari dua komponen utama:
- Model statistik: berisi parameter, bobot (weights), dan arsitektur jaringan saraf yang menentukan bagaimana model membuat keputusan.
- Proses pra-pemrosesan dan pasca-pemrosesan, yang mengatur bagaimana data masuk ke model dan bagaimana hasilnya diproses.
Jika salah satu bagian ini diubah, perilaku model dapat berubah secara drastis. Bahkan sedikit perubahan pada bobot atau arsitektur bisa menyebabkan kesalahan fatal dalam hasil inferensi.
Biasanya, file model disimpan dalam format teks seperti JSON, HDF5, atau XML. Contohnya, framework populer seperti Keras menggunakan format HDF5 untuk menyimpan arsitektur dan bobot jaringan saraf. Karena format ini terbuka dan mudah dibaca, file dapat dengan mudah dimodifikasi menggunakan editor teks atau alat lain yang tersedia luas.
Selain itu, beberapa lingkungan pengembangan menyediakan API untuk memperbarui model secara otomatis. Jika API tersebut tidak dilindungi dengan baik, pelaku dapat memanfaatkannya untuk melakukan perubahan tanpa izin — menjadikannya “pintu masuk” yang sempurna untuk serangan tampering.
Jenis-Jenis Serangan Model Tampering
Ada beberapa cara pelaku dapat melakukan perusakan model, tergantung pada tujuan dan akses yang mereka miliki:
-
Mengubah Parameter Model Secara Langsung
Penyerang yang mendapatkan akses ke file model bisa mengedit parameter atau bobot jaringan secara manual.Jika file disimpan tanpa enkripsi, pelaku hanya perlu membuka file tersebut dan mengganti beberapa nilai numerik di dalamnya.
Hasilnya bisa beragam, mulai dari kesalahan kecil dalam prediksi hingga model yang sama sekali tidak berfungsi.
-
Merusak Bobot Klasifikasi
Dalam sistem klasifikasi, lapisan terakhir jaringan saraf biasanya menentukan probabilitas untuk setiap kategori.Jika bobot di lapisan ini diubah, keputusan akhir model juga ikut berubah. Misalnya, model keamanan yang seharusnya mengenali wajah karyawan bisa saja malah menerima wajah orang asing sebagai “sah”.
Serangan ini sulit dideteksi karena model tetap berjalan normal, hanya hasilnya yang salah. -
Sabotase Perangkat Lunak Sistem
Ini bentuk serangan yang lebih kompleks.
Pelaku mengganti komponen perangkat lunak sah dengan versi yang “terkontaminasi” — misalnya, skrip yang sudah disisipi malware.
Akibatnya, sistem bisa digunakan untuk tujuan lain, seperti:- Menambang cryptocurrency di server korban (tanpa izin),
- Mencuri data sensitif yang digunakan untuk melatih model,
- Atau menyusupkan bug yang merusak proses pengambilan keputusan.
Jenis serangan ini membutuhkan akses ke lingkungan pengembangan atau produksi, sehingga biasanya dilakukan oleh orang dalam (insider threat) atau melalui kebocoran kredensial.
Mengapa Serangan Ini Berbahaya?
Serangan Model Tampering sangat berbahaya karena dampaknya sering kali tidak langsung terlihat. Model tetap berjalan, API tetap memberikan respons, dan sistem tampak berfungsi normal, padahal hasil yang diberikan sudah dimanipulasi.
Bayangkan jika model digunakan untuk:
- Menilai kelayakan kredit pelanggan,
- Mendeteksi aktivitas penipuan,
- Mengidentifikasi wajah di sistem keamanan, atau
- Menentukan diagnosis awal dalam sistem medis.
Satu perubahan kecil pada bobot atau logika model bisa menyebabkan keputusan salah yang berdampak besar: kerugian finansial, pelanggaran privasi, hingga ancaman keselamatan nyawa.
Langkah-Langkah Pencegahan: Jangan Tunggu Diserang
Mencegah Model Tampering memerlukan kombinasi antara kebijakan organisasi, pengamanan teknis, dan pengawasan berkelanjutan. Berikut langkah yang disarankan:
-
Batasi Hak Akses ke File Model
Semakin banyak orang yang memiliki izin untuk mengedit model, semakin besar risiko serangan.Hanya individu yang benar-benar membutuhkan akses (misalnya, engineer inti) yang boleh mengubah atau memperbarui file model.
Setiap aktivitas pengeditan harus:
- Dicatat (logging),
- Dimonitor secara real-time,
- Dan idealnya, disetujui terlebih dahulu oleh sistem kontrol versi atau otorisasi ganda.
-
Simpan File Model Secara Aman
File model yang disimpan (“at rest”) harus dienkripsi, baik di server lokal maupun di cloud.
Gunakan mekanisme enkripsi kuat seperti AES-256, dan pastikan kunci enkripsinya disimpan secara terpisah dari file model.Lingkungan penyimpanan juga harus dilindungi dengan firewall, kontrol akses berbasis peran (RBAC), dan sistem deteksi intrusi.
-
Lindungi Model Saat Ditransfer
Saat model dipindahkan dari tahap pengembangan ke produksi, gunakan enkripsi data in transit seperti TLS.Selain itu, tambahkan tanda tangan digital (digital signature) agar penerima dapat memverifikasi keaslian file dan memastikan tidak ada perubahan selama pengiriman.
-
Lakukan Pemantauan dan Audit Rutin
Direktori tempat file model disimpan harus diawasi secara berkala.
Gunakan sistem pemantauan otomatis yang dapat mendeteksi perubahan tak terduga pada file, misalnya melalui file integrity monitoring (FIM).Audit juga perlu dilakukan secara rutin untuk memeriksa jejak aktivitas pengguna.
-
Bangun Kebijakan Keamanan Organisasi
Keamanan model bukan hanya masalah teknis, tetapi juga budaya organisasi.
Buat kebijakan yang jelas tentang:- Siapa yang boleh mengakses model,
- Bagaimana perubahan dilakukan,
- Dan bagaimana pelaporan insiden harus dilakukan.
Dengan aturan yang tegas, kemungkinan kesalahan manusia atau penyalahgunaan akses bisa dikurangi.
Kesimpulan:
Model AI adalah hasil kerja keras, riset mendalam, dan investasi besar. Namun tanpa perlindungan yang memadai, semua itu bisa hancur hanya karena satu file yang diubah secara diam-diam. Model Tampering adalah ancaman nyata yang bisa merusak kredibilitas dan kinerja sistem AI tanpa meninggalkan jejak mencolok.
Untuk mencegahnya, organisasi perlu menerapkan prinsip “security by design” sejak awal pengembangan mulai dari penyimpanan terenkripsi, kontrol akses ketat, hingga sistem pemantauan yang aktif.
Ingat, kecerdasan buatan hanya akan secerdas dan seaman cara kita menjaganya. Dalam dunia AI modern, melindungi model bukan lagi pilihan, tapi kewajiban mutlak.
