Pengantar

Machine Learning (ML) dan Artificial Intelligence (AI) kini digunakan secara luas, mulai dari sistem rekomendasi, deteksi penipuan, pengenalan wajah, hingga pengambilan keputusan kritis di sektor finansial dan kesehatan. Namun, semakin besar ketergantungan terhadap AI, semakin besar pula potensi serangan yang menargetkan fondasi utamanya: data.

Salah satu ancaman yang paling berbahaya namun sering luput dari perhatian adalah AI Poisoning atau data poisoning attack. Serangan ini tidak menargetkan kode atau infrastruktur, melainkan meracuni dataset agar model AI menghasilkan keputusan yang salah, bias, atau bahkan berbahaya.


Apa Itu AI Poisoning?

Definisi AI Poisoning

AI Poisoning adalah teknik serangan di mana penyerang menyisipkan, memodifikasi, atau memanipulasi data pelatihan dengan tujuan mempengaruhi perilaku dan keputusan model machine learning.

Serangan ini sangat berbahaya karena:

  • Tidak merusak sistem secara langsung

  • Sulit terdeteksi oleh mekanisme keamanan tradisional

  • Dampaknya muncul secara bertahap melalui output model

Menurut OWASP, data poisoning merupakan salah satu ancaman utama terhadap sistem AI modern (dikutip dari OWASP).

baca juga : Secret Management: Cara Aman Menyimpan API Key di Pipeline CI/CD


Bagaimana Cara Kerja AI Poisoning

Manipulasi Data Training

Merusak Pola Pembelajaran

Model machine learning belajar dari pola data historis. Dengan menyuntikkan data palsu atau bias, penyerang dapat:

  • Menggeser batas klasifikasi

  • Menurunkan akurasi model

  • Menyebabkan kesalahan sistematis pada prediksi


Targeted vs Untargeted Poisoning

Dua Pendekatan Serangan
  • Targeted poisoning: bertujuan membuat model salah pada kondisi atau input tertentu

  • Untargeted poisoning: menurunkan performa model secara keseluruhan

Targeted poisoning sering digunakan untuk menyusupkan perilaku tersembunyi (backdoor) ke dalam model AI.


Contoh Nyata Serangan AI Poisoning

1. Backdoor Attack pada Model

Trigger Tersembunyi

Penyerang menyisipkan data dengan pola tertentu (misalnya watermark kecil pada gambar). Ketika pola itu muncul di input, model memberikan output yang telah dimanipulasi.


2. Manipulasi Sistem Moderasi

Konten Berbahaya Lolos Filter

Pada sistem moderasi konten berbasis AI, data poisoning dapat menyebabkan konten berbahaya diklasifikasikan sebagai aman.


3. Penyalahgunaan Data Publik

Open Dataset sebagai Titik Masuk

Model yang dilatih dari data publik sangat rentan terhadap poisoning jika proses kurasi dan validasi datanya lemah.


Mengapa AI Poisoning Sulit Dideteksi

1. Data Terlihat Normal

Data beracun sering kali tampak valid dan tidak mencurigakan secara statistik.


2. Efek Jangka Panjang

Dampak poisoning tidak selalu langsung terasa, tetapi muncul setelah model digunakan dalam produksi.


3. Kurangnya Monitoring Model

Banyak organisasi fokus pada performa awal model, tetapi jarang memantau perubahan perilaku model secara berkelanjutan.

baca juga : SQL Triggers: Automasi Data atau Backdoor Tersembunyi?


Strategi Mitigasi AI Poisoning

1. Validasi dan Kurasi Data

Data Bukan Sekadar Input

Lakukan pemeriksaan sumber data, konsistensi label, dan anomali sebelum data digunakan untuk training.


2. Data Provenance

Lacak Asal Usul Dataset

Mengetahui dari mana data berasal membantu mendeteksi manipulasi dan penyisipan data berbahaya.


3. Monitoring Perilaku Model

Deteksi Perubahan yang Tidak Wajar

Pantau output model secara berkala untuk mendeteksi perubahan perilaku yang mencurigakan.


4. Retraining dengan Dataset Bersih

Jika terdeteksi poisoning, model harus dilatih ulang menggunakan data yang telah diverifikasi.

baca juga : Metasploit atau Empire? Menentukan Senjata Terbaik untuk Offensive Security


Kesimpulan

AI Poisoning merupakan ancaman serius yang menyerang inti sistem machine learning: data pelatihan. Dengan meracuni dataset, peretas dapat memanipulasi keputusan model tanpa perlu menembus sistem keamanan tradisional.

Dalam dunia yang semakin bergantung pada AI, keamanan tidak cukup hanya berfokus pada infrastruktur dan kode. Keamanan data dan integritas model harus menjadi prioritas utama. Organisasi yang mengabaikan risiko AI poisoning berpotensi mengambil keputusan yang salah—tanpa pernah menyadari bahwa model mereka telah dimanipulasi sejak awal.