
Waspadai Model Extraction Attack pada API AI Anda
Di tengah pesatnya penggunaan artificial intelligence dalam berbagai bidang, muncul ancaman baru yang tidak banyak dibicarakan secara luas, yaitu model extraction attack. Ancaman ini memungkinkan pihak luar menyalin kemampuan model machine learning tanpa harus memiliki akses langsung ke struktur internal atau parameter model tersebut. Hanya dengan mengandalkan akses terbatas seperti query melalui antarmuka publik, seorang penyerang dapat merekonstruksi model serupa yang mendekati akurasi aslinya. Ini adalah bentuk pencurian intelektual yang halus namun sangat merugikan, terutama ketika model tersebut digunakan dalam konteks yang bernilai tinggi seperti diagnosis medis atau sistem keamanan.