
PERURI Tekankan Pentingnya Regulasi dalam Menghadapi Kebangkitan AI
Perusahaan Umum Percetakan Uang Republik Indonesia (PERURI) menunjukkan komitmen kuatnya dalam membangun fondasi ketahanan digital nasional di tengah pertumbuhan pesat penggunaan teknologi Artificial Intelligence (AI). Dalam upaya ini, PERURI mengajak seluruh organisasi untuk lebih waspada terhadap risiko yang muncul dari pemanfaatan AI yang tidak dikelola dengan baik.
Direktur Digital Business PERURI, Farah Fitria Rahmayanti, menyampaikan bahwa tanpa tata kelola yang jelas, penggunaan AI bisa menjadi ancaman serius. Ia menyoroti laporan IBM yang menunjukkan bahwa 74% organisasi mengalami kebocoran AI pada tahun 2024, meningkat 67% dibandingkan tahun sebelumnya. Hal ini terjadi karena kurangnya regulasi dan standar yang memadai.
“Fakta ini menunjukkan betapa pentingnya adanya regulasi, standar, dan panduan yang jelas agar AI dapat diadopsi secara aman serta mendukung keberlanjutan bisnis,” ujar Farah dalam paparannya.
Prinsip Privacy by Design sebagai Dasar Keamanan AI
Farah menekankan pentingnya penerapan prinsip Privacy by Design sebagai kunci utama dalam membangun sistem AI yang aman. Ia menjelaskan bahwa prinsip ini mirip dengan sabuk pengaman mobil yang dipasang saat kendaraan dirakit, bukan setelah selesai dibuat.
“Pendekatan ini diyakini mampu mengurangi risiko kebocoran data yang semakin meningkat seiring dengan masifnya adopsi AI,” katanya.
Dalam era AI generatif, ia menyarankan organisasi untuk menerapkan beberapa prinsip kedaulatan data. Beberapa di antaranya adalah:
- Zero-Trust Data Input: Membatasi akses data hanya kepada sumber yang terpercaya.
- Menggunakan layanan AI kelas enterprise: Memilih platform AI yang memiliki jaminan zero data retention, yaitu tidak menyimpan data pengguna.
- Anonimisasi data sensitif: Melindungi informasi pribadi dengan menghilangkan identitas langsung dari data.
- Menyusun panduan internal: Memberikan arahan kepada karyawan agar tidak memasukkan informasi rahasia dalam prompt.
Praktik yang Harus Dihindari
Selain itu, Farah juga menyoroti beberapa praktik yang harus dihindari agar tidak menimbulkan risiko kebocoran data. Beberapa di antaranya adalah:
- Penggunaan shadow AI oleh karyawan: Situasi di mana karyawan menggunakan alat AI tanpa izin atau pengawasan dari perusahaan.
- Mengunggah dokumen internal ke platform publik: Tindakan yang berisiko mengungkapkan informasi rahasia.
- Abai terhadap analisis kontrak dan syarat layanan: Tidak memperhatikan aturan penggunaan layanan AI yang digunakan.
- Membiarkan celah prompt injection attack: Ancaman di mana seseorang mencoba memanipulasi sistem AI melalui input yang tidak sah.
Farah menegaskan bahwa prinsip-prinsip ini sangat penting untuk diterapkan. “Analogi pentingnya, prinsip ini seperti sabuk pengaman yang dipasang pada mobil saat dirakit, bukan setelah kendaraan selesai dibuat. Pendekatan ini diyakini mampu mengurangi risiko kebocoran data yang semakin meningkat seiring dengan masifnya adopsi AI,” tambahnya.
Komentar
Tuliskan Komentar Anda!