Jakarta (ANTARA) - Kecerdasan buatan generatif menghadirkan risiko yang tidak terduga, mulai dari pelanggaran data hingga output yang dimanipulasi, yang membuat model keamanan tradisional menjadi usang.
Dalam uji keamanan terbaru, chatbot AI generatif perbankan yang dirancang untuk membantu pelanggan dalam pengajuan pinjaman telah dimanipulasi untuk mengungkapkan informasi keuangan sensitif.
Kasus ini menyoroti masalah mendasar, yaitu AI generatif dapat merevolusi berbagai industri, tetapi tanpa protokol keamanan yang kuat, teknologi ini juga dapat menyebabkan konsekuensi yang merugikan.
Teknologi transformasional seperti AI generatif menuntut pendekatan baru dalam keamanan siber. Seperti jet supersonik, AI generatif adalah teknologi revolusioner dengan potensi besar.
Dengan menerapkan protokol keselamatan yang ketat, perjalanan udara telah menjadi salah satu moda transportasi yang paling aman.
Menurut sebuah studi dari Boston Consulting Group (BCG), tiga dari empat eksekutif bisnis melihat keamanan siber sebagai hambatan utama dalam meningkatkan skala AI.
Berbeda dengan perangkat lunak tradisional, AI generatif bergantung pada probabilitas, yang dapat menyebabkan hasil yang tidak dapat diprediksi. Model bahasa besar (LLM) memperkenalkan perilaku yang tidak terdeterministik, menciptakan titik buta dalam keamanan siber.
Seperti halnya penerbangan yang membutuhkan pendekatan keselamatan multifaset, keamanan siber harus tertanam di setiap lapisan AI, mulai dari arsitektur hingga manajemen data dan pengawasan manusia.
Salah satu kasus penyalahgunaan AI generatif yang paling terkenal terjadi di Amerika Serikat pada tahun 2023.
Sebuah kelompok peretas berhasil mengeksploitasi chatbot perbankan AI untuk melakukan serangan rekayasa sosial yang memungkinkan mereka memperoleh akses ke sistem internal. Dengan menyamar sebagai pelanggan, mereka mengelabui AI untuk mereset kredensial login pengguna lain, menciptakan gelombang penipuan yang merugikan bank hingga 20 juta dolar AS.
Di Inggris, sebuah layanan telemedicine berbasis AI disusupi oleh penyerang yang berhasil menembus sistem chatbot kesehatan. Dengan mengubah pertanyaan mereka agar terdengar seperti permintaan resmi dokter, mereka memperoleh akses ke ribuan catatan medis pasien tanpa izin.
Insiden ini menyoroti bagaimana AI generatif dapat lebih mengutamakan logika linguistik daripada kontrol akses keamanan.
Sementara itu, di China, sebuah e-commerce raksasa mengalami serangan AI yang menyebabkan harga produk turun drastis secara otomatis. Para pelaku menggunakan teknik context poisoning untuk secara bertahap mengubah pemahaman sistem AI tentang harga yang wajar, hingga akhirnya AI mulai memberikan diskon besar-besaran pada produk tertentu, tanpa persetujuan manajemen.
Kerugian akibat insiden ini diperkirakan mencapai lebih dari 50 juta dolar AS, sebelum sistem berhasil dikoreksi.
Implikasi Kebijakan
Indonesia sebagai negara berkembang dengan tingkat adopsi AI yang meningkat, perlu mengambil langkah-langkah strategis untuk memitigasi risiko keamanan AI generatif.
Karena itu, ada beberapa kebijakan yang dapat diterapkan. Pertama, regulasi dan standar keamanan AI.
Kedua, peningkatan infrastruktur keamanan siber.
Ketiga, audit keamanan rutin.
Keempat, pendidikan dan pelatihan keamanan AI.
Kelima, kerja sama internasional. Indonesia dapat bekerja sama dengan negara lain dalam berbagi praktik terbaik dan teknologi keamanan AI guna menghadapi ancaman global.
Dengan strategi yang tepat, Indonesia dapat memastikan bahwa pengembangan dan adopsi AI generatif tetap aman dan dapat dipercaya.
*) Dr Aswin Rivai, SE, MM adalah pemerhati ekonomi digital dan dosen FEB-UPN Veteran, Jakarta
Baca juga: Kecerdasan buatan makin cerdas?
Baca juga: Riset baru ungkap AI Generatif jadi prioritas di kalangan pimpinan C-Suite Indonesia