AI tidak sempurna, itu dibuat oleh manusia dan manusia bisa membuat kesalahan. Itulah mengapa orang perlu waspada ketika menggunakan AI, bagaimana cara kerjanya dan bagaimana menantang keputusan otomatis
Brussels (ANTARA) - Badan pengawas hak asasi manusia (HAM) Uni Eropa (EU) memperingatkan risiko penggunaan kecerdasan buatan (AI) dalam kegiatan prediksi kepolisian, diagnosis medis, dan iklan bertarget.

Peringatan tersebut disampaikan saat EU mempertimbangkan aturan pada tahun depan untuk mengatasi tantangan yang ditimbulkan oleh teknologi kecerdasan buatan.

Sementara AI banyak digunakan oleh lembaga penegak hukum, kelompok hak asasi mengatakan AI juga disalahgunakan oleh rezim otoriter untuk pengawasan massal dan diskriminatif. Para kritikus juga khawatir tentang pelanggaran hak fundamental masyarakat dan aturan privasi data.

Baca juga: Dilengkapi kecerdasan buatan, Acronis luncurkan Cyber Protect 15
Baca juga: Tak hanya internet, kecerdasan buatan juga dukung fasyankes


Badan Hak Asasi Uni Eropa (FRA) yang berbasis di Wina dalam sebuah laporan yang dikeluarkan pada Senin (14/12) mendesak para pembuat kebijakan untuk memberikan lebih banyak panduan tentang bagaimana aturan yang telah ada berlaku untuk penggunaan teknologi AI dan memastikan bahwa aturan untuk teknologi AI di masa depan melindungi hak-hak fundamental.

"AI tidak sempurna, itu dibuat oleh manusia dan manusia bisa membuat kesalahan. Itulah mengapa orang perlu waspada ketika menggunakan AI, bagaimana cara kerjanya dan bagaimana menantang keputusan otomatis," kata Direktur FRA Michael O'Flaherty dalam sebuah pernyataan.

Laporan FRA muncul ketika Komisi Eropa, eksekutif Uni Eropa, mempertimbangkan undang-undang tahun depan untuk mencakup sejumlah sektor yang dianggap berisiko tinggi, seperti sektor layanan kesehatan, energi, transportasi, dan beberapa sektor publik.

Badan HAM Uni Eropa tersebut mengatakan aturan untuk penggunaan AI harus menghormati semua hak fundamental, dengan pengamanan untuk memastikan hal itu dan mencakup jaminan bahwa orang dapat menantang keputusan yang diambil oleh teknologi  tersebut.

Selain itu, menurut badan tersebut, perusahaan-perusahaan harus dapat menjelaskan bagaimana sistem mereka mengambil keputusan untuk AI.

Badan HAM Uni Eropa itu juga mengatakan harus ada lebih banyak penelitian tentang efek yang berpotensi diskriminatif dari AI sehingga Eropa dapat melakukan perlindungan dari hal tersebut.

Uni Eropa pun harus lebih menjelaskan bagaimana aturan perlindungan data berlaku untuk teknologi tersebut.

Laporan FRA didasarkan pada lebih dari 100 wawancara dengan organisasi publik dan swasta yang sudah menggunakan AI, dengan analisis berdasarkan penggunaan AI di Estonia, Finlandia, Prancis, Belanda, dan Spanyol.

Sumber: Reuters

Baca juga: AS keluarkan aturan penggunaan AI
Baca juga: Kominfo siapkan langkah strategis dukung AI

Penerjemah: Yuni Arisandy Sinaga
Editor: Mulyo Sunyoto
Copyright © ANTARA 2020