Potensi AI menjadi Kambing Hitam Kejahatan Cyber

Pakar Kaspersky membagikan analisisnya mengenai kemungkinan dampak dari Kecerdasan Buatan (AI), khususnya potensi bahaya psikologis dari teknologi ini.

Vitaly Kamluk, Kepala Pusat Penelitian untuk Asia Pasifik, Tim Penelitian dan Analisis Global (GReAT) di Kaspersky, mengungkapkan bahwa ketika penjahat siber menggunakan AI untuk meluncurkan tindakan berbahayanya, mereka dapat menyalahkan teknologi tersebut dan merasa tidak bertanggung jawab atas dampak dari serangan siber yang diluncurkan.

Ini akan menghasilkan “suffering distancing syndrome” atau sindrom jarak yang menderita.

“Selain aspek ancaman teknis AI, ada juga potensi bahaya psikologis di sini. Ada sindrom jarak penderitaan yang diketahui di antara penjahat siber. Menyerang seseorang secara fisik di jalan raya menyebabkan pelaku kriminal sangat stres karena mereka sering melihat penderitaan korbannya. Namun itu tidak berlaku untuk penjahat siber yang melakukan pencurian dari korban yang tidak akan pernah mereka lihat. Menciptakan AI yang secara ajaib mendatangkan uang atau keuntungan ilegal akan semakin mengaburkan tindakan kriminal para penjahat siber, karena bukan mereka saja yang harus disalahkan, melainkan AI,” jelas Kamluk.

Dampak psikologis lain dari AI yang dapat memengaruhi tim keamanan TI adalah “pendelegasian tanggung jawab”. Karena semakin banyak proses dan alat keamanan siber yang diotomatisasi dan didelegasikan ke jaringan, manusia mungkin merasa kurang bertanggung jawab jika serangan siber terjadi, terutama di lingkungan perusahaan.

“Efek serupa mungkin berlaku bagi para pembela HAM, khususnya di sektor perusahaan yang penuh dengan kepatuhan dan tanggung jawab keselamatan formal. Sistem pertahanan yang cerdas bisa menjadi kambing hitam. Selain itu, kehadiran autopilot yang sepenuhnya independen mengurangi perhatian kontrol manusia,” tambahnya.

Kamluk membagikan beberapa pedoman untuk merangkul manfaat AI dengan aman :

1 – Aksesibilitas – Kita harus membatasi akses anonim ke sistem cerdas nyata yang dibangun dan ditempatkan pada volume data yang sangat kaya. Kita harus menyimpan riwayat konten yang dihasilkan dan mengidentifikasi bagaimana konten yang disintesis dibuat.

Mirip dengan WWW, harus ada prosedur untuk menangani penyalahgunaan dan pelanggaran AI serta kontak yang jelas untuk melaporkan pelanggaran. Kontak tersebut juga harus dapat diverifikasi dengan dukungan berbasis AI lini pertama dan, jika diperlukan, divalidasi oleh manusia dalam beberapa kasus.

2 – Kebijakan – Uni Eropa telah memulai diskusi mengenai penandaan konten yang diproduksi dengan bantuan AI. Dengan begitu, pengguna setidaknya dapat memiliki cara cepat dan andal untuk mendeteksi citra, suara, video, atau teks yang dihasilkan AI. Akan selalu ada pelanggar, tapi mereka akan menjadi minoritas dan harus selalu lari dan bersembunyi dan dibayangi akan hukuman.

Sedangkan bagi pengembang AI, masuk akal untuk melisensikan aktivitas terkait teknologi pintar, karena sistem tersebut mungkin berbahaya. Ini adalah teknologi penggunaan ganda, dan sama halnya dengan peralatan militer atau penggunaan ganda, manufaktur harus dikontrol, termasuk pembatasan ekspor jika diperlukan.

3 – Edukasi – Hal yang paling efektif bagi semua orang adalah menciptakan kesadaran tentang cara mendeteksi konten buatan, cara memvalidasinya, dan cara melaporkan kemungkinan penyalahgunaan. Sekolah harus mengajarkan konsep AI, perbedaannya dengan kecerdasan alami, dan seberapa dapat diandalkan atau rusaknya AI dengan segala kemungkinannya.

Pembuat kode perangkat lunak harus diedukasi untuk menggunakan teknologi secara bertanggung jawab dan mengetahui hukuman atas penyalahgunaannya.

“Beberapa memprediksi bahwa AI akan menjadi pusat apocalypse, yang akan menghancurkan peradaban manusia. Beberapa eksekutif tingkat C di perusahaan besar bahkan berdiri dan menyerukan perlambatan AI untuk mencegah bencana tersebut. Memang benar bahwa dengan munculnya AI generatif, kita telah melihat terobosan teknologi yang dapat mensintesis konten serupa dengan apa yang dilakukan manusia : mulai dari gambar hingga suara, video deepfake, dan bahkan percakapan berbasis teks yang tidak dapat dibedakan dengan manusia. Seperti kebanyakan terobosan teknologi, AI adalah pedang bermata dua. Kita selalu dapat memanfaatkannya selama kita tahu cara menetapkan arahan yang aman untuk mesin pintar ini,” tambah Kamluk.

Teknologi AI haruslah disikapi dengan bijak. Kita tidak bisa paranoid begitu saja terhadap perkembangan teknologi AI, namun manusia juga tetap harus menjadi pengendali utama dalam setiap teknologi yang diciptakan.

Facebooktwitterredditpinterestlinkedinmail

Leave a Reply

Your email address will not be published. Required fields are marked *