Kecerdasan buatan, atau artificial intelligence (AI), bagaikan pedang bermata dua. Di satu sisi ia memberi kemudahan dan membuka peluang inovasi yang luar biasa. Namun, di sisi lain, teknologi ini bisa menjelma menjadi bayangan gelap yang mengancam keamanan digital global.
Salah satu fenomena terbaru di dunia siber adalah kemunculan Dark AI — ibarat arus bawah laut yang tenang di permukaan namun mampu menenggelamkan kapal raksasa di dunia maya.
Menurut Kaspersky, perusahaan keamanan siber berbasis di Rusia, istilah Dark AI mengacu pada pemanfaatan model bahasa besar (large language model/LLM) — baik yang berjalan secara lokal maupun di server jarak jauh — di luar kerangka keamanan dan etika. AI jenis ini kerap digunakan untuk tindakan yang melanggar hukum, menyimpang dari moral, dan mengabaikan norma kepatuhan.
Beroperasi di luar “jalur tol” keamanan yang resmi, Dark AI membuka peluang bagi kejahatan digital seperti penipuan daring, manipulasi opini publik, serangan siber, hingga eksploitasi data pribadi tanpa pengawasan.
Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) untuk META dan APAC di Kaspersky, menyebut salah satu contoh paling populer dari pemanfaatan AI untuk tujuan negatif adalah Black Hat GPT. Teknologi ini mulai muncul pada pertengahan 2023 dan menjadi pionir dalam mengubah AI menjadi “otak kriminal” dunia maya.
Kaspersky dalam pernyataan resminya menjelaskan bahwa varian Dark AI ini diciptakan, dimodifikasi, atau diadaptasi secara sengaja untuk melaksanakan aksi berisiko tinggi seperti: menghasilkan kode berbahaya, menyusun email phishing yang halus dan meyakinkan, membuat deepfake audio maupun video, hingga membantu simulasi serangan keamanan siber (Red Team).
Beberapa contoh Black Hat GPT yang telah teridentifikasi antara lain WormGPT, DarkBard, FraudGPT, dan Xanthorox. Semuanya memiliki kesamaan: dirancang untuk memperlancar aktivitas penipuan dan serangan siber, baik dalam skala masif maupun tertarget.
Ancaman ini tidak hanya datang dari kelompok kriminal biasa. Kaspersky juga menemukan indikasi bahwa aktor negara mulai memanfaatkan LLM untuk mendukung operasi siber mereka. Laporan terbaru OpenAI bahkan mengungkap keberhasilan mereka menggagalkan lebih dari 20 operasi rahasia yang mencoba mengeksploitasi sistem AI untuk kampanye penipuan digital.
Dalam laporan tersebut, OpenAI mencatat para pelaku menggunakan LLM untuk menciptakan identitas palsu yang meyakinkan, berinteraksi secara langsung dengan target, serta menghasilkan konten dalam berbagai bahasa untuk mengelabui korban sekaligus menembus filter keamanan konvensional.
“AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah. Bahkan ketika perlindungan telah diterapkan, kita tahu APT adalah penyerang yang gigih,” kata Lozhkin.
“Seiring dengan semakin mudah diakses dan mumpuninya perangkat dark AI, penting bagi organisasi dan individu di Asia Pasifik untuk memperkuat higiene keamanan siber, berinvestasi dalam deteksi ancaman yang didukung oleh AI itu sendiri, dan terus mempelajari bagaimana teknologi ini dapat dieksploitasi,” pungkasnya.
Fenomena Dark AI ini menjadi pengingat bahwa teknologi secanggih apapun dapat berubah menjadi ancaman jika berada di tangan yang salah — seperti api unggun yang menghangatkan, namun bisa membakar habis jika dibiarkan lepas kendali.