Tren dari kecerdasan buatan yang dinamakan ChatGPT untuk saat ini tampaknya kebanyakan mampu memudahkan kehidupan manusia. Sampai pada akhirnya ada oknum jahat yang mampu memaksa kecerdasan buatan tersebut untuk menciptakan malware yang sama sekali tidak bisa terdeteksi. Waduh, kok jadi gini?
Daftar isi
ChatGPT Mampu Buat Malware yang Tidak Bisa Terdeteksi
Umumnya, malware akan dapat dengan mudah terdeteksi oleh antivirus (minimal Windows Defender) untuk setidaknya dapat minimalisir hal yang tidak diinginkan. Namun, lain halnya dengan malware yang dibuat oleh ChatGPT, yang mana sama sekali tidak bisa terdeteksi bahkan oleh teknik keamanan terkuat, Endpoint Detection and Response (EDR).
Walau EDR merupakan teknik keamanan siber terkuat untuk saat ini, namun para ahli di bidangnya mengatakan bahwasanya menangkap malware yang dibuat dengan kecerdasan buatan akan cukup menantang karena teknik yang digunakan untuk saat ini masih terhitung ‘konvensional’ dan belum mumpuni.
Melansir CSO, hal ini dikarenakan malware tersebut ternyata bukanlah malware ‘biasa’ yang kita temukan atau hadapi, namun dibuat, dan dirancang sedemikian rupa oleh kecerdasan buatan ChatGPT. Untuk menyiasati pendeteksian, malware tersebut mampu memutasikan dirinya sendiri untuk menjadi lebih kuat, membuat pendeteksian sulit untuk dilakukan.
Memanfaatkan API dari Kecerdasan Buatan untuk Menciptakan Malware
Kalau brott membuka laman ChatGPT, tentunya akan disodorkan apa-apa saja hal yang boleh dilakukan dengan kecerdasan buatan Open AI tersebut. Tampak pada bagian kanan, bahwa kecerdasan buatan ini bisa saja memberikan informasi yang kurang akurat, buat informasi dan rekomendasi berbahaya, dan pengetahuan yang dibatasi sampai akhir tahun 2021.
Namun, yang namanya oknum jahat, ada saja celah yang dimanfaatkan untuk membuat sesuatu yang merugikan, dalam kasus ini ialah malware. Di mana kecerdasan buatan ini dimanfaatkan Application Programming Interface (API)-nya untuk kemudian dimanfaatkan oknum jahat tersebut membuat malware tanpa harus terkena batasan.
Salah satu contohnya dapat kita temukan pada aplikasi yang dibuat pada Python dan sama sekali tidak berbahaya, dapat melontarkan pertanyaan alias query melalui API kecerdasan buatan tersebut setiap kali apikasi tersebut dijalankan.
Yang artinya, aksi ini dilakukan tanpa harus dieksekusi terlebih dahulu, dan menghentikan ChatGPT dalam pemrosesannya. Melalui cara ini pula, malware dapat diciptakan untuk terus bermutasi untuk menjadi semakin kuat dan sulit untuk dideteksi bahkan oleh sistem terbaik sekalipun kecuali dengan bantuan AI.
Sudah Mengintai Semenjak Awal Tahun 2023?
Terkait malware yang bisa bermutasi ini ternyata sudah diamati oleh ahli di bidangnya dari perusahaan HYAS InfoSec bernama Jeff Sims.
Di mana dirinya telah menerbitkan laporan terkait malware yang mampu bermutasi dinamakan Black Mamba, yang dapat kalian baca di sini. Lalui laporan yang ia kerjakan, ia mampu mendemonstrasikan bahaya dari kecerdasan buatan dalam membuat malware keylogger yang benar-benar sulit untuk dideteksi oleh EDR.
Bahkan, bisa saja sudah ada yang lebih dahulu berhasil menciptakan malware yang mampu bermutasi untuk kebutuhan pribadinya dan tidak bisa terdeteksi oleh teknik keamanan terkini sekalipun.
Bila kalian membaca lebih lanjut, yang menjadi limitasi dari malware yang dibantu dengan ChatGPT hanya dibatasi oleh ‘kreativitas’ atau input yang dimiliki oknum tersebut. Alhasil, hal ini akan mendesak perusahaan keamanan siber untuk meningkatkan keamanan dengan bantuan kecerdasan buatan untuk minimalisir hal yang tidak kita inginkan.
Bantuan AI akan Dibutuhkan untuk Memperkuat Keamanan?
Bila berdasarkan fakta yang ada dan sudah terjadi di lapangan, termasuk banyak sekali kasusnya, tidak menutup kemungkinan teknik keamanan siber akan membutuhkan bantuan AI untuk mampu mendeteksi potensi yang mungkin saja terjadi.
Namun, hal ini akan cukup menantang, karena teknologi yang kita miliki saat ini masih seumuran jagung, dan masih terkatung-katung akan digunakan untuk apa dan benefitnya untuk umat manusia.
Walau memang kemampuan AI saat ini sudah bisa dikatakan cukup mengerikan, namun tampaknya masih akan membutuhkan waktu untuk dapat diregulasi supaya tidak dimanfaatkan oleh orang yang salah ke depannya.
Baca juga informasi menarik lainnya terkait Tech atau artikel lainnya dari Bima. For further information and other inquiries, you can contact us via author