AI: Memprediksi Serangan Siber, Bukan Ramalan Masa Depan

Ketika AI generatif pertama kali muncul, bisnis telah memasuki era eksperimen baru. Mereka berinvestasi pada inovasi yang sebenarnya belum mereka pahami dan percayai.

Namun, bagi para profesional keamanan siber, memanfaatkan potensi AI telah menjadi impiannya selama bertahun-tahun, sebab tonggak sejarah akan segera dicapai: kemampuan untuk memprediksi serangan.

Mimpi dan Keraguan: Mungkinkah Serangan Siber Diprediksi?

Dikutip dari Fortune, ide memprediksi segala hal selalu menjadi “holy grail” dalam keamanan siber, dan wajar jika disambut dengan skeptisisme yang signifikan.

Klaim apa pun tentang “kemampuan prediksi” seringkali hanyalah promosi pemasaran atau aspirasi yang belum matang.

Namun, kini AI berada di titik balik di mana akses ke lebih banyak data, model yang lebih baik, dan pengalaman bertahun-tahun telah membuka jalan yang lebih jelas untuk mencapai prediksi dalam skala besar.

Melebihi Chatbot: Model Dasar dan Kemampuan Penalaran

Lalu, apakah chatbot digunakan sebagai peramal siber? Jawabannya, tentu tidak. Hal ini dikarenakan AI generatif belum mencapai puncaknya dengan chatbot generasi berikutnya.

Chatbot hanyalah permulaan, membuka jalan bagi model dasar dan kemampuan penalarannya untuk mengevaluasi kemungkinan serangan siber dengan tingkat kepercayaan tinggi, serta bagaimana dan kapan serangan itu akan terjadi.

Model AI Klasik: Kekuatan dan Batasannya

Untuk memahami keuntungan yang dapat diberikan model dasar kepada tim keamanan dalam waktu dekat, kita harus terlebih dahulu memahami keadaan AI saat ini.

Model AI klasik dilatih pada kumpulan data tertentu untuk kasus penggunaan spesifik agar menghasilkan hasil tertentu dengan kecepatan dan ketepatan. Inilah keunggulan utama aplikasi AI dalam keamanan siber.

Hingga saat ini, inovasi yang ditambah dengan otomatisasi terus memainkan peran dalam mengelola ancaman dan melindungi identitas serta privasi data pengguna.

Dengan AI klasik, jika sebuah model dilatih pada Clop ransomware (jenis malware berbahaya yang mematikan akses ke file pada sistem target), ia akan mengidentifikasi berbagai tanda dan pola.

Identifikasi tersebut dapat menunjukkan bahwa ransomware ada di lingkungan Anda dan segera melaporkannya kepada tim keamanan.

Proses tersebut dilakukan dengan kecepatan dan ketepatan yang luar biasa, melampaui analisis manual.

Model AI yang Dilatih Sendiri: Chatbot sebagai Asisten

Maraknya AI generatif baru-baru ini mendorong Large Language Models (LLMs) ke pusat perhatian dalam sektor keamanan siber.

LLMs memiliki kemampuan mengambil dan meringkas berbagai bentuk informasi untuk analis keamanan menggunakan bahasa alami dengan cepat.

Model ini memberikan interaksi seperti manusia kepada tim keamanan, membuat proses perencanaan, dan analisis informasi teknis yang kompleks menjadi jauh lebih mudah diakses.

LLMs mulai memberdayakan tim untuk membuat keputusan lebih cepat dan lebih akurat. Dalam beberapa kasus, tindakan yang sebelumnya membutuhkan waktu berminggu-minggu kini dapat diselesaikan dalam hitungan hari atau bahkan jam.

Jadi, kecepatan dan ketepatan menjadi karakteristik penting dalam inovasi terbaru ini. Sebagai contoh, terobosan yang diperkenalkan dengan chatbot AI IBM Watson Assistant dan Microsoft Copilot.

Model Dasar: Masa Depan Prediksi Serangan

Kemajuan LLMs memungkinkan kita untuk memanfaatkan potensi penuh model dasar. Model dasar dapat dilatih pada data multimodal, tidak hanya teks tetapi juga gambar, audio, video, data jaringan, perilaku, dan hal lainnya.

Mereka dapat melampaui kemampuan pemrosesan bahasa sederhana LLMs dan secara signifikan meningkatkan parameter AI saat ini.

Apa artinya? Artinya, dalam contoh ransomware sebelumnya, model dasar tidak perlu melihat Clop ransomware untuk mengetahui perilaku anomali dan mencurigakan.

Oleh karena itu, dalam kasus ini, mereka dapat mendeteksi ancaman yang sulit dipahami dan belum pernah terlihat sebelumnya.

Kemampuan ini akan meningkatkan produktivitas analisis keamanan dan mempercepat investigasi dan respon mereka.

Masa Depan: Uji Coba & Prediksi Serangan yang Berhasil

Sekitar setahun lalu, IBM memulai proyek percobaan seperti:

  • Menjadi pelopor model dasar keamanan untuk mendeteksi ancaman yang sebelumnya tidak terlihat dan meramalkannya.
  • Memberdayakan komunikasi dan penalaran intuitif di seluruh keamanan perusahaan tanpa mengorbankan privasi data.

Dengan demikian, dalam uji coba klien, model tersebut telah memprediksi 55 serangan, beberapa hari sebelum serangan benar-benar terjadi.

Dari 55 prediksi tersebut, analisis membuktikan bahwa 23 upaya tersebut terjadi seperti yang diharapkan, sementara banyak upaya lainnya diblokir.

Baca Juga: Menelusuri Jejak AI: Verifikasi Konten untuk Melawan Misinformasi