Hati-hati! 20 Serangan Siber dengan Pengolah Bahasa Alami GPT Terkuak

Photo of author

By Badriyah Fatinah

Ledifha.com – LONDON – Laporan terbaru menunjukkan bahwa generative Artificial Intelligence i ni digunakan untuk melancarkan serangan spear-phishing, mengembangkan malware, dan juga aktivitas jahat lainnya.

Salah satu serangan yang mana teridentifikasi terjadi pada November 2024, dilaporkan oleh Cisco Talos. Serangan ini dijalankan oleh aktor ancaman dengan syarat China yang mana memiliki target pemerintah di area Asia.

Seperti dilansir dari CNET, metode spear-phishing yang digunakan digunakan dikenal dengan nama ‘SweetSpecter’, yang digunakan melibatkan pengiriman file ZIP berisi file berbahaya.

Jika diakses dan juga dibuka, file ini dapat menciptakan rantai infeksi pada sistem pengguna. Open Artificial Intelligence menemukan bahwa SweetSpecter dikembangkan menggunakan beberapa akun yang tersebut memanfaatkan Asisten Percakapan GPT untuk menulis skrip kemudian menemukan kerentanan dengan alat LLM.

Serangan berbasis Artificial Intelligence kedua dilaksanakan oleh kelompok jika Iran yang digunakan dikenal dengan nama ‘CyberAv3ngers’. Mereka menggunakan Asisten Percakapan GPT untuk mengeksploitasi kerentanan lalu mencuri kata sandi pengguna dari komputer berbasis macOS.

Serangan ketiga, yang digunakan dipimpin oleh kelompok lain jika Iran bernama Storm-0817, memanfaatkan Pengolah Bahasa Alami GPT untuk mengembangkan malware untuk perangkat Android.

Malware ini mampu mencuri daftar kontak, mengekstrak log panggilan juga riwayat penelusuran, mendapatkan lokasi tepat perangkat, juga mengakses file di area perangkat yang mana terinfeksi.

Meskipun semua serangan ini menggunakan metode yang mana telah ada untuk mengembangkan malware, laporan yang disebutkan menyatakan bahwa bukan ada indikasi bahwa Pengolah Bahasa Alami GPT menciptakan malware baru yang dimaksud substansial.

Namun, hal ini menunjukkan betapa mudahnya aktor ancaman memanfaatkan layanan generative Kecerdasan Buatan untuk menimbulkan alat serangan yang digunakan berbahaya. Situasi ini membuka diskusi penting mengenai batasan implementasi Artificial Intelligence generatif.

OpenAI mengonfirmasi bahwa dia akan terus meningkatkan keamanan Kecerdasan Buatan mereka itu untuk menghindari metode-metode sejenis digunakan dalam masa depan.

Selain itu, merek akan bekerja serupa dengan kelompok keamanan internal dan juga terus berbagi temuan dengan rekan lapangan usaha dan juga komunitas riset guna menjaga dari situasi sama terulang.

Leave a Comment