Waspada! PAID Ungkap Taktik Baru Penyebar Hoaks Pemilu Lewat AI
JAKARTA – Pusat Analisis Informasi Digital (PAID) mengeluarkan peringatan keras mengenai evolusi taktik penyebaran hoaks menjelang pemilu, yang kini memanfaatkan kecerdasan buatan (AI) untuk meningkatkan skala, kecepatan, dan realisme. Dalam laporan mendalam terbarunya, PAID mengungkapkan bagaimana teknologi generatif AI, mulai dari model bahasa besar (LLM) hingga deepfake visual dan klona suara, menjadi senjata baru yang merusak integritas demokrasi dan mengancam kepercayaan publik. Ancaman ini, menurut PAID, jauh melampaui disinformasi konvensional, menuntut respons yang lebih terkoordinasi dan canggih dari seluruh elemen masyarakat.
Ancaman Ganda: Skala, Kecepatan, dan Realisme yang Ditingkatkan AI
Direktur Eksekutif PAID, Dr. Surya Wijaya, menjelaskan bahwa penggunaan AI dalam kampanye disinformasi bukanlah sekadar peningkatan, melainkan sebuah lompatan kuantum. “Jika dulu penyebar hoaks harus mengerahkan tim besar untuk membuat konten palsu, kini satu operator dengan akses ke AI generatif dapat memproduksi ratusan bahkan ribuan narasi, gambar, atau video palsu dalam hitungan jam,” ujar Dr. Wijaya dalam konferensi pers virtualnya. Kemampuan AI untuk belajar dari data masif memungkinkan penciptaan konten yang semakin sulit dibedakan dari aslinya, menembus batas-batas deteksi manusia dan bahkan sistem otomatis yang belum diperbarui.
PAID mengidentifikasi tiga pilar utama dalam taktik baru ini: otomatisasi produksi konten, personalisasi target audiens, dan peningkatan realisme media sintetis. Otomatisasi memungkinkan penyebaran hoaks secara massal dan simultan di berbagai platform digital, dari media sosial hingga aplikasi pesan instan. Personalisasi memastikan bahwa hoaks tertentu didistribusikan kepada kelompok audiens yang paling rentan atau paling mungkin percaya, berdasarkan data demografi dan perilaku digital mereka yang terkumpul dari jejak daring. Sementara itu, realisme media sintetis yang dihasilkan AI, seperti deepfake, membuat narasi palsu menjadi lebih meyakinkan dan berpotensi viral, memicu emosi kuat yang sulit diredam oleh fakta.
Ancaman ganda ini menciptakan skenario di mana kebenaran menjadi komoditas langka, dan narasi palsu, yang disesuaikan dengan preferensi individu, dapat menyebar tanpa hambatan, membentuk gelembung informasi yang sulit ditembus. Ini bukan lagi tentang ‘berita palsu’ yang dibuat secara manual, melainkan ‘realitas palsu’ yang diproduksi secara otomatis dan disebarkan secara strategis.
Deepfake dan Klona Suara: Manipulasi Multimodal yang Menyesatkan
Salah satu taktik paling mengerikan yang diungkap PAID adalah penggunaan deepfake dan klona suara. Deepfake adalah video atau gambar yang dimanipulasi menggunakan AI sehingga tampak asli, seringkali menampilkan tokoh publik yang seolah-olah mengatakan atau melakukan sesuatu yang tidak pernah mereka lakukan. “Bayangkan sebuah video kandidat pemilu yang seolah-olah mengakui korupsi, menyerukan kekerasan, atau mengeluarkan pernyataan rasis, padahal itu sepenuhnya palsu. Dampaknya bisa menghancurkan reputasi, memicu gejolak sosial, dan bahkan mempengaruhi hasil pemilu dalam sekejap mata,” papar Dr. Wijaya, menjelaskan potensi destruktif teknologi ini.
Tidak hanya visual, teknologi klona suara juga menjadi ancaman serius. Dengan hanya beberapa detik rekaman suara asli, AI dapat mereplikasi suara seseorang dengan akurasi yang luar biasa, lengkap dengan intonasi dan aksen khas, memungkinkan pembuat hoaks untuk menciptakan pesan audio palsu. Ini bisa berupa panggilan telepon yang meniru suara pejabat pemilu yang memberikan informasi salah tentang jadwal atau lokasi pencoblosan, atau rekaman dukungan palsu dari tokoh masyarakat atau agama yang tidak pernah mereka berikan. “Masyarakat perlu sangat berhati-hati dan tidak mudah percaya pada konten audio-visual yang beredar, terutama jika itu memicu emosi kuat, terlihat terlalu kontroversial, atau mengklaim berasal dari sumber yang tidak diverifikasi,” tambah analis senior PAID, Maya Rachman. Teknologi ini mempersulit proses verifikasi karena indera penglihatan dan pendengaran manusia seringkali langsung mempercayai apa yang mereka alami secara langsung.
Hoaks Berbasis Teks dari LLM: Narasi Palsu yang Tersegmentasi
Di samping ancaman media sintetis, PAID juga menyoroti penggunaan model bahasa besar (LLM) seperti ChatGPT atau sejenisnya untuk menghasilkan teks hoaks. LLM dapat menulis artikel berita palsu, postingan media sosial, komentar, bahkan esai panjang yang sangat koheren, persuasif, dan tampak kredibel. Yang lebih mengkhawatirkan adalah kemampuan LLM untuk menyesuaikan gaya bahasa, nada, dan argumen agar sesuai dengan target audiens tertentu, menjadikannya alat yang sempurna untuk perang informasi yang terfragmentasi.
“LLM memungkinkan pembuatan ribuan variasi narasi palsu untuk segmen pemilih yang berbeda. Misalnya, satu hoaks tentang isu ekonomi dapat disajikan dengan gaya bahasa populis yang sarat janji untuk kelompok masyarakat tertentu, dan dengan gaya yang lebih teknis dengan data yang dimanipulasi untuk kelompok lain yang lebih teredukasi, semua dirancang untuk memanipulasi opini dan menggerakkan sentimen,” jelas Maya Rachman. Konten semacam ini sulit dideteksi karena tidak hanya menggunakan kata kunci yang mirip dengan informasi asli, tetapi juga mampu menghindari pola-pola yang biasanya ditandai oleh filter spam atau detektor hoaks konvensional yang mengandalkan analisis pola kebahasaan atau metadata. Konten yang dihasilkan AI ini seringkali lolos dari deteksi karena kemiripannya dengan tulisan manusia.
PAID juga menemukan bahwa LLM digunakan untuk membuat bot
Referensi: Live Draw Japan hari Ini, Live Draw Taiwan Hari ini, Live Draw Cambodia