Kasus penipuan dengan teknik voice spoofing atau pemalsuan suara berbasis kecerdasan buatan (AI) kini mulai marak terjadi. Pakar Teknik Informatika Universitas Muhammadiyah (UM) Surabaya Lukman Hakim membagikan cara mencegah penipuan modus baru tersebut.
Menurut Lukman, kasus penipuan dengan pemalsuan suara menjadi alarm serius bagi masyarakat Indonesia. Modus ini dinilai semakin mudah dilakukan dan semakin sulit dikenali.
"Saat ini suara manusia bisa dipalsukan hanya dengan 3-10 detik sampel. Itu sangat berbahaya," kata Lukman, Selasa (2/12/2025)
Lukman mengatakan, pelaku hanya membutuhkan rekaman suara pendek yang bisa diambil dari pesan suara WhatsApp, unggahan TikTok, hingga potongan audio dari media sosial untuk membuat kloning suara seseorang. Dengan bantuan aplikasi AI voice generator atau deepfake voice, suara itu bisa disusun ulang menjadi kalimat apa pun dalam waktu kurang dari dua menit.
"Dulu manipulasi suara butuh perangkat canggih. Sekarang aplikasi gratis pun bisa membuat tiruan suara yang sangat meyakinkan," ujarnya.
Ia menjelaskan, pola serangan voice spoofing hampir selalu memanfaatkan dua hal, yakni emosi korban dan keterbatasan literasi digital. Pelaku kerap menciptakan suasana darurat mengaku sebagai anak yang mengalami kecelakaan, petugas bank yang menemukan transaksi mencurigakan, atau aparat yang meminta verifikasi data.
"Dalam kondisi panik, korban biasanya langsung mengikuti perintah, mulai dari mentransfer uang, memberikan kode OTP, hingga membagikan akses akun digital. Kerugian dalam sejumlah kasus bahkan mencapai ratusan juta rupiah," jelasnya.
Dia juga menyoroti riset internasional yang menunjukkan bahwa voice spoofing bukan hanya menipu manusia, tetapi juga mampu menembus sistem keamanan biometrik suara yang selama ini dianggap aman. Penelitian Hernández-Nava (2023) dan Zhou (2022) menunjukkan adanya celah serius dalam voice authentication yang belum sepenuhnya dapat diatasi oleh teknologi anti-spoofing saat ini.
Lukman pun memberikan beberapa cara yang menurutnya penting dipahami masyarakat untuk mencegah modus penipuan tersebut. Pertama, Jangan percaya hanya karena suaranya mirip. Jika ada pihak yang mengaku dari bank atau institusi resmi, putuskan sambungan, lalu hubungi nomor resmi institusi tersebut secara mandiri.
Kedua, kendalikan emosi. Pelaku sengaja membuat kepanikan agar korban tidak sempat berpikir rasional. Ketiga, jangan berikan kode OTP, PIN, atau data pribadi apa pun dan periksa aktivitas rekening dan aplikasi finansial secara rutin. Segera laporkan ke bank jika ada transaksi yang tidak di kenali.
"Seseorang juga perlu verifikasi melalui saluran lain. Apabila seseorang menelepon mengaku sebagai anak/kerabat, hubungi langsung orang tersebut melalui nomor asli," ujarnya.
Selanjutnya, memastikan layanan yang digunakan memiliki sistem anti-spoofing. Terutama layanan yang memakai verifikasi suara sebagai metode autentikasi.
"Pemerintah, lembaga keuangan, dan ekosistem digital memiliki peran penting dalam edukasi publik. Namun, benteng pertama tetap ada di tangan masyarakat. Ancaman digital tidak lagi datang dalam bentuk pesan teks atau tautan mencurigakan. Kini suara lah yang disalahgunakan untuk menipu," katanya.
"Dengan memahami cara kerja modus ini dan mengenali tanda-tandanya, masyarakat dapat lebih siap menghadapi kejahatan siber berbasis AI yang kian canggih dan sulit dibedakan dari interaksi nyata," pungkasnya.
Simak Video "Video: Apakah AI Bisa Menggantikan Peran Dokter?"
(auh/hil)