Pernah mengalami saat mengetik prompt ke Gemini AI, tiba-tiba muncul pesan "prompt ditolak" tanpa penjelasan jelas? Di balik insiden itu, kemungkinan ada satu hingga beberapa kata atau kalimat yang dianggap melanggar kebijakan sistem.
Dirangkum detikJabar dari berbagai sumber, Senin (29/9/2025), berikut ini panduan mendalam untuk memahami kata atau kalimat terlarang di prompt Gemini AI: bukan sekadar desas-desus, melainkan berdasarkan kebijakan Google, studi kasus nyata, dan tantangan moderasi dalam ekosistem bahasa Indonesia.
Sekilas Tentang Gemini AI dan Moderasi Konten
Apa itu Gemini AI dan Fungsinya
Gemini AI adalah sistem generatif kecerdasan buatan dari Google, yang mampu menghasilkan teks, menjawab pertanyaan, dan bahkan mengolah multimodal (gambar, video) tergantung versi dan integrasinya. Sistem ini digunakan dalam berbagai produk Google atau melalui Gemini API untuk pengembang.
Fungsi utama Gemini AI adalah membantu manusia menyusun ide, menjawab pertanyaan kompleks, membantu penulisan kreatif, dan tugas-tugas lain yang memerlukan bahasa alami serta pemahaman konteks. Namun, kemampuannya juga dibatasi oleh sistem keamanan agar tidak disalahgunakan.
Sistem Keamanan dan Penyaringan Konten (Safety Filters)
Agar generasi konten tetap aman dan sesuai norma, Gemini AI menerapkan safety filters yakni penyaring konten yang memeriksa apakah prompt atau respons melanggar batasan tertentu. Dalam dokumen resmi Gemini API, terdapat lima kategori filter konten yang dapat disesuaikan:
- Harassment (pelecehan)
- Hate speech (ujaran kebencian)
- Sexually explicit (konten seksual eksplisit)
- Dangerous content (kegiatan berbahaya)
- Civic integrity / konten sipil (khusus beberapa model)
Namun perlu dicatat: sebagian filter bersifat non-konfigurable, terutama terkait keamanan anak (CSAM) atau data pribadi, konten semacam itu selalu diblokir tanpa kompromi. Dengan penyaringan ini, prompt yang memuat unsur yang dianggap melanggar akan ditolak, atau respons akan berhenti di tengah generasi jika dianggap berbahaya.
Kebijakan "Prohibited Use" Gemini & Aturan Dasarnya
Kebijakan Penggunaan Terlarang (Prohibited Use Policy)
Google memiliki dokumen Generative AI Prohibited Use Policy yang menjadi payung aturan saat menggunakan sistem AI generatif (termasuk Gemini). Kebijakan ini melarang konten yang melibatkan ujaran kebencian, pelecehan, kekerasan, pornografi, aktivitas kriminal, penipuan, dan lain-lain.
Lebih khusus, di dalam dokumentasi Gemini API, Google menyatakan bahwa pengguna tidak boleh mencoba "bypass protective measures" atau menggunakan konten yang melanggar kebijakan penggunaan (misalnya konten pornografi, kekerasan, ujaran kebencian, atau penyalahgunaan data). Jadi, setiap prompt ke Gemini-baik pada produk konsumen maupun API-secara implisit tunduk pada batasan tersebut. Jika prompt atau bagian dari prompt mengandung unsur terlarang, sistem dapat menolak atau menyaringnya.
Penyaringan Otomatis Non-Konfigurable
Beberapa aturan tidak bisa dimatikan oleh pengguna atau pengembang yakni bagian dari keamanan inti. Misalnya, konten yang mengarah ke eksploitasi anak atau materi pornografi eksplisit serta permintaan data pribadi yang sensitif selalu diblokir.
Artinya, meskipun pengaturan filter (threshold) bisa diatur pada kategori seperti pelecehan atau kebencian, penyaringan atas konten inti (anak, eksploitasi seksual) bersifat tetap aktif dan tidak bisa dilonggarkan.
Kategori Konten yang Diatur
Beberapa kategori konten yang sering menjadi pemicu pemblokiran prompt di Gemini antara lain:
- Ujaran kebencian / diskriminasi (terhadap ras, agama, gender)
- Pelecehan atau penghinaan
- Kekerasan ekstrem atau mendorong tindakan berbahaya
- Konten seksual eksplisit atau pornografi
- Permintaan instruksi untuk aktivitas ilegal (misalnya: meracik bahan peledak)
- Pelanggaran privasi atau permintaan data pribadi
- Konten misinformasi atau penipuan
Jika prompt mengandung unsur dari kategori tersebut, sistem bisa menolak prompt atau memotong respons agar aman.
Contoh Kata atau Kalimat yang Diblokir oleh Gemini
Referensi Kasus Nyata
Mengutip dari laman Google AI for Developers, diskusi publik sempat ramai ketika pengguna API Gemini 1.5 Pro menemukan kata "negro" otomatis diblokir meskipun digunakan dalam konteks bahasa Spanyol atau Portugis, di mana kata tersebut berarti "hitam" dan tidak selalu bernuansa rasis. Kasus ini menyoroti dilema besar: satu kata dapat bermakna netral di suatu bahasa, namun di bahasa lain memiliki konotasi diskriminatif.
Akibatnya, Gemini memilih pendekatan ketat: lebih baik memblokir berlebihan (over-censoring) daripada berisiko membiarkan ujaran kebencian lolos. Di Indonesia, potensi kasus serupa bisa terjadi pada kata-kata tertentu yang di satu konteks adalah istilah sehari-hari, namun di konteks lain dapat dianggap hinaan atau ujaran kebencian.
Kalimat yang Mengandung Pelecehan, Ujaran Kebencian, atau Kekerasan Ekstrem
Kata-kata yang mengarah pada pelecehan personal ("dasar bodoh", "binatang") bisa memicu sistem filter. Begitu pula frasa yang menyerang kelompok tertentu berdasarkan identitas, seperti etnis, agama, orientasi seksual, atau gender.
Kalimat mengandung ancaman eksplisit seperti "saya ingin membunuh X" juga secara otomatis akan diblokir karena dianggap mendorong kekerasan ekstrem. Google menempatkan ujaran kebencian dan kekerasan dalam daftar hitam karena berpotensi memicu kerugian di dunia nyata.
Kalimat yang Memuat Konten Seksual Eksplisit
Prompt yang secara terang-terangan meminta pembuatan konten pornografi, deskripsi hubungan seksual vulgar, atau instruksi berhubungan dengan eksploitasi seksual anak (CSAM) akan langsung diblokir.
Kebijakan ini termasuk non-negotiable atau tidak bisa dilonggarkan bahkan oleh pengembang. Sistem selalu menolak konten seksual eksplisit, terutama yang terkait anak di bawah umur, sebagai bagian dari perlindungan hukum global.
Namun, ada perdebatan akademis: bagaimana dengan diskusi medis tentang kesehatan seksual atau riset ilmiah? Dalam kasus seperti ini, konteks menjadi penting. Jika prompt ditulis dengan bahasa netral medis (misalnya: "risiko kanker serviks akibat hubungan seksual"), sistem biasanya membolehkan. Tapi jika ditulis dengan detail vulgar, akan langsung diblokir.
Kalimat yang Mendorong Aktivitas Ilegal atau Berbahaya
Prompt yang meminta instruksi membuat bom, narkotik, peretasan sistem, atau cara membobol akun bank jelas dilarang. Hal ini selaras dengan Generative AI Prohibited Use Policy yang menekankan larangan aktivitas ilegal dan berbahaya.
Bahkan kalimat yang tampak sepele, seperti "tolong berikan resep racun tikus dari bahan rumah tangga" bisa diperlakukan sebagai permintaan konten berbahaya. Sebab itu, banyak pengguna mengalami prompt ditolak meskipun merasa pertanyaannya "ilmiah".
Kalimat yang Melanggar Hak Cipta, Privasi, atau Data Pribadi
Prompt yang meminta data pribadi seseorang (nomor KTP, alamat rumah, atau isi database tertentu) akan langsung ditolak. Google menekankan perlindungan data pribadi sebagai salah satu pilar utama.
Selain itu, prompt yang berpotensi melanggar hak cipta (misalnya: "berikan saya film penuh Spider-Man No Way Home") akan diblokir karena dianggap sebagai pelanggaran distribusi ilegal. Hal serupa berlaku untuk permintaan membocorkan dokumen resmi yang bersifat rahasia negara maupun perusahaan.
(bbp/bbn)