Kehadiran kecerdasan buatan atau artificial intelligence (AI) di tengah-tengah kehidupan manusia bagaikan pisau bermata dua. Di satu sisi AI sangat memudahkan kehidupan manusia, namun di sisi lain teknologi ini bisa membawa petaka.
Dilansir dari detikINET, salah satu kekhawatiran akan kehadiran AI adalah tentang betapa mudahnya AI berbohong kepada kita dan apa dampaknya di masa depan. Bahkan, AI kini disebut-sebut sebagai teknologi yang ahli dalam menipu manusia.
Dilansir dari BGR, disebutkan bahwa Chat GPT dan sistem AI lainnya memiliki kecenderungan "menghalusinasikan" informasi, dan mengada-ada. Hal ini tentunya menjadi kelemahan dalam cara kerja AI dan dikhawatirkan dapat diperluas sehingga memungkinkan AI menipu manusia lebih banyak lagi.
SCROLL TO CONTINUE WITH CONTENT
Tapi apakah AI mampu berbohong dengan kita?
Para peneliti yang menulis di The Conversation mencoba menjawab pertanyaan tersebut. Mereka memberikan contoh yaitu CICERO AI dari Meta.
Teknologi ini disebut contoh paling mengganggu tentang seberapa AI bisa menipu. Model ini dirancang untuk memainkan permainan penaklukan dunia pembentukan aliansi Diplomacy.
Meta mengklaim mereka membangun CICERO menjadi "sangat jujur dan membantu", dan model ini tidak akan "menusuk dari belakang" dan menyerang sekutu.
Untuk menyelidiki klaim tersebut peneliti melihat seksama data permainan Meta dari eksperimen CICERO. Hasil pengamatan menunjukkan, AI Meta ternyata adalah ahli dalam menipu.
Salah satu contohnya, CICERO terlibat dalam penipuan yang direncanakan. Bermain sebagai Prancis, AI menghubungi Jerman (pemain manusia) dengan rencana untuk menipu Inggris (pemain manusia lainnya) agar meninggalkan dirinya terbuka untuk invasi.
Setelah bersekongkol dengan Jerman untuk menyerbu Laut Utara, CICERO memberi tahu Inggris bahwa ia akan membela Inggris jika ada yang menyerbu Laut Utara. Setelah Inggris yakin bahwa Prancis/CICERO melindungi Laut Utara, CICERO melaporkan kepada Jerman bahwa ia siap menyerang.
Contoh ini hanyalah salah satu dari sekian banyak yang membuktikan bahwa CICERO terlibat dalam perilaku menipu. AI secara teratur mengkhianati pemain lain.
Selain CICERO, sistem lain telah belajar bagaimana cara menggertak dalam poker, bagaimana cara berpura-pura dalam StarCraft II dan bagaimana cara menyesatkan dalam simulasi negosiasi ekonomi.
Bahkan model bahasa besar (LLM) telah menunjukkan kemampuan menipu yang signifikan. Dalam kasus lainnya, GPT-4 berpura-pura menjadi manusia yang tunanetra dan meyakinkan seorang pekerja TaskRabbit untuk menyelesaikan CAPTCHA "I'm not a robot" untuknya.
Model LLM lain telah belajar berbohong untuk memenangkan permainan deduksi sosial, di mana pemain bersaing untuk "membunuh" satu sama lain dan harus meyakinkan kelompok bahwa mereka tidak bersalah.
Berbagai temuan tersebut membuat para peneliti semakin khawatir kemampuan AI dalam menipu dapat disalahgunakan dengan berbagai cara. Pasalnya, kemampuan tersebut berpotensi dimanfaatkan untuk melakukan penipuan, memalsukan pemilu dan menghasilkan propaganda. Potensi risiko juga disebut hanya dibatasi oleh imajinasi dan pengetahuan teknis individu jahat.
Tak hanya sampai di situ, sistem AI canggih dapat secara otonom menggunakan penipuan untuk lepas dari kendali manusia, seperti dengan menipu tes keselamatan yang dikenakan pada mereka oleh pengembang dan regulator.
Dalam satu eksperimen, peneliti membuat simulator kehidupan buatan di mana tes keselamatan eksternal dirancang untuk menghilangkan agen AI yang bereplikasi cepat. Sebaliknya, agen AI belajar berpura-pura mati, untuk menyamarkan tingkat replikasi cepat mereka tepat ketika sedang dievaluasi.
Di masa depan, sistem AI otonom canggih mungkin cenderung menunjukkan tujuan yang tidak dimaksudkan oleh pemrogram manusia.
Menurut peneliti, ada kebutuhan yang jelas untuk mengatur sistem AI yang mampu menipu. Undang-Undang AI Uni Eropa adalah salah satu kerangka peraturan paling berguna yang dimiliki saat ini. Undang-undang ini memberikan setiap sistem AI salah satu dari empat tingkat risiko: minimal, terbatas, tinggi dan tidak dapat diterima.
"Kami berpendapat bahwa penipuan AI menimbulkan risiko besar bagi masyarakat, dan sistem yang mampu melakukan hal ini harus diperlakukan sebagai "berisiko tinggi" atau "berisiko tidak dapat diterima" secara default," ujar para peneliti.
(urw/alk)