Suara.com - Otoritas Jasa Keuangan (OJK) membeberkan modus penipuan Artificial Intelligence (AI) di Industri Jasa Keuangan. Lantaran, beberapa masyarakat terkena modus AI di industri jasa keuangan.
Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi dan Pelindungan Konsumen OJK Friderica Widyasari Dewi mengatakan ada dua cara modus AI yang sering digunakan. Salah satunya meniru suara dan wajah.
"Teknologi AI memungkinkan pelaku untuk merekam dan meniru suara seseorang, seperti teman, kolega, atau keluarga. Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban," katanya dalam siaran pers yang diterim di Jakarta, Jumat (1/8/2025),
Lalu, modus kedua yakni teknologi AI juga memungkinkan pelaku untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat.
LVideo ini dapat digunakan untuk meyakinkan korban bahwa mereka sedang berkomunikasi dengan orang yang mereka kenal sehingga korban merasa lebih percaya," katanya.
Dia pun memberikan cara pencegahan penipuan melalui Artificial Intelligence (AI). Lantaran, modus penggunaan AI sering dilakukan oleh penipu di industri jasa keuangan.
Salah satunya, masyarakat melakukan verifikasi informasi jika ada penawaran di industri jasa keuangan.
"Oleh sebab itu, kami menghimbau masyarakat untuk memperhatikan beberapa cara untuk mencegah penipuan AI antara lain yakni verifikasi informasi, jika menerima permintaan yang tidak biasa, terutama yang meminta uang atau informasi pribadi, verifikasi terlebih dahulu dengan orang tersebut melalui saluran komunikasi yang lain," katanya.
Lanjutnya, nasabah juga harus menjaga kerahasiaan informasi pribadi. Salah satunya pernah memberikan informasi pribadi atau keuangan kepada seseorang yang tidak dapat anda verifikasi dengan pasti identitasnya.
Baca Juga: AI Diprediksi Sumbang Rp1.800 Triliun ke Ekonomi RI, Siap Jadi Motor Utama Pertumbuhan
"Hati-hati dengan video atau suara yang tidak biasanya, waspadai video atau suara yang terlihat atau terdengar tidak biasa meskipun datang dari orang yang dikenal," katanya.
Menurut dia, kemajuan teknologi dalam Artificial Intelligence (AI) memiliki potensi penyalahgunaan untuk membuat tiruan suara (voice cloning) dan tiruan wajah (deepfake).
Salah satunya dengan tujuan antara lain menipu dengan cara yang terlihat dan terdengar meyakinkan sehingga menuntut masyarakat untuk lebih waspada dalam melakukan transaksi keuangan.
Berita Terkait
Terpopuler
- Media Belanda Heran Mauro Zijlstra Masuk Skuad Utama Timnas Indonesia: Padahal Cadangan di Volendam
- KPU Tak Bisa Buka Ijazah Capres-Cawapres ke Publik, DPR Pertanyakan: Orang Lamar Kerja Saja Pakai CV
- Harta Kekayaan Wali Kota Prabumulih, Disorot usai Viral Pencopotan Kepala Sekolah
- Anak Wali Kota Prabumulih Bawa Mobil ke Sekolah, Padahal di LHKPN Hanya Ada Truk dan Buldoser
- Profil Djamari Chaniago: Jenderal yang Dulu Pecat Prabowo, Kini Jadi Kandidat Kuat Menko Polkam
Pilihan
-
Jaminan Laga Seru! Ini Link Live Streaming Bayern Munchen vs Chelsea
-
Kendal Tornado FC vs Persela Lamongan, Manajemen Jual 3.000 Tiket
-
6 Rekomendasi HP Murah Rp 3 Jutaan dengan Kamera Terbaik September 2025
-
Wakil Erick Thohir Disebut jadi Kandidat Kuat Menteri BUMN
-
Kursi Menteri BUMN Kosong, Siapa Pengganti Erick Thohir?
Terkini
-
Kuota Impor, SPBU Swasta, dan Konsistensi Kebijakan
-
Pekerjaan M. Qodari Sebelum Jabat KSP, Hartanya Tembus Rp 260 Miliar
-
Kabar Gembira untuk UMKM! Pajak Final 0,5 Persen Diperpanjang Hingga 2029, Beban Usaha Makin Ringan!
-
Bos BI Senang Pemerintah Guyur Dana Rp 200 Triliun ke Bank, Likuiditas Luber
-
Penyaluran Kredit Meski Gacor Demi Pertumbuhan Ekonomi Konsisten di 5 Persen
-
Bos Danantara Bakal Guyur Lagi KUR Perumahan Hingga Rp 250 Triliun
-
Bukan Reshuffle Kabinet, Ini Pendorong IHSG Bisa Tembus Level 8.000
-
Pertamina Patra Niaga Regional JBB Raih 63 Penghargaan di Ajang ENSIA 2025
-
Rosan Roeslani Disebut Bakal Jadi Menteri BUMN, Dilebur dengan Danantara?
-
Salah Paham Produk Vape Bikin Industri Tembakau Alternatif Terancam