Suara.com - Seiring dengan semakin canggihnya kemampuan alat AI generatif, penipu menjadi lebih mudah untuk meniru audio suara seseorang.
Klon suara AI ini dilatih berdasarkan klip audio ucapan manusia yang ada dan dapat disesuaikan untuk meniru hampir semua orang. Hal ini membuat pengguna rentan menerima panggilan telepon penipuan dari AI.
Pelaku kejahatan menggunakan alat kloning AI ini untuk mengelabui korban agar mengira mereka sedang berbicara dengan orang yang dikenal melalui telepon, padahal pengguna sedang berbicara dengan komputer.
Meskipun ancaman penipuan yang didukung AI menakutkan, tetapi pengguna bisa menghindarinya jika mengetahui caranya. Berikut ini beberapa cara untuk menghindari panggilan penipuan dari AI:
1. Tutup sambungan telepon dan telepon balik
Pakar keamanan memperingatkan bahwa sangat mudah bagi penipu untuk berpura-pura bahwa panggilan tersebut berasal dari nomor telepon yang sah.
Oleh karena itu, setiap kali pengguna menerima panggilan yang meminta uang atau informasi pribadi, tutup sambungan telepon dan telepon mereka kembali.
Cari nomor tersebut secara online atau di kontak. Pengguna juga dapat mencoba mengirimi mereka pesan melalui jalur komunikasi lain yang terverifikasi seperti obrolan video atau email.
2. Gunakan kata aman
Baca Juga: Kolaborasi Alibaba Cloud dan MediaTek Hadirkan AI Generatif di Smartphone
Pengguna harus menggunakan kata aman yang hanya diketahui oleh pengguna dan orang yang dikenal. Metode ini akan memverifikasi bahwa orang tersebut adalah orang yang benar-benar pengguna kenal dan bukan tipuan AI.
Selain itu, pengguna juga bisa mengetes penelepon untuk menanyakan tentang sesuatu yang hanya diketahui pengguna dan orang tersebut, sebagai contoh adalah menu makan malam. Pastikan pertanyaannya cukup spesifik sehingga penipu tidak dapat menjawab dengan benar dengan tebakan yang tepat.
3. Memahami suara apa pun bisa ditiru
Klon audio deepfake tidak hanya diperuntukkan bagi selebriti dan politisi, tetapi semua orang.
Yang tidak disadari banyak orang adalah hanya dengan lima hingga sepuluh detik suara pengguna, konten tersebut dapat dengan mudah digunakan untuk membuat tiruan.
Itulah beberapa hal yang bisa dilakukan pengguna agar terhindar dari panggilan penipuan AI.
Berita Terkait
Terpopuler
- Lupakan Louis van Gaal, Akira Nishino Calon Kuat Jadi Pelatih Timnas Indonesia
- Mengintip Rekam Jejak Akira Nishino, Calon Kuat Pelatih Timnas Indonesia
- 7 Mobil Keluarga 7 Seater Seharga Kawasaki Ninja yang Irit dan Nyaman
- Link Download Logo Hari Santri 2025 Beserta Makna dan Tema
- 20 Kode Redeem FC Mobile Terbaru 21 Oktober 2025: Banjir 2.000 Gems, Pemain 110-113, dan Rank Up
Pilihan
-
5 Laga Klasik Real Madrid vs Juventus di Liga Champions: Salto Abadi Ronaldo
-
Prabowo Isyaratkan Maung MV3 Kurang Nyaman untuk Mobil Kepresidenan, Akui Kangen Naik Alphard
-
Suara.com Raih Penghargaan Media Brand Awards 2025 dari SPS
-
Uang Bansos Dipakai untuk Judi Online, Sengaja atau Penyalahgunaan NIK?
-
Dedi Mulyadi Tantang Purbaya Soal Dana APBD Rp4,17 Triliun Parkir di Bank
Terkini
-
25 Kode Redeem FC Mobile Terbaru 22 Oktober: Klaim Pemain 111-113 dan 15 Juta Koin
-
5 Rekomendasi Smartwatch yang Baterainya Tahan 10 Hari, Cocok Dipakai Traveling
-
20 Kode Redeem FC Mobile 22 Oktober: Berhadiah Jersey Langka, XP Booster, dan Elite Player Drop
-
Raisa Trending di X, Begini Komentar Netizen Tanggapi Isu Perceraiannya
-
Komdigi Ungkap Depo Judi Online Tembus Rp 17 Triliun di Semester 1 2025
-
Game Sword of Justice Dirilis 7 November 2025 ke iOS, Android, hingga PC
-
25 Kode Redeem Free Fire 22 Oktober: Berhadiah Bundle Atlet, Skin Timnas dan Pet Eksklusif!
-
Uji Ketahanan Xiaomi 17 Pro: Lapisan Pelindung Setangguh iPhone 17 Pro
-
Axioo Hype R X8 OLED Resmi Meluncur: Laptop OLED dengan Ryzen 7, Super Ringan Seharga Rp 8 Jutaan
-
Menguak Potensi Krisis Air Bersih di Balik Kecanggihan AI