Suara.com - Seiring dengan semakin canggihnya kemampuan alat AI generatif, penipu menjadi lebih mudah untuk meniru audio suara seseorang.
Klon suara AI ini dilatih berdasarkan klip audio ucapan manusia yang ada dan dapat disesuaikan untuk meniru hampir semua orang. Hal ini membuat pengguna rentan menerima panggilan telepon penipuan dari AI.
Pelaku kejahatan menggunakan alat kloning AI ini untuk mengelabui korban agar mengira mereka sedang berbicara dengan orang yang dikenal melalui telepon, padahal pengguna sedang berbicara dengan komputer.
Meskipun ancaman penipuan yang didukung AI menakutkan, tetapi pengguna bisa menghindarinya jika mengetahui caranya. Berikut ini beberapa cara untuk menghindari panggilan penipuan dari AI:
1. Tutup sambungan telepon dan telepon balik
Pakar keamanan memperingatkan bahwa sangat mudah bagi penipu untuk berpura-pura bahwa panggilan tersebut berasal dari nomor telepon yang sah.
Oleh karena itu, setiap kali pengguna menerima panggilan yang meminta uang atau informasi pribadi, tutup sambungan telepon dan telepon mereka kembali.
Cari nomor tersebut secara online atau di kontak. Pengguna juga dapat mencoba mengirimi mereka pesan melalui jalur komunikasi lain yang terverifikasi seperti obrolan video atau email.
2. Gunakan kata aman
Baca Juga: Kolaborasi Alibaba Cloud dan MediaTek Hadirkan AI Generatif di Smartphone
Pengguna harus menggunakan kata aman yang hanya diketahui oleh pengguna dan orang yang dikenal. Metode ini akan memverifikasi bahwa orang tersebut adalah orang yang benar-benar pengguna kenal dan bukan tipuan AI.
Selain itu, pengguna juga bisa mengetes penelepon untuk menanyakan tentang sesuatu yang hanya diketahui pengguna dan orang tersebut, sebagai contoh adalah menu makan malam. Pastikan pertanyaannya cukup spesifik sehingga penipu tidak dapat menjawab dengan benar dengan tebakan yang tepat.
3. Memahami suara apa pun bisa ditiru
Klon audio deepfake tidak hanya diperuntukkan bagi selebriti dan politisi, tetapi semua orang.
Yang tidak disadari banyak orang adalah hanya dengan lima hingga sepuluh detik suara pengguna, konten tersebut dapat dengan mudah digunakan untuk membuat tiruan.
Itulah beberapa hal yang bisa dilakukan pengguna agar terhindar dari panggilan penipuan AI.
Berita Terkait
Terpopuler
- 5 Parfum Wanita Tahan Lama di Alfamart untuk Silaturahmi Anti Bau
- 5 Mobil Murah 3 Baris Under 1500cc tapi Jagoan Tanjakan: Irit Bensin dan Pajak Ramah Rakyat Jelata
- Promo Superindo 17 Maret 2026, Diskon sampai 50 Persen Buah, Minyak hingga Kue Lebaran
- Timur Tengah Memanas, Rencana Terbangkan Ribuan TNI ke Gaza Resmi Ditangguhkan
- 5 Kejanggalan Video Benjamin Netanyahu Terbaru, PM Israel Beneran Tewas?
Pilihan
-
Bongkar Identitas dan Wajah Eksekutor Penyiram Air Keras Andrie Yunus, Polisi: Ini Bukan Hasil AI!
-
4 Prajurit TNI Jadi Tersangka Penyiraman Air Keras Andrie Yunus, Motif Masih Didalami
-
Pelaku Teror Air Keras Andrie Yunus Ternyata Anggota BAIS, TNI: Sudah Diamankan di Puspom
-
Volume Kendaraan Masuk-Keluar DIY via Prambanan Seimbang, Arus Lalu Lintas Masih Ramai Lancar
-
Iran Umumkan Kabar Duka! Ali Larijani dan Gholamreza Soleimani Tewas sebagai Martir
Terkini
-
HP Murah Anyar, Oppo A6s 5G Usung Baterai Jumbo 6.500 mAh
-
iQOO Z11 Lite 5G Lolos Sertifikasi di Indonesia, HP Murah dengan Baterai Jumbo
-
Bocoran Xiaomi 18 Pro, Baterai 7000mAh Siap Kalahkan iPhone 18 Pro
-
Google Gemini Gantikan Assistant, Fitur Personal Intelligence Bikin AI Lebih Personal
-
Daftar Full Roster 9 Tim MPL ID Season 17 Terlengkap, Main Sebentar Lagi
-
Cara Bikin Kartu Ucapan Lebaran di Galaxy S26 Ultra, Praktis Pakai AI
-
Acer Aspire Go 14 : Laptop Tipis Warna Baru, RAM Bisa Upgrade hingga 32GB
-
Bantu Kenali Mekanisme Bos World of Warcraft, Game Steam Gratis Ini Jadi Tempat Latihan
-
Honor X7d dan Honor X6c Resmi di Indonesia: HP AI Kamera 108MP, Baterai 6500mAh Mulai Rp2 Jutaan
-
55 Kode Redeem FF Max Terbaru 18 Maret 2026: Raih Pulsa, Skin Trogon Rose, dan Diamond