Share this

Dulu “No Pic = Hoax”, Sekarang “Video Call” Pun Bisa Palsu!
Pernah nggak sih kamu merasa lega setelah melakukan video call (VC) dengan seseorang yang mau meminjam uang atau menawarkan bisnis? Di pikiran kita, “Ah, wajahnya sudah kelihatan gerak, suaranya sama, pasti asli dong orangnya.”
Eits, buang jauh-jauh pemikiran lugu itu di tahun 2026 ini. Zaman sudah berubah gila-gilaan. Kalau dulu penipu cuma modal SMS “Mama Minta Pulsa”, sekarang mereka sudah pakai teknologi masa depan bernama Deepfake secara real-time.
Keresahan netizen belakangan ini bukan cuma soal data bocor, tapi soal: “Masih bisakah kita percaya pada apa yang kita lihat di layar HP?” Bayangkan, wajah pacar, orang tua, atau bahkan bos kamu bisa “dipakai” oleh orang asing di belahan dunia lain untuk menipu kamu lewat sambungan telepon video. Ngeri, kan?
Kronologi: Ketika Wajah Menjadi Topeng Digital
Fenomena ini meledak ketika muncul kasus viral di Hong Kong, di mana seorang pegawai keuangan mentransfer ratusan miliar rupiah karena diperintah oleh “atasannya” lewat video call. Padahal, semua peserta rapat di video itu adalah hasil generate AI.
Di Indonesia, benih-benih kejahatan ini mulai muncul. Modusnya beragam, mulai dari “teman” yang tiba-tiba VC minta transfer dana darurat karena kecelakaan, hingga penawaran investasi bodong yang wajahnya menyerupai tokoh terkenal.
Dampaknya Bagi Pengguna & Trader Crypto
Bagi masyarakat umum, ini ancaman serius buat isi dompet. Tapi bagi para trader atau investasi pemula di dunia kripto, ini adalah mimpi buruk level dewa.
- Scam Support Agent: Penipu menyamar jadi customer service bursa kripto ternama lewat video call, memandu korban untuk menyerahkan private key atau kode OTP.
- Fake Endorsement: Muncul video tokoh kripto terkenal (seperti Vitalik atau Elon Musk) yang sedang live dan menyuruh orang mengirim koin ke alamat tertentu. Karena terlihat “live” dan wajahnya asli, banyak yang tertipu mentah-mentah.
Analisis: Mata Kita Sudah Tak Bisa Dipercaya?
Secara teknis, pelaku kejahatan siber menggunakan software AI yang memetakan wajah target ke wajah penipu secara langsung. Saat penipu berkedip atau bicara, wajah palsu di layar juga ikut bergerak.
Namun, teknologi ini belum 100% sempurna. Masih ada celah yang bisa kita perhatikan:
- Gerakan Tidak Wajar: Perhatikan area mata atau mulut. Kadang ada glitch atau kedipan yang terlihat kaku.
- Sinkronisasi Suara: Terkadang gerak bibir telat beberapa milidetik dari suara yang keluar.
- Kualitas Video: Wajah mungkin terlihat HD, tapi leher atau latar belakangnya seringkali kabur atau blur aneh.
Penutup & Insight Penting
Dunia digital makin kejam bagi mereka yang lengah. Bahaya AI video call mengajarkan kita bahwa verifikasi visual saja tidak lagi cukup. Kita butuh lapisan keamanan ganda.
Tips Anti-Gocek: Buatlah “Kata Sandi Keluarga” atau Secret Code dengan orang-orang terdekatmu. Jika ada yang menelepon minta uang (meskipun itu video call wajah orang tua sendiri), tanya dulu kata sandinya. Jika dia tidak bisa jawab atau mengalihkan pembicaraan, matikan telepon segera!
Jangan biarkan keamanan data dan asetmu bobol hanya karena kamu terlalu percaya pada kecanggihan teknologi. Jadilah pengguna yang skeptis namun cerdas.
Pernah dapet video call misterius yang orangnya diam saja atau wajahnya agak aneh? Coba ceritakan pengalaman horor digitalmu di kolom komentar, yuk!
