Sponsored

Waspada! AI Cuma Butuh 3 Detik untuk Tiru Suara dan Tipu Orang Terdekat

Bank DBS, Otoritas Jasa Keuangan alias OJK, Kementerian Komunikasi dan Digital atau Komdigi, serta Kepolisian dan FBI Amerika Serikat memperingatkan modus baru penipuan dengan meniru suara. Pelaku menggunakan teknologi AI.

Sponsored

OJK menerima 70.000 lebih laporan warga Indonesia terkait penipuan AI, termasuk dengan modus meniru suara dan wajah orang terdekat korban.

DBS Indonesia melalui akun Instagram mengatakan ketika korban menerima panggilan telepon dan mengatakan kata ‘halo’, pelaku merekam suara dan dalam hitungan detik, AI membuat tiruannya.

“Dengan suara itu, penipu bisa berpura-pura menjadi kamu. Membuat panik orang terdekat, dan bahkan meminta transfer uang mendesak,” kata DBS Indonesia melalui akun Instagram, beberapa waktu lalu.

Baca juga:

  • Kerugian Akibat Spam dan Penipuan Rp 476 M, OJK Soroti Modus Tiru Suara Pakai AI
  • FBI Keluarkan Peringatan: Hacker Bisa Tiru Suara Anggota Keluarga Pakai AI
  • OJK Minta Warga RI Waspada Penipuan AI Tiru Suara dan Wajah, Ada 70.000 Kasus

Setelah membuat suara kloningan, pelaku menelepon atau mengirimkan pesan kepada orang terdekat korban yang suaranya ditiru, untuk berpura-pura dalam keadaan terdesak dan membutuhkan uang segera.

“Modus ini semakin berbahaya, karena banyak orang tidak sadar bahwa suaranya bisa dipakai untuk menjerat orang lain,” DBS Indonesia menambahkan.

DBS Indonesia membagikan cara untuk menghindari modus perekaman suara menggunakan AI, sebagai berikut:

  • Jangan langsung mengangkat panggilan dari nomor HP tidak dikenal
  • Mengaktifkan fitur privasi di ponsel supaya langsung memblokir nomor HP tak dikenal
  • Jika terpaksa mengangkat panggilan dari nomor HP tak dikenal, gunakan aplikasi pengubah suara alias voice changer, agar pelaku salah merekam suara

Kepolisian mengingatkan hal yang sama, sebagai berikut:

Pelaku Rekam Suara di Medsos untuk Penipuan

OJK menerima 70.000 lebih laporan warga Indonesia terkait penipuan AI, termasuk dengan modus meniru suara dan wajah orang terdekat korban.

Kepala Eksekutif Pengawas Perilaku Pelaku Usaha Jasa Keuangan, Edukasi, dan Perlindungan Konsumen OJK Friderica Widyasari Dewi menyampaikan modus penipuan AI yang paling marak kloning suara dan peniruan wajah alias deepfake.

“Kami menerima aduan konsumen yang fotonya digunakan untuk keperluan yang tidak bertanggung jawab, seperti membuat tiruan wajah dan suara dengan tujuan menipu,” kata Friderica dalam konferensi pers Rapat Dewan Komisioner OJK secara daring, pada Agustus (4/8).

Friderica menjelaskan para pelaku kejahatan siber memanfaatkan AI untuk merekam dan meniru suara seseorang, seperti teman atau anggota keluarga korban. Modus ini membuat korban percaya bahwa mereka sedang berkomunikasi dengan orang terdekat.

“Dengan media sosial, sangat mudah mendapatkan suara dari seseorang, bahkan suara anak-anak. Pelaku bisa meniru suara, kemudian memolesnya dengan rupa untuk meyakinkan korban,” katanya.

Selain itu, pelaku menggunakan teknologi deepfake untuk membuat video palsu dengan wajah dan ekspresi yang menyerupai seseorang. “Korban bisa saja percaya bahwa sedang berbicara dengan orang yang dikenalnya, padahal itu hasil manipulasi AI,” Frederica menambahkan.

FBI Beri Peringatan: Hacker Tiru Suara Anggota Keluarga Pakai AI

FBI memberi peringatan pada Mei, bahwa pelaku penipuan tak dikenal menyamar sebagai pejabat senior Amerika untuk menargetkan kontak mereka di pemerintahan. Tujuannya, membangun hubungan baik dengan target agar dapat mengakses akun online lalu membobolnya.

Dikutip dari The Hill, FBI mengatakan bahwa upaya penipuan dengan modus klona suara berbasis AI marak terjadi sejak April, dilakukan dalam bentuk pesan teks maupun suara.

“Jika Anda menerima pesan yang mengaku berasal dari pejabat senior AS, jangan berasumsi bahwa pesan itu asli,” kata FBI, dikutip dari The Hill pada Mei.

“Akses ke akun pribadi atau resmi yang dioperasikan oleh pejabat AS dapat digunakan untuk menargetkan pejabat pemerintah lainnya, atau rekan dan kontak mereka, dengan menggunakan informasi kontak tepercaya yang mereka peroleh. Informasi kontak yang diperoleh melalui skema rekayasa sosial juga dapat digunakan untuk menyamar sebagai kontak guna mendapatkan informasi atau dana,” FBI menambahkan.

FBI juga mengingatkan masyarakat untuk mewaspadai modus penipuan klona suara berbasis AI. Biro Investigasi Federal Amerika itu juga membagikan kiat untuk menghindari aksi kejahatan ini, di antaranya:

  • Memverifikasi identitas individu dengan meneliti nomor, organisasi, atau nama orang yang mengaku mengirim pesan tersebut.
  • Pastikan pemilik asli nomor telepon individu tersebut dan memverifikasi identitasnya secara independen misalnya, dengan menanyakan hal-hal yang hanya diketahui oleh orang yang mungkin ditiru suaranya.
  • Perhatikan nada dan pilihan kata dalam pesan suara untuk membedakan antara panggilan telepon atau pesan suara yang sah dari kontak yang dikenal dan klona suara yang dihasilkan AI, karena keduanya dapat terdengar hampir identik.

“Konten yang dihasilkan AI telah berkembang pesat hingga seringkali sulit diidentifikasi,” kata FBI.

Ahli IT Pun Sulit Menebak Suara Tiruan Pakai AI

Menteri Luar Negeri Amerika Serikat Marco Rubio menjadi salah satu korban peniruan suara pada Juli.

“Beberapa hari setelah menjabat sebagai menteri, saya dihubungi para menteri luar negeri negara lain, yang menanyakan apakah saya baru saja mengirim pesan teks,” kata dia. “Inilah realitas abad ke-21, AI, dan hal-hal palsu yang sedang terjadi.”

Dalam kasus Rubio, seorang penipu menelepon setidaknya lima orang, termasuk tiga menteri luar negeri, seorang gubernur, dan seorang senator. Pelaku penipuan itu membuat akun di platform perpesanan Signal pada pertengahan Juni menggunakan nama akun ‘[email protected]’.

Pertemuan Menteri Luar Negeri (Menlu) Sugiono dan Menlu Amerika Serikat Marco Rubio, Rabu (16/4) (Antara)

Kepala Eksekutif SocialProof Security, perusahaan yang melatih orang untuk bertahan melawan serangan siber, Rachel Tobac mengatakan kini, hanya butuh waktu kurang dari 15 detik untuk menciptakan klona suara yang benar-benar sulit dibedakan dengan yang asli.

“Hanya enam bulan yang lalu, saya membutuhkan sampel suara seseorang yang jernih selama satu hingga dua menit tanpa suara latar atau musik untuk menciptakan tiruan suara yang dapat dipercaya. Kini, hanya dalam hitungan detik,” kata Tobac dikutip dari CNN Internasional, pada Juli (13/7).

Kepala Teknologi McAfee, perusahaan keamanan siber, Steve Grobman menyampaikan yang paling mengkhawatirkan dari klona suara pada era ini, yakni didukung AI. “Para profesional terlatih pun bisa tertipu, terutama ketika suara yang familiar mengajukan permintaan mendesak,” ujar Grobman.

“Itulah sebabnya kita membutuhkan alat yang lebih cerdas untuk membantu orang membedakan mana yang nyata dan mana yang tidak. Kita tidak bisa lagi mengandalkan insting kita sendiri,” Grobman menambahkan.

Penipuan Berbasis AI Capai Rp 700 Miliar

Kerugian akibat penipuan berbasis AI seperti video AI dan deepfake diperkirakan mencapai Rp 700 miliar. Kementerian Komdigi pun menyiapkan aturan.

“Produk deepfake berbasis AI ini, ketika digunakan untuk melakukan kejahatan, sungguh luar biasa dapat menipu masyarakat,” ujar Wakil Menteri Komdigi Nezar Patria dalam acara KUMPUL Connect for Change Summit 2025 di Ritz-Carlton Mega Kuningan, Jakarta Selatan, Selasa (21/10).

Wakil Menteri Komdigi Nezar Patria dalam acara KUMPUL Connect for Change Summit 2025 di Ritz-Carlton Mega Kuningan, Jakarta Selatan, Selasa (21/10). (Komdigi)

Dalam penegakan hukum kasus penipuan berbasis AI, pemerintah menggunakan Undang-Undang Informasi dan Transaksi Elektronik (UU ITE), UU Pelindungan Data Pribadi (PDP), dan Kitab Undang-Undang Hukum Pidana (KUHP).

Komdigi juga mengembangkan peta jalan atau roadmap AI, yang akan mewajibkan para pengembang AI untuk bersikap akuntabel dalam memproduksi konten berbasis kecerdasan buatan. Selain itu, Peraturan Presiden atau Perpres tentang keamanan dan keselamatan pengembangan dan penggunaan AI.

Sponsored