Baca berita dengan sedikit iklan, klik di sini
Halo, pembaca nawala Cek Fakta Tempo!
Baca berita dengan sedikit iklan, klik di sini
Kabar palsu berupa rekaman suara kini semakin banyak. Bahkan mulai mencatut figur publik, mendompleng isu Pemilu 2024. Dengan bantuan teknologi kecerdasan buatan atau Artificial Intelligence (AI), hoaks jadi lebih mudah dan cepat diproduksi.
Baca berita dengan sedikit iklan, klik di sini
Sayangnya, masih banyak masyarakat yang terperdaya dengan disinformasi audio ini. Bagaimana kita bisa menghadangnya?
Apakah Anda menerima nawala ini dari teman dan bukan dari e-mail Tempo? Daftarkan surel di sini untuk berlangganan.
Bagian ini ditulis oleh Artika Rachmi Farmita dari Tim Cek Fakta Tempo
Prebunking Series (57)
Tips Mudah Mendeteksi Hoaks Rekaman Suara
Hoaks berupa suara atau audio deepfake menjadi semakin umum lantaran kecerdasan buatan memudahkan aktor jahat memanfaatkan teknologi canggihnya. AI mampu menganalisis data audio, melihat pola dan karakteristik suara target, kemudian membuat tiruan suara sesuai yang diinginkan oleh si pemrogram.
Pada dasarnya, AI dikembangkan untuk tujuan yang baik. Misalnya, teknologi audio deepfake untuk mengkloning suara pasien gangguan saraf Amyotrophic lateral sclerosis (ALS) sehingga mereka dapat terus “berbicara”. AI memungkinkan salinan suara pasien ALS saat mereka kehilangan suara mereka sendiri.
Sayangnya, orang-orang jahat juga memanfaatkan audio deepfake ini untuk menyebarkan hoaks. Menjelang Pemilu 2024, Tempo menemukan sejumlah deepfake, baik berupa audio maupun video. Terbaru, sebuah rekaman suara beredar dengan klaim ketua Partai Nasdem, Surya Paloh, memarahi Anies Baswedan usai debat capres 2024.
Sebelumnya, video deepfake Presiden Jokowi berpidato dengan bahasa Mandarin juga beredar menjelang masa kampanye Pemilu 2024. Walau sekilas tampak tidak membahayakan, pemalsuan audio lebih mudah dibuat dan lebih sulit dikenali daripada pemalsuan video. Maka, hoaks berupa suara palsu menggunakan teknologi AI ini patut diwaspadai.
Tips mendeteksi audio deepfake
1. Cermati apa yang dikatakan
Cermati apa yang sebenarnya diucapkan oleh orang dalam potongan rekaman tersebut, dan bagaimana mereka mengatakannya. Dilansir Full Fact, seorang profesional audio bersertifikat dengan pengalaman lebih dari 25 tahun, Mike Russell, kita perlu mewaspadai pengucapan atau aksen. “Terkadang AI akan mengucapkan kata-kata dengan gaya yang tidak konsisten,” ujarnya.
Contohnya, dalam hoaks Surya Paloh memarahi Anies Baswedan, perkataan dalam dialog keduanya terasa janggal walau si pembuat hoaks berupaya memanipulasi jenis intonasi suara.
A: Pas di debat juga saya mati-matian buat ngambil perhatian masyarakat.
B: Ya tetep aja tapi datamu itu ngawur. Bilangin, gak punya KTP segala. Saya yang malu. Haduh Anies.
A: Itu saya berusaha kalem aja Pak, buat ngeles sih.
B: Kesalahan masa lalu kamu itu kebanyakan, sih.
2. Perhatikan bunyi dari suaranya
Perhatikan bunyinya, terutama ketika terdengar ada gangguan digital sekecil apa pun yang mungkin termasuk “suara robot”. Apakah ada jeda yang tidak wajar? Apakah tinggi nada dan kecepatan suaranya terdengar pas?
3. Perhatikan bunyi bising dari latar belakang
Tak hanya suara obyek manusia, bunyi dari latar belakang juga penting untuk dideteksi. Apakah konsisten atau ada perubahan terkait suara latar?
4. Bersikap curiga
Seiring cepatnya pengembangan teknologi AI, beragam tips bahkan tools untuk mengenali deepfake kemungkinan besar juga akan terus diperbarui. Maka, sikap curiga atau skeptis setiap menerima informasi sumir akan membantu kita terpapar kabar bohong.
Lebih baik mencegah daripada mengobati, bukan?
Bagian ini ditulis oleh Inge Klara Safitri dari Tempo Media Lab
Cek Fakta Pilihan
Benarkah Imam Masjid Nabawi dan Al Aqsa Nyatakan Dukungan ke Kandidat Pilpres 2024?
Sejumlah gambar dan video beredar di WhatsApp dan akun Facebook ini, ini, ini dan ini berisi klaim bahwa imam Masjid Nabawi, di Kota Madinah, Arab Saudi, dan Masjid Al Aqsa, di Kota Yerusalem, Palestina, telah menyatakan keberpihakan dalam Pilpres 2024 di Indonesia. Video memperlihatkan seorang pria dengan pakaian berwarna kombinasi merah dan putih yang mendeklarasikan dukungan kepada Anies Baswedan dalam Pilpres 2024. Ia juga menyatakan bahwa imam-imam lainnya, termasuk dari Masjid Nabawi dan Al Aqsa, memiliki sikap yang sama.
| Hasil Pemeriksaan fakta
Hasil verifikasi Tempo menunjukkan konten yang beredar memiliki kesamaan dengan video yang diunggah saluran YouTube Jagat ‘Arsy TV pada 12 Agustus 2023. Video itu adalah bagian dari acara Manaqib Syekh Abdul Qodir Al Jaelani, di Pesantren Dunia Jagat ‘Arsy, Nusaloka BSD, Tangerang Selatan.
Waktunya Trivia!
Benarkah Pengungsi Rohingya Direkrut Datang ke Aceh untuk Coblos Anies Baswedan?
Sebuah video diunggah di YouTube dan beredar di WhatsApp berisi klaim bahwa kedatangan pengungsi Rohingya dari Bangladesh ke Aceh adalah untuk mencoblos capres nomor urut 1 Anies Baswedan dalam Pilpres 2024. Video itu memperlihatkan ratusan orang berkumpul di sebuah lapangan dan sejumlah perahu berisi penumpang melaju di laut. Tidak ada narasi suara dalam video, tetapi terdapat tulisan yang menyatakan video memperlihatkan pengungsi Rohingya yang datang untuk mencoblos Anies dalam Pilpres 2024.
Ada Apa Pekan Ini?
Dalam sepekan terakhir, klaim yang beredar di media sosial memiliki isu yang sangat beragam, mulai dari isu politik, sosial, dan kesehatan. Buka tautannya ke kanal Cek Fakta Tempo.co untuk membaca hasil periksa fakta berikut:
- Benarkah konten tentang tentara Israel menangkap anak dan perempuan Palestina?
- Benarkah Pengungsi Rohingya disebut imigran gelap?
- Benarkah video Jokowi bagi-bagi amplop uang ke tukang becak pada masa kampanye 2024?
Kenal seseorang yang tertarik dengan isu disinformasi? Teruskan nawala ini ke surel mereka. Punya kritik, saran, atau sekadar ingin bertukar gagasan? Layangkan ke sini. Ingin mengecek fakta dari informasi atau klaim yang anda terima? Hubungi ChatBot kami.
Ikuti kami di media sosial: