JAKARTA, Radio Bharata Online - Saat ini pemalsuan AI dengan cepat menjadi salah satu masalah terbesar yang dihadapi kita secara online. Gambar, video, dan audio yang menipu berkembang biak sebagai akibat dari peningkatan dan penyalahgunaan alat kecerdasan buatan generatif.

Dengan deepfake AI yang muncul hampir setiap hari, menggambarkan semua orang mulai dari Taylor Swift hingga Donald Trump, semakin sulit untuk membedakan mana yang nyata dari yang tidak. Pembuat video dan gambar seperti DALL-E, Midjourney, dan openai's Sora memudahkan orang-orang tanpa keahlian teknis apa pun untuk membuat deepfake – cukup ketik permintaan dan sistem akan mengeluarkannya.

Gambar palsu ini mungkin tampak tidak berbahaya. Tetapi mereka dapat digunakan untuk melakukan penipuan dan pencurian identitas atau propaganda dan manipulasi pemilu.

lantas bagaimana cara menghindari ditipu oleh deepfake?

Cara mengenali deepfake

Pada hari-hari awal deepfake, teknologinya masih jauh dari sempurna dan sering kali meninggalkan tanda-tanda manipulasi. Pemeriksa fakta telah menunjukkan gambar dengan kesalahan yang jelas, seperti tangan dengan enam jari atau kacamata yang memiliki bentuk lensa berbeda.

Tetapi karena AI telah meningkat, itu menjadi jauh lebih sulit. Beberapa saran yang dibagikan secara luas-seperti mencari pola kedipan yang tidak wajar di antara orang-orang dalam video deepfake-tidak berlaku lagi, kata Henry Ajder, pendiri perusahaan konsultan Latent Space Advisory dan pakar terkemuka dalam AI generatif.

Tetap saja, ada beberapa hal yang harus dicari, katanya.

Banyak foto deepfake AI, terutama orang-orang, memiliki kilau elektronik pada mereka, "semacam efek penghalusan estetika" yang membuat kulit "terlihat sangat halus," kata Ajder.

Dia memperingatkan, bagaimanapun, bahwa dorongan kreatif terkadang dapat menghilangkan ini dan banyak tanda manipulasi AI lainnya.

Periksa konsistensi bayangan dan pencahayaan. Seringkali subjek berada dalam fokus yang jelas dan tampak seperti aslinya secara meyakinkan, tetapi elemen di latar belakang mungkin tidak begitu realistis atau halus.

Lihat wajahnya

Pertukaran wajah adalah salah satu metode deepfake yang paling umum. Para ahli menyarankan untuk melihat lebih dekat pada bagian tepi wajah. Apakah warna kulit wajah cocok dengan bagian kepala atau tubuh lainnya? Apakah tepi wajah tajam atau buram?

Jika Anda mencurigai video seseorang yang berbicara telah direkayasa, lihat mulutnya. Apakah gerakan bibir mereka cocok dengan audio dengan sempurna?

Ajder menyarankan untuk melihat giginya. Apakah mereka jelas, atau kabur dan entah bagaimana tidak konsisten dengan penampilannya di kehidupan nyata?

Perusahaan keamanan siber Norton mengatakan algoritme mungkin belum cukup canggih untuk menghasilkan gigi individual, jadi kurangnya garis besar untuk masing-masing gigi bisa menjadi petunjuk.

Menggunakan AI untuk menemukan yang palsu

Pendekatan lain adalah menggunakan AI untuk melawan AI. Microsoft telah mengembangkan alat autentikator yang dapat menganalisis foto atau video untuk memberikan skor keyakinan apakah foto tersebut telah dimanipulasi. Pembuat chip Intel FakeCatcher menggunakan algoritme untuk menganalisis piksel gambar untuk menentukan apakah itu asli atau palsu.

Ada alat online yang menjanjikan untuk mengendus barang palsu jika Anda mengunggah file atau menempelkan tautan ke materi yang mencurigakan. Tetapi beberapa, seperti Microsoft authenticator, hanya tersedia untuk mitra terpilih dan bukan untuk umum. Itu karena para peneliti tidak ingin memberi tahu aktor jahat dan memberi mereka keunggulan yang lebih besar dalam perlombaan senjata deepfake.

Akses terbuka ke alat pendeteksi juga dapat memberi kesan kepada orang-orang bahwa mereka adalah "teknologi seperti dewa yang dapat mengalihdayakan pemikiran kritis untuk kita" padahal sebaliknya kita perlu menyadari keterbatasan mereka, kata Ajder.

Rintangan untuk menemukan barang palsu

Semua ini dikatakan, AI telah berkembang dengan kecepatan sangat tinggi dan model AI sedang dilatih pada data internet untuk menghasilkan konten berkualitas yang semakin tinggi dengan kekurangan yang lebih sedikit.

Itu berarti tidak ada jaminan saran ini akan tetap berlaku bahkan satu tahun dari sekarang. Para ahli mengatakan bahkan mungkin berbahaya untuk membebani orang biasa untuk menjadi Sherlock digital karena dapat memberi mereka rasa percaya diri yang salah karena menjadi semakin sulit, bahkan bagi mata yang terlatih, untuk menemukan deepfake. [CGTN]