Saat ini para ahli kecerdasan buatan di seluruh dunia, sedang berusaha menjinakkan senjata politik ,yang memilki dampak merusak dengan luar biasa yaitu, video palsu yang dihasilkan komputer yang dapat menyesatkan pemilih selama kampanye. Para ahli IT sedang merancang sistem otomatis yang dapat menganalisis dan mencari indicator bahwa video itu palsu (Deepfakes). Namun hal ini tidak mudah, karena Artificial Intelegence (AI) biasa yan sempurna dalam meniru video yang memiliki cahaya, bayangan, pola berkedip. Jika dapt ditemukan caranya maka, metode tersebut berpotensi menjadi terobosan, bahkan bagaimana gerakan wajah seorang kandidat di dunia nyata – seperti sudut kemiringannya. kepala mereka ketika mereka tersenyum – berhubungan satu sama lain, mungkin bisa ditiru AI.

Karena sampai saat ini, para ahli mengatakan mereka tetap sangat kewalahan. Padahal teknologi AI dapat digunakan untuk kampanye yang bersifat disinformasi, dengan berita palsu, dari deepfakes atau video palsu. Hal ini membuat kelompok-kelompok yang berkuasa dapat memanfaatkan untuk mempengaruhi opini publik selama pemilu 2024. Di era revolusi 4.0, para ahli AI mampu membuat perangkat lunak AI baru yang kuat, yang secara efektif dapat menghancurkan demokrasi. Karena pembuatan video “deepfake” yang meyakinkan, membuatnya lebih mudah dari sebelumnya untuk mengarang seseorang sepertinya mengatakan, atau melakukan sesuatu yang sebenarnya tidak mereka lakukan. Deepfakes bisa digunakan untuk tindakan tertentu hingga pelecehan dan pornografi yang ditargetkan (ingat kasus Chatfakes Habieb Riziek). Tapi deepfakes lebih natural lagi dan lebih canggih lagi sehingga sulit dikatakan fakes.

Oleh karena itu para Ahli IT sangat khawatir, karena hanya masalah waktu sebelum Deepfakes atau video palsu AI, dikerahkan untuk kerusakan maksimum – untuk menabur kebingungan, memicu keraguan atau melemahkan lawan, berpotensi pada malam pemungutan suara tahun 2024, dan mungkin saja sebelum 2024 sudah bsia di gunakan. Hal ini tegantung kesadaran moral dari yang berkuasa atas AI itu sendiri. Selama pemegang teknologi AI tidak bermoral, hanya memikirkan keuntungan belaka, maka rusaknlah sendi Negara demokrasi. Hany Farid, seorang profesor ilmu komputer dan pakar forensik digital di University of California di Berkeley. Mengatakan “kita kewalahan karena, Jumlah orang yang bekerja di sisi sintesis video, yang bertentangan dengan sisi detektor, adalah 100 banding 1.” Artinya pada akhirnya, orang bisa membuat deepfakes dengan mudah.

Deepfakes atau Video yang dihasilkan AI, saat ini belum menggerakkan skandal politik di Indonseia, tapi saya akn jadi orang pertama yang telah mengingatkan pada para politisi saat ini. Karena tweak sederhana untuk video yang ada dapat membuat kekacauan, seperti yang terjadi dengan penyebaran video dari Ketua DPR Nancy Pelosi (D-Calif.), yang mengalami distorsi untuk membuat pidatonya terhambat, dan cadel. Video itu ditonton lebih dari 3 juta kali.

Deepfakes telah digunakan di Afrika Tengah tahun lalu, saat video Presiden Gabon yang tidak pernah muncul yaitu Ali Bongo, diberitakan kesehatannya buruk atau sudah mati, kemudian dituduh sebagai pengkhianat oleh lawan-lawan politiknya dan hal ini memicu kudeta yang gagal oleh militer Gabon. Di Malaysia, klip video pengakuan pria yang berhubungan seks dengan menteri kabinet lokal dipertanyakan sebagai potensi deepfake. Dia “tidak terlihat seperti ini. . . . Tubuhnya tidak seperti yang dibangun dalam video, “kata seorang politisi lokal, menurut surat kabar Malay Mail di Kuala Lumpur.

Ancaman deepfake, terjadi karena mudah dipelajari dengan di bantu oleh AI. Anggota parlemen di AS percaya, deepfakes dapat mengancam keamanan nasional. Lalu bagaimankah dampaknya jiak deepfakes terjadi di Indonesia, yang ssat ini sedang terpecah, saya tidak bisa bayangkan.. Oleh karena itu saya berharap semua aparat terutama memiliki jiwa NKRI dan memiliki jiwa pancasila, karena saat ini yng memilki potensi tersebut, selain konglomerat adalah aparat.

[Oleh: Helmi Adam. Penulis adalah Alumni Nakasone Program, Japan International Cooperation Agency (JICA)]


Tulisan opini di media ini boleh dikutip dan dipublikasikan di media lainnya. Terima kasih jika berkenan mencantumkan sumber kutipannya (media Opiniindonesia.com). Untuk pengiriman artikel dan kerjasama, hubungi : redaksi@opiniindonesia.com