Setelah sebelumnya Meta AI muncul di Instagram, beberapa waktu belakangan hadir pula di aplikasi pesan WhatsApp. Fitur ini muncul di Indonesia pada Oktober 2024.
Meta AI merupakan layanan kecerdasan artifisial atau artificial intelligence generatif yang dimiliki Meta—perusahaan teknologi raksasa yang menaungi Facebook, WhatsApp, dan Instagram. Meta AI adalah asisten virtual, yang bisa berinteraksi lewat pesan—mirip seseorang berkomunikasi dengan pengguna WhatsApp lain.
Direktur Eksekutif Information and Communication Technology (ICT) Institute Heru Sutadi mengatakan, dengan hadirnya AI generatif, terdapat banyak peluang positif, seperti dalam penelitian, proses kreatif, dan pengembangan inovasi. Namun, di sisi lain, ada ancaman berupa plagiarisme, pelanggaran etika, dan penyalahgunaan data pribadi.
Heru menyebut, ada kekhawatiran terkait risiko pengambilan data percakapan dengan hadirnya Meta AI tersebut. Menurut dia, hal itu dapat membahayakan privasi dan informasi sensitif, terutama bagi pejabat publik yang menggunakan fitur tersebut untuk komunikasi resmi.
“Pemerintah diharapkan aktif memastikan bahwa platform teknologi, termasuk WhatsApp, mematuhi Undang-Undang Nomor 27 Tahun 2022 tentang Perlindungan Data Pribadi,” kata Heru kepada Alinea.id, Minggu (29/12).
“Hal ini untuk melindungi masyarakat, terutama pejabat publik, dari risiko kebocoran informasi penting dan sensitif.”
Menurut Heru, jika tidak dibuat dalam satu undang-undang khusus, AI tersebut akan menjadi potensi bahaya. Di negara lain, kata dia, sudah mulai mempersiapkan membuat undang-undang terkait kecerdasan artifisial.
Perlindungan hukum terkait data pribadi dan etika dalam penggunaan teknologi, ujar dia, sangat diperlukan sebagai perlindungan terhadap data pribadi, menghindari penyalahgunaan, mendukung inovasi positif, dan mengatasi kelemahan regulasi.
“Oleh karena itu, pemerintah harus mengambil langkah konkret, seperti berdialog dengan perusahaan teknologi untuk memastikan kepatuhan mereka terhadap Undang-Undang Perlindungan Data Pribadi,” tutur pemerhati teknologi, telekomunikasi, dan informatika itu.
“Adanya perlindungna hukum dan etika dalam penggunaan teknologi menjadi esensial untuk menjaga keseimbangan antara inovasi dan keamanan.”
Sementara itu, pakar keamanan siber sekaligus Ketua Communication and Information System Security Research Center (CISSReC) Pratama Dahlian Persadha mengatakan, Meta mengambil pendekatan holistik untuk memastikan teknologi AI yang digunakan pada WhatsApp tetap aman dan tidak disalahgunakan, terutama untuk tujuan seperti pelacakan atau pengumpulan data, tanpa persetujuan pengguna.
“Salah satu langkah utama adalah penerapan enkripsi end-to-end, yang berarti bahwa hanya pengirim dan penerima pesan yang dapat membaca konten komunikasi,” ujar Pratama, Minggu (29/12).
“Bahkan, Meta sendiri tidak dapat mengaksesnya.”
Dia melanjutkan, teknologi AI yang diterapkan untuk fitur WhatsApp dirancang agar memproses data secara lokal di perangkat pengguna. Jika data harus diproses di-server, maka data tersebut dianonimkan dan diolah secara agregat.
“Dengan demikian, teknologi ini tidak mengakses atau menganalisis konten pesan, melainkan berfokus pada metadata dan pola interaksi untuk fitur, seperti deteksi spam atau perlindungan keamanan,” tutur Pratama.
Lalu, soal perlindungan privasi saat menggunakan AI, menurut Pratama, Meta telah membangun fitur-fitur WhatsApp berdasarkan desain prinsip-prinsip sejak awal. Fitur seperti deteksi spam atau moderasi konten, bekerja dengan cara mendeteksi perilaku yang mencurigakan atau pola aktivitas yang melanggar pedoman komunitas tanpa perlu membaca isi pesan.
“Sebagai contoh, jika suatu akun mengirimkan sejumlah besar pesan dalam waktu singkat ke banyak penerima, sistem AI dapat menandainya sebagai potensi spam,” tutur Pratama.
“Meta juga memberikan kontrol kepada pengguna melalui pengaturan aplikasi, seperti fitur pelaporan spam dan pengaturan untuk memblokir kontak yang tidak diinginkan.”
Pratama menekankan, transparansi merupakan elemen penting dalam pendekatan tadi. Meta secara aktif memberikan informasi kepada pengguna tentang bagaimana teknologi itu bekerja melalui kebijakan privasi dan dokumentasi fitur.
Menurut Pratama, Meta sadar salah satu tantangan terbesar dalam menggunakan AI adalah mengatasi potensi bias dan kesalahan dalam pengambilan keputusan. Maka, untuk menjawab kekhawatiran tersebut, Meta melakukan pelatihan model AI menggunakan data yang luas, beragam, dan terus diperbarui guna memastikan representasi yang adil dari berbagai kelompok pengguna.
Pratama menjelaskan, pengujian model dilakukan secara intensif untuk meminimalkan kemungkinan bias sistemik atau hasil yang tidak akurat. Selain itu, Meta membuka jalur bagi pengguna untuk memberikan umpan balik, jika mereka merasa dirugikan oleh keputusan AI, sehingga memungkinkan evaluasi ulang dan peningkatan sistem.
“Laporan publik mengenai kinerja teknologi AI dan kebijakan etika dalam pengembangannya juga dirilis untuk memastikan akuntabilitas dan transparansi terhadap publik,” kata Pratama.