Berbicara dalam acara Indonesia Digital Conference (IDC) 2023 dengan tema “Artificial Intelligence For Business Transformation: Tantangan Etik, Inovasi, Produktivitas, dan Daya Saing di Berbagai Sektor” di Bandung, Selasa (22/8), Wakil Menteri Komunikasi dan Informatika Nezar Patria menyatakan, pemerintah mencermati sisi-sisi negatif dari pemanfaatan artificial intelligence (AI) atau kecerdasan buatan yang akan muncul.
Hal itu didasarkan karena penggunaan AI berpotensi menimbulkan dampak beberapa isu, seperti kesalahan analisis yang mengakibatkan misinformasi, perlindungan hak cipta, hingga berkaitan dengan nilai kemanusiaan.
Nezar mengatakan, bakal mengantisipasi dengan satu regulasi yang meminimalkan dampak-dampak merusak dari AI. Nezar menambahkan, regulasi mengenai AI sebagai langkah antisipatif atas risiko yang akan mungkin muncul, bukan bertujuan menghambat inovasi.
Di sisi lain, Sekjen Kementerian Komunikasi dan Informatika (Kemenkominfo) Mira Tayyiba dalam acara Forum Ekonomi Digital Kominfo di Jakarta, Selasa (31/10) menyebut, tak semua teknologi terbaru, termasuk AI harus diregulasi. Ia menjelaskan, isu teknologi sebaiknya dipahami terlebih dahulu. Regulasi bisa diterapkan, jika nantinya memang dibutuhkan.
Dihubungi terpisah, pengamat media sosial sekaligus pendiri Drone Emprit, Ismail Fahmi menyebut, regulasi AI sangat penting. Alasannya, AI sudah dapat digunakan di mana-mana. Termasuk di kehidupan sehari-hari, semisal penggunaan ChatGPT. Apalagi, jika AI digabungkan dengan big data, maka teknologi ini akan sangat kuat.
“Yang ada di media sosial dan marketplace, bisa digunakan untuk macam-macam. Makanya regulasi semakin penting ke depan,” ujar Ismail kepada Alinea.id, Sabtu (4/10).
“Mungkin sekarang belum terlalu terasa. (Tapi) ke depan akan semakin penting (regulasi).”
Menurutnya, dampak luas AI akan bisa mengubah perilaku manusia di masa depan. Bila tak diregulasi, menurut Ismail, bisa pula berdampak soal etika, terkait output dari AI. Sumber data atau perilaku algoritmanya, yang sekira berpengaruh pada publik, jadi tak ada aturannya.
“Hal-hal yang berdampak kepada publik luas jadinya tidak transparan, tidak terbuka, tidak diketahui. Misalnya AI ChatGPT, tidak ada aturan dia di-training menggunakan data apa, tidak ada yang tahu,” kata dia.
Ia melanjutkan, regulasi harus membuat, misalnya, apa yang di-training oleh AI. “Misalnya, AI dipakai oleh sebuah pemerintahan atau sebuah kementerian,” tuturnya. “Kalau tidak ada aturan, jadinya AI ini belajar dari apa? Algoritmanya pakai yang seperti apa? Apakah akurat?”
Salah satu hal yang seharusnya ada dalam aturan terkait AI, sebut Ismail, adalah transparansi. Menurut dia, AI belajar dari sebuah sumber data. Maka, sumber datanya itu harus dibuka.
“Misalnya dari semua website, ada berapa besar ukurannya. Kemudian dari jurnal-jurnal, buku-buku,” ujarnya.
“Karena publik (yang) akan menggunakan AI, bisa bertanya. Kadang-kadang, mereka berasumsi AI-nya sudah sangat mengerti, tahu semuanya. Padahal, AI-nya belum indeks,” ucap dia.
“Kalau tidak ada aturan, jadinya ada miss. Ada output-output dari AI bukannya positif, malah berdampak negatif kepada publik.”
Data yang transparan dan kredibel diperlukan, misalnya dari tahun berapa diambil serta ruang lingkupnya. Ia menjelaskan, misalnya sebuah budaya masyarakat lokal mana saja yang sudah terindeks atau konten-konten Indonesia yang sudah terdata.
“Kita banyak bertanya soal sejarah Indonesia, tentang Indonesia. Tapi sumber-sumber di Indonesia sudah indeks atau belum?” tuturnya.
“Jangan-jangan, dia (ChatGPT) hanya berdasarkan sumber dari luar. Kan tidak pas.”
Menurut Ismail, tak bisa satu lembaga saja yang memegang komando mengatur teknologi AI. Ia menyarankan, regulasi itu diatur oleh sebuah tim, semacam gugus tugas bersama dari berbagai macam institusi. Tak bisa dipegang Kemenkominfo atau Badan Siber dan Sandi Negara (BSSN) saja.
“Karena kaitan AI ini sangat luas. Ada AI untuk network security, yang kaitannya dengan BSSN. Ada AI terkait dengan informasi, (yang kaitannya dengan) Kemenkominfo,” tuturnya.
Belum lagi AI yang kaitannya dengan industri, yang berhubungan dengan Kementerian Perindustrian (Kemenperin), AI untuk pendidikan, atau AI untuk kesehatan. “Nah, ini aturannya gimana? Pengumpulan datanya? Ini kan harus diatur. Tidak bisa hanya dari Kemenkominfo atau BSSN (saja),” kata Ismail.
Soal regulasi, Ismail menyarankan dua pihak yang perlu diatur, yakni dari korporasi atau pengembang AI dan pengguna. Dari korporasi dan pengembang, ia mengatakan, aspek-aspek yang harus diatur, antara lain penyimpanan data, transparansi data, dan pernyataan tentang biasnya.
“Kemudian soal perlindungan data pribadi dan seluruhnya itu dari sisi developer AI, pihak yang membuat AI-nya,” kata dia.
Sedangkan dari pihak pengguna, Ismail menerangkan, yang perlu diatur soal pemanfaatan AI yang bertanggung jawab dan merekomendasikan penggunakan yang tak boleh. “Boleh tidak, misalnya menggunakan AI untuk membuat deepfake? Deepfake AI itu bisa untuk membuat gambar orang atau video yang sifatnya edukatif,” kata dia.
“Tapi, kemudian (kalau) arahnya nanti ke disinformasi, bagaimana?”