Pengembangan kecerdasan buatan (AI) diakui memberi ancaman bencana bagi manusia meski masih bisa diarahkan agar memberi efek ekonomi.
Hal itu terungkap dalam AI Safety Summit 2023 alias Konferensi Tingkat Tinggi (KTT) Keselamatan AI yang dibuka di Bletchley Park, Inggris, Rabu (1/11), yang juga melibatkan AS, Uni Eropa, Inggris, dan China.
"Ada potensi bahaya yang serius, bahkan bencana, baik disengaja atau tidak, yang berasal dari kemampuan paling signifikan dari model AI ini," demikian bunyi Deklarasi Bletchley, dikutip dari The Guardian.
Dalam ajang yang sama, CEO Tesla Elon Musk menggambarkan AI sebagai "salah satu ancaman terbesar bagi umat manusia."
"Maksud saya, untuk pertama kalinya, kita menghadapi situasi ketika ada sesuatu yang jauh lebih pintar daripada manusia terpintar," tutur Musk, yang juga salah satu pendiri perusahaan OpenAI, pengembang ChatGPT.
"Jadi, tahukah Anda, kita tidak lebih kuat atau lebih cepat dari makhluk lain, tapi kita lebih cerdas. Dan di sinilah kita, untuk pertama kalinya dalam sejarah manusia, dengan sesuatu yang jauh lebih cerdas dari kita."
Dalam komentarnya di sela-sela KTT, dia mengakui "tidak jelas kita bisa mengendalikan hal seperti itu." Namun, tukasnya, "kita bisa bercita-cita untuk mengarahkannya ke arah yang bermanfaat bagi kemanusiaan."
Mustafa Suleyman, salah satu pendiri DeepMind, perusahaan AI Inggris yang diakuisisi oleh Google, meminta para pihak mempertimbangkan jeda lima tahun dalam pengembangan teknologi ini.
"Saya tidak mengesampingkan hal itu (bahaya AI). Dan saya pikir dalam lima tahun ke depan, kita harus mempertimbangkan pertanyaan itu dengan sangat serius," ucapnya.
Meski demikian, Suleyman mengatakan model AI saat ini, seperti yang mendukung ChatGPT, tidak terbukti menimbulkan ancaman serius.
"Saya rasa saat ini tidak ada bukti bahwa model [AI] terdepan GPT-4, menimbulkan dampak bencana yang signifikan," katanya.
Wakil Menteri Komunikasi dan Informatika Nezar Patria, yang turut hadir di KTT tersebut, menyatakan satu-satunya cara untuk mempersiapkan diri menghadapi masa depan AI adalah dengan memahami dan memitigasi risiko.
"Indonesia mengusulkan tiga 'P' sebagai fondasi tindakan kolektif dan kolaborasi kita di masa depan, yaitu Policy (kebijakan), Platform (aplikasi) dan People (sumber daya manusia)," ujarnya, di London, Inggris, Kamis (2/11), dikutip dari siaran pers Kominfo.
"Kebijakan kita harus mencerminkan proyeksi masa depan kita tentang penggunaan AI yang aman, terjamin, dan kuat," imbuh dia.
Meski begitu, pemetaan soal pengembangan sekaligus pengamanan terhadap bahaya AI tak bisa cuma dilakukan Pemerintah. Berbagai korporasi, swasta maupun BUMN, terlacak sudah menggunakannya dalam berbagai layanan.