Elon Musk dan yang Lainnya Mendesak Penghentian Sementara AI, dengan Alasan 'Risiko bagi Masyarakat'

30 Maret 2023, 01:05 WIB
Pendiri Tesla, Elon Musk, menghadiri Offshore Northern Seas 2022 di Stavanger, Norwegia, 29 Agustus 2022. /NTB/Carina Johansen via REUTERS

ZONA PRIANGAN - Elon Musk dan sekelompok pakar kecerdasan buatan serta eksekutif industri menyerukan jeda enam bulan untuk mengembangkan sistem yang lebih kuat dari GPT-4 yang baru saja diluncurkan oleh OpenAI, dalam sebuah surat terbuka yang mengutip potensi risiko bagi masyarakat dan kemanusiaan.

Awal bulan ini, OpenAI yang didukung oleh Microsoft meluncurkan iterasi keempat dari program AI GPT (Generative Pre-trained Transformer), yang telah memukau para pengguna dengan berbagai macam aplikasinya, mulai dari melibatkan pengguna dalam percakapan layaknya manusia hingga membuat lagu dan meringkas dokumen-dokumen yang panjang.

Surat tersebut, yang dikeluarkan oleh lembaga nirlaba Future of Life Institute dan ditandatangani oleh lebih dari 1.000 orang termasuk Musk, menyerukan penghentian sementara pengembangan AI tingkat lanjut hingga protokol keamanan bersama untuk desain tersebut dikembangkan, diimplementasikan, dan diaudit oleh para ahli independen.

Baca Juga: Startup Komputasi AI Cerebras Merilis Model Open Source Mirip ChatGPT Guna Mendorong Lebih Banyak Kolaboasi

"Sistem AI yang kuat harus dikembangkan hanya setelah kita yakin bahwa dampaknya akan positif dan risikonya dapat dikelola," kata surat itu, dikutip ZonaPriangan.com dari Reuters.

Surat itu merinci potensi risiko bagi masyarakat dan peradaban oleh sistem AI yang bersaing dengan manusia dalam bentuk gangguan ekonomi dan politik, dan meminta para pengembang untuk bekerja sama dengan para pembuat kebijakan dalam hal tata kelola dan otoritas pengatur.

Para penandatangan termasuk CEO Stability AI Emad Mostaque, peneliti di DeepMind yang dimiliki Alphabet, dan kelas berat AI Yoshua Bengio, yang sering disebut sebagai salah satu "bapak AI", dan Stuart Russell, pelopor penelitian di bidang ini.

Baca Juga: Harga Redmi 12C di India Terkuak, Dikonfirmasi Mulai Dijual Via Amazon, Didukung MediaTek Helio G85 SoC

Menurut daftar transparansi Uni Eropa, Future of Life Institute terutama didanai oleh Musk Foundation, serta kelompok altruisme efektif yang berbasis di London, Founders Pledge, dan Silicon Valley Community Foundation.

Kekhawatiran ini muncul ketika kepolisian Uni Eropa, Europol, pada hari Senin bergabung dengan paduan suara yang berisi keprihatinan etis dan hukum terhadap AI canggih seperti ChatGPT, memperingatkan tentang potensi penyalahgunaan sistem dalam upaya phishing, disinformasi, dan kejahatan siber.

Sementara itu, pemerintah Inggris meluncurkan proposal untuk kerangka kerja regulasi yang "mudah beradaptasi" seputar AI.

Baca Juga: Twitter akan Membatasi Polling dan Rekomendasi 'For You' Bagi Pengguna Terverifikasi Mulai 15 April

Pendekatan pemerintah, yang diuraikan dalam makalah kebijakan yang diterbitkan pada hari Rabu, akan membagi tanggung jawab untuk mengatur kecerdasan buatan (AI) antara regulator hak asasi manusia, kesehatan dan keselamatan, dan persaingan, daripada membuat badan baru yang didedikasikan untuk teknologi tersebut.

Transparansi
Musk, yang perusahaan mobilnya Tesla menggunakan AI untuk sistem autopilot, telah menyuarakan keprihatinannya tentang AI.

Sejak dirilis tahun lalu, ChatGPT dari OpenAI telah mendorong para pesaingnya untuk mempercepat pengembangan model bahasa besar yang serupa, dan perusahaan-perusahaan untuk mengintegrasikan model AI generatif ke dalam produk mereka.

Baca Juga: Apple Meluncurkan Pembaruan iOS 16.4 dengan Emoji Baru, Isolasi Suara untuk Panggilan dan Lainnya

Minggu lalu, OpenAI mengumumkan bahwa mereka telah bermitra dengan sekitar selusin perusahaan untuk membangun layanan mereka ke dalam chatbot-nya, yang memungkinkan pengguna ChatGPT untuk memesan bahan makanan melalui Instacart, atau memesan penerbangan melalui Expedia.

Sam Altman, kepala eksekutif di OpenAI belum menandatangani surat tersebut, kata juru bicara Future of Life kepada Reuters.

"Surat ini tidak sempurna, tetapi semangatnya benar: kita perlu memperlambat sampai kita lebih memahami konsekuensinya," kata Gary Marcus, seorang profesor di New York University yang menandatangani surat tersebut.

Baca Juga: Baidu Cina Membatalkan Peluncuran Publik untuk Produk Mirip ChatGPT

"Para pemain besar menjadi semakin tertutup tentang apa yang mereka lakukan, yang membuat masyarakat sulit untuk mempertahankan diri dari bahaya apa pun yang mungkin muncul".

Para kritikus menuduh para penandatangan surat tersebut mempromosikan "hype AI", dengan alasan bahwa klaim seputar potensi teknologi saat ini telah sangat dibesar-besarkan.

"Pernyataan semacam ini dimaksudkan untuk meningkatkan sensasi. Hal ini dimaksudkan untuk membuat orang khawatir," kata Johanna Björklund, seorang peneliti AI dan profesor di Universitas Umeå.

Baca Juga: Spesifikasi OnePlus Nord CE 3 Lite 5G Telah Bocor ke Publik Jelang Peluncuran pada 4 April Mendatang

"Saya rasa tidak perlu menarik rem tangan," tambahnya.

Daripada menghentikan penelitian, katanya, para peneliti AI harus dikenakan persyaratan transparansi yang lebih besar.

"Jika Anda melakukan penelitian AI, Anda harus sangat transparan tentang bagaimana Anda melakukannya," pungkasnya.***

Editor: Toni Irawan

Sumber: Reuters

Tags

Terkini

Terpopuler