Sejumlah penyelidik Kecerdasan Buatan (AI) yang terkenal – termasuk Elon Musk – telah menandatangani surat terbuka yang meminta makmal AI di seluruh dunia untuk menghentikan pembangunan sistem AI besar-besaran, dengan merujuk kepada ketakutan terhadap “risiko yang mendalam terhadap masyarakat dan kemanusiaan” yang dikatakan pembawaan perisian ini.
Surat tersebut, yang diterbitkan oleh sebuah badan ‘Future of Life Institute’, mencatat bahawa makmal AI sedang terlibat dalam “perlumbaan di luar kawalan” untuk membangunkan dan melaksanakan sistem pembelajaran mesin “yang tidak seorang pun – termasuk penciptanya sendiri – dapat memahami, meramal, atau mengawal dalam keadaan yang dipercayai.”
“Oleh itu, kami menyeru semua makmal AI untuk segera menghentikan selama sekurang-kurangnya 6 bulan latihan sistem AI yang lebih kuat daripada GPT-4,” kata surat tersebut. “Jeda ini haruslah bersifat awam dan boleh disahkan, serta melibatkan semua individu utama. Jika jeda seperti itu tidak dapat dilaksanakan dengan segera, kerajaan harus campur tangan dan menetapkan moratorium.”
Tandatangan-tandatangan tersebut termasuk penulis Yuval Noah Harari, pengasas Apple Steve Wozniak, pengasas Skype Jaan Tallinn, ahli politik Andrew Yang, dan sejumlah penyelidik AI dan CEO yang terkenal, termasuk Stuart Russell, Yoshua Bengio, Gary Marcus, dan Emad Mostaque.
Surat tersebut sepertinya tidak akan mempunyai sebarang kesan terhadap keadaan semasa dalam penyelidikan AI, yang mana syarikat teknologi seperti Google dan Microsoft sentiasa bergegas untuk melaksanakan produk baru, seringkali mengabaikan kebimbangan terdahulu tentang keselamatan dan etika. Tetapi ini merupakan tanda persaingan yang semakin meningkat terhadap pendekatan “hantarkan sekarang dan perbaiki kemudian”; sebuah persaingan yang dapat berpotensi masuk ke dalam domain politik untuk dipertimbangkan oleh ahli perundangan yang sebenar.
Seperti yang dinyatakan dalam surat itu, OpenAI sendiri telah menyatakan keperluan untuk “ulasan bebas” terhadap sistem AI masa hadapan untuk memastikan mereka memenuhi tahap keselamatan. Para penandatangan menyatakan bahawa masanya telah tiba.
“Makmal AI dan pakar-pakar bebas harus menggunakan jeda ini untuk bersama-sama membangunkan dan melaksanakan satu set protokol keselamatan untuk reka bentuk dan pembangunan AI yang lebih canggih yang dikaji secara ketat dan diawasi oleh pakar-pakar luaran bebas,” tulis mereka. “Protokol ini harus memastikan bahawa sistem yang mematuhi mereka adalah selamat tanpa sebarang keraguan yang munasabah.”
Baca surat terbuka yang lengkap di sini : Pause Giant AI Experiments: An Open Letter – Future of Life Institute
SUMBER
Artikel diterjemah dan diolah daripada portal ‘The Verge’ :
Elon Musk and top AI researchers call for pause on ‘giant AI experiments’ – The Verge
Sumber gambar artikel : https://medium.com/generative-ai/urgent-call-to-pause-ai-experiments-beyond-gpt-4-what-it-means-and-why-it-matters-6d4ca098da2ff