Notification

×

Iklan

Iklan

Tag Terpopuler

AI mulai berdampak besar di dunia nyata, kata pakar

29 October 2021 | 11:50 WIB Last Updated 2023-10-10T15:51:25Z

Ya, kami ketakutan': AI mulai berdampak besar di dunia nyata, kata pakar

Prof Stuart Russell mengatakan bidang kecerdasan buatan perlu berkembang dengan cepat untuk memastikan manusia tetap memegang kendali

AI mulai berdampak besar di dunia nyata, kata pakar
Masih ada kesenjangan besar antara AI saat ini dan yang digambarkan dalam film seperti Ex Machina, kata Prof Stuart Russell. Foto: Film4/Allstar


Seorang ilmuwan yang menulis buku teks terkemuka tentang kecerdasan buatan mengatakan para ahli "takut" dengan keberhasilan mereka sendiri di lapangan, membandingkan kemajuan AI dengan pengembangan bom atom.


Prof Stuart Russell, pendiri Center for Human-Compatible Artificial Intelligence di University of California, Berkeley, mengatakan sebagian besar ahli percaya bahwa mesin yang lebih cerdas daripada manusia akan dikembangkan abad ini, dan dia menyerukan perjanjian internasional untuk mengatur perkembangan teknologi.

AI mulai berdampak besar di dunia nyata, kata pakar
Prof Stuart Russell. Photograph: Peg Skorpinski


“Komunitas AI belum menyesuaikan diri dengan kenyataan bahwa kami sekarang mulai memiliki dampak yang sangat besar di dunia nyata,” katanya kepada Guardian. “Itu tidak terjadi pada sebagian besar sejarah lapangan – kami hanya di lab, mengembangkan berbagai hal, mencoba membuat barang berfungsi, sebagian besar gagal membuat barang berfungsi. Jadi pertanyaan tentang dampak dunia nyata sama sekali tidak relevan. Dan kami harus tumbuh dengan sangat cepat untuk mengejar ketinggalan.”


Kecerdasan buatan menopang banyak aspek kehidupan modern, dari mesin pencari hingga perbankan, dan kemajuan dalam pengenalan gambar dan terjemahan mesin adalah salah satu perkembangan utama dalam beberapa tahun terakhir.


Russell – yang pada tahun 1995 ikut menulis buku mani Artificial Intelligence: A Modern Approach, dan yang akan memberikan kuliah BBC Reith tahun ini berjudul “Hidup dengan Kecerdasan Buatan”, yang dimulai pada hari Senin – mengatakan pekerjaan mendesak diperlukan untuk memastikan manusia tetap terkendali saat AI superintelligent dikembangkan.


“AI telah dirancang dengan satu metodologi tertentu dan semacam pendekatan umum. Dan kami tidak cukup berhati-hati untuk menggunakan sistem semacam itu dalam pengaturan dunia nyata yang rumit,” katanya.


Misalnya, meminta AI untuk menyembuhkan kanker secepat mungkin bisa berbahaya. “Mungkin akan menemukan cara untuk memicu tumor di seluruh populasi manusia, sehingga bisa menjalankan jutaan eksperimen secara paralel, menggunakan kita semua sebagai kelinci percobaan,” kata Russell. “Dan itu karena itulah solusi untuk tujuan yang kami berikan; kami hanya lupa untuk menentukan bahwa Anda tidak dapat menggunakan manusia sebagai kelinci percobaan dan Anda tidak dapat menggunakan seluruh PDB dunia untuk menjalankan eksperimen Anda dan Anda tidak dapat melakukan ini dan Anda tidak dapat melakukan itu.”


Russell mengatakan masih ada kesenjangan besar antara AI saat ini dan yang digambarkan dalam film seperti Ex Machina , tetapi masa depan dengan mesin yang lebih cerdas daripada manusia ada di kartu itu.


“Saya pikir angka berkisar dari 10 tahun untuk yang paling optimis hingga beberapa ratus tahun,” kata Russell. “Tetapi hampir semua peneliti AI akan mengatakan itu akan terjadi di abad ini.”


Satu kekhawatiran adalah bahwa mesin tidak perlu lebih cerdas dari manusia dalam segala hal untuk menimbulkan risiko serius. "Ini adalah sesuatu yang sedang berlangsung sekarang," katanya. “Jika Anda melihat media sosial dan algoritme yang memilih apa yang dibaca dan ditonton orang, mereka memiliki kendali besar atas masukan kognitif kita.”


Hasilnya, katanya, adalah bahwa algoritme memanipulasi pengguna, mencuci otak mereka sehingga perilaku mereka menjadi lebih dapat diprediksi dalam hal apa yang mereka pilih untuk terlibat, meningkatkan pendapatan berbasis klik.


Apakah peneliti AI menjadi ketakutan dengan kesuksesan mereka sendiri? "Ya, saya pikir kami semakin ketakutan," kata Russell.


“Ini sedikit mengingatkan saya pada apa yang terjadi dalam fisika di mana para fisikawan mengetahui bahwa energi atom ada, mereka dapat mengukur massa atom yang berbeda, dan mereka dapat mengetahui berapa banyak energi yang dapat dilepaskan jika Anda dapat melakukan konversi antara berbagai jenis atom. atom, ”katanya, mencatat bahwa para ahli selalu menekankan gagasan itu teoretis. "Dan kemudian itu terjadi dan mereka tidak siap untuk itu."


Penggunaan AI dalam aplikasi militer – seperti senjata anti-personil kecil – menjadi perhatian khusus, katanya. “Itu adalah yang sangat mudah diukur, artinya Anda bisa memasukkan satu juta dari mereka ke dalam satu truk dan Anda bisa membuka bagian belakang dan mereka pergi dan menghapus seluruh kota,” kata Russell.


Russell percaya masa depan AI terletak pada pengembangan mesin yang mengetahui tujuan sebenarnya tidak pasti, seperti preferensi kami, yang berarti mereka harus memeriksa dengan manusia – seperti kepala pelayan – pada keputusan apa pun. Tetapi idenya rumit, paling tidak karena orang yang berbeda memiliki preferensi yang berbeda – dan terkadang bertentangan –, dan preferensi tersebut tidak tetap.


Russell menyerukan langkah-langkah termasuk kode etik untuk peneliti, undang-undang dan perjanjian untuk memastikan keamanan sistem AI yang digunakan, dan pelatihan peneliti untuk memastikan AI tidak rentan terhadap masalah seperti bias rasial. Dia mengatakan undang-undang UE yang akan melarang peniruan identitas manusia oleh mesin harus diadopsi di seluruh dunia.


Russell mengatakan dia berharap kuliah Reith akan menekankan bahwa ada pilihan tentang apa yang akan terjadi di masa depan. “Sangat penting bagi publik untuk terlibat dalam pilihan-pilihan itu, karena publiklah yang akan diuntungkan atau tidak,” katanya.


Tapi ada pesan lain juga. “Kemajuan dalam AI adalah sesuatu yang akan memakan waktu cukup lama untuk terjadi, tetapi itu tidak menjadikannya fiksi ilmiah,” katanya.

theguardian.com

No comments:

Post a Comment