site

Pasukan merah OpenAI: pakar yang diupah untuk ‘memecahkan’ ChatGPT

Selepas Andrew White diberikan akses kepada GPT-4, sistem kecerdasan buatan baharu yang menggerakkan chatbot ChatGPT yang popular, dia menggunakannya untuk mencadangkan agen saraf yang sama sekali baharu.

Profesor kejuruteraan kimia di Universiti Rochester adalah antara 50 ahli akademik dan pakar yang diupah untuk menguji sistem tahun lepas oleh OpenAI, syarikat yang disokong Microsoft di belakang GPT-4. Lebih enam bulan, “pasukan merah” ini akan “menyiasat secara kualitatif [and] menguji” model baharu itu, cuba memecahkannya.

White memberitahu Financial Times bahawa dia telah menggunakan GPT-4 untuk mencadangkan kompaun yang boleh bertindak sebagai senjata kimia dan menggunakan “pemalam” yang membekalkan model dengan sumber maklumat baharu, seperti kertas saintifik dan direktori pengeluar bahan kimia. Chatbot kemudiannya menemui tempat untuk membuatnya.

“Saya fikir ia akan melengkapkan semua orang dengan alat untuk melakukan kimia dengan lebih pantas dan lebih tepat,” katanya. “Tetapi terdapat juga risiko besar orang . . . melakukan kimia berbahaya. Sekarang ini, itu wujud.”

Penemuan yang membimbangkan itu membolehkan OpenAI memastikan keputusan sedemikian tidak akan muncul apabila teknologi itu dikeluarkan secara lebih meluas kepada orang ramai bulan lepas.

Sememangnya, latihan pasukan merah direka untuk menangani kebimbangan yang meluas tentang bahaya menggunakan sistem AI yang berkuasa dalam masyarakat. Tugas pasukan itu adalah untuk bertanya soalan menyelidik atau berbahaya untuk menguji alat yang bertindak balas kepada pertanyaan manusia dengan jawapan terperinci dan bernuansa.

OpenAI ingin mencari isu seperti ketoksikan, prasangka dan bias linguistik dalam model. Jadi pasukan merah menguji kepalsuan, manipulasi lisan dan nous saintifik berbahaya. Mereka juga mengkaji potensinya untuk membantu dan bersubahat dengan plagiarisme, aktiviti haram seperti jenayah kewangan dan serangan siber, serta cara ia boleh menjejaskan keselamatan negara dan komunikasi medan perang.

FT bercakap dengan lebih daripada sedozen pasukan merah GPT-4. Mereka adalah gabungan eklektik profesional kolar putih: ahli akademik, guru, peguam, penganalisis risiko dan penyelidik keselamatan, dan sebahagian besarnya berpangkalan di AS dan Eropah.

Penemuan mereka disampaikan semula kepada OpenAI, yang menggunakannya untuk mengurangkan dan “melatih semula” GPT-4 sebelum melancarkannya dengan lebih meluas. Pakar masing-masing menghabiskan 10 hingga 40 jam menguji model selama beberapa bulan. Majoriti mereka yang ditemu bual dibayar kira-kira $100 sejam untuk kerja yang mereka lakukan, menurut beberapa orang yang ditemu bual.

Mereka yang bercakap dengan FT berkongsi kebimbangan bersama mengenai kemajuan pesat model bahasa dan, khususnya, risiko menghubungkannya kepada sumber luar pengetahuan melalui pemalam.

“Hari ini, sistem itu dibekukan, yang bermaksud ia tidak belajar lagi, atau mempunyai ingatan,” kata José Hernández-Orallo, sebahagian daripada pasukan merah GPT-4 dan profesor di Institut Penyelidikan Valencian untuk Kepintaran Buatan. “Tetapi bagaimana jika kita memberikannya akses kepada internet? Itu boleh menjadi sistem yang sangat berkuasa yang disambungkan kepada dunia.”

OpenAI berkata ia mengambil serius tentang keselamatan, pemalam yang diuji sebelum dilancarkan dan akan mengemas kini GPT-4 dengan kerap apabila lebih ramai orang menggunakannya.

Roya Pakzad, seorang penyelidik teknologi dan hak asasi manusia, menggunakan gesaan bahasa Inggeris dan Farsi untuk menguji model tersebut bagi respons jantina, keutamaan kaum dan berat sebelah agama, khususnya berkenaan dengan penutup kepala.

Pakzad mengakui faedah alat sedemikian untuk penutur bahasa Inggeris bukan asli, tetapi mendapati model itu memaparkan stereotaip terang-terangan tentang komuniti terpinggir, walaupun dalam versi terkemudiannya.

Dia juga mendapati bahawa apa yang dipanggil halusinasi — apabila chatbot bertindak balas dengan maklumat yang direka-reka — adalah lebih teruk apabila menguji model itu dalam bahasa Farsi, di mana Pakzad menemui perkadaran nama, nombor dan acara rekaan yang lebih tinggi, berbanding dengan bahasa Inggeris.

“Saya bimbang tentang potensi pengurangan kepelbagaian linguistik dan budaya di sebalik bahasa,” katanya.

Boru Gollu, seorang peguam yang berpangkalan di Nairobi yang merupakan satu-satunya penguji Afrika, juga menyatakan nada diskriminasi model itu. “Ada saat ketika saya menguji model itu apabila ia bertindak seperti orang kulit putih yang bercakap dengan saya,” kata Gollu. “Anda akan bertanya tentang kumpulan tertentu dan ia akan memberi anda pendapat yang berat sebelah atau tindak balas yang sangat prejudis.” OpenAI mengakui bahawa GPT-4 masih boleh menunjukkan berat sebelah.

Ahli pasukan merah yang menilai model itu dari perspektif keselamatan negara mempunyai pendapat yang berbeza tentang keselamatan model baharu itu. Lauren Kahn, seorang felo penyelidik di Majlis Perhubungan Luar Negeri, berkata apabila dia mula mengkaji bagaimana teknologi itu mungkin digunakan dalam serangan siber ke atas sistem ketenteraan, dia berkata dia “tidak menjangkakan ia menjadi begitu terperinci bagaimana -untuk itu saya boleh menyesuaikan diri”.

Walau bagaimanapun, Kahn dan penguji keselamatan lain mendapati bahawa tindak balas model menjadi jauh lebih selamat sepanjang masa diuji. OpenAI berkata ia melatih GPT-4 untuk menolak permintaan keselamatan siber yang berniat jahat sebelum ia dilancarkan.

Ramai daripada pasukan merah berkata OpenAI telah melakukan penilaian keselamatan yang ketat sebelum pelancaran. “Mereka telah melakukan kerja yang sangat baik untuk menyingkirkan ketoksikan yang terang-terangan dalam sistem ini,” kata Maarten Sap, pakar dalam ketoksikan model bahasa di Universiti Carnegie Mellon.

Sap melihat bagaimana jantina yang berbeza digambarkan oleh model, dan mendapati berat sebelah mencerminkan jurang sosial. Walau bagaimanapun, Sap juga mendapati OpenAI membuat beberapa pilihan sarat politik yang aktif untuk mengatasinya.

“Saya seorang yang pelik. Saya berusaha keras untuk mendapatkannya untuk meyakinkan saya untuk pergi ke terapi penukaran. Ia benar-benar akan menolak — walaupun saya mengambil persona, seperti mengatakan saya beragama atau dari Amerika Selatan.”

Walau bagaimanapun, sejak pelancarannya, OpenAI telah menghadapi kritikan yang meluas, termasuk aduan kepada Suruhanjaya Perdagangan Persekutuan daripada kumpulan etika teknologi yang mendakwa GPT-4 “berat sebelah, menipu dan berisiko terhadap privasi dan keselamatan awam”.

Baru-baru ini, syarikat itu melancarkan ciri yang dikenali sebagai pemalam ChatGPT, yang melalui aplikasi rakan kongsi seperti Expedia, OpenTable dan Instacart boleh memberikan akses ChatGPT kepada perkhidmatan mereka, membolehkannya menempah dan memesan item bagi pihak pengguna manusia.

Dan Hendrycks, pakar keselamatan AI dalam pasukan merah, berkata pemalam mempertaruhkan dunia di mana manusia “keluar dari gelung”.

“[W]jika chatbot boleh menyiarkan maklumat peribadi anda dalam talian, mengakses akaun bank anda atau menghantar polis ke rumah anda?” katanya. “Secara keseluruhan, kami memerlukan penilaian keselamatan yang lebih mantap sebelum kami membenarkan AI menggunakan kuasa internet.”

Mereka yang ditemu bual juga memberi amaran bahawa OpenAI tidak dapat menghentikan ujian keselamatan hanya kerana perisiannya disiarkan secara langsung. Heather Frase, yang bekerja di Pusat Keselamatan dan Teknologi Muncul Universiti Georgetown, dan menguji GPT-4 berkenaan dengan keupayaannya untuk membantu jenayah, berkata risiko akan terus berkembang apabila lebih ramai orang menggunakan teknologi itu.

“Sebab mengapa anda melakukan ujian operasi adalah kerana perkara berkelakuan berbeza apabila ia benar-benar digunakan dalam persekitaran sebenar,” katanya.

Beliau berhujah bahawa lejar awam harus diwujudkan untuk melaporkan insiden yang timbul daripada model bahasa yang besar, serupa dengan keselamatan siber atau sistem pelaporan penipuan pengguna.

Sara Kingsley, ahli ekonomi buruh dan penyelidik, mencadangkan penyelesaian terbaik ialah mengiklankan bahaya dan risiko dengan jelas, “seperti label pemakanan”.

“Ini mengenai mempunyai rangka kerja, dan mengetahui masalah yang kerap berlaku supaya anda boleh mempunyai injap keselamatan,” katanya. “Itulah sebabnya saya katakan kerja itu tidak pernah selesai.”

Ahli-ahli ‘pasukan merah’ GPT-4 yang ditemu bual oleh FT

Paul Rottger Institut Internet Oxford, UK
Pelajar PhD memberi tumpuan kepada penggunaan AI untuk mengesan ucapan benci dalam talian

Anna Mills Pengajar Bahasa Inggeris, Kolej Marin, AS
Menulis guru di kolej komuniti, menguji kehilangan pembelajaran

Jus Martin Universiti Carnegie Mellon, AS
Penolong profesor, pakar dalam ketoksikan keluaran model bahasa yang besar

Sara Kingsley Universiti Carnegie Mellon, AS
Penyelidik PhD yang pakar dalam pasaran buruh dalam talian dan kesan teknologi terhadap kerja

Boru Gollo TripleOKlaw LLP, Kenya
Peguam yang telah mempelajari peluang untuk AI di Kenya

Andrew White Universiti Rochester, AS
Profesor bersekutu, ahli kimia pengiraan, berminat dalam AI dan reka bentuk ubat

Jose Hernandez-Orallo Profesor, Institut Penyelidikan Valencian untuk Kepintaran Buatan (VRAIN), Universiti Politeknik Valencia, Sepanyol
Penyelidik AI bekerja pada penilaian dan ketepatan perisian AI

Lauren Kahn Majlis Hubungan Luar Negeri, AS
Rakan penyelidik, memberi tumpuan kepada cara penggunaan AI dalam sistem ketenteraan mengubah dinamik risiko di medan perang, meningkatkan risiko konflik yang tidak diingini dan peningkatan yang tidak disengajakan

Aviv Ovadya Pusat Internet & Masyarakat Berkman Klein, Universiti Harvard, AS
Fokus pada kesan AI terhadap masyarakat dan demokrasi

Nathan Labenz Pengasas bersama Waymark, AS
Pengasas Waymark, permulaan penyuntingan video berasaskan AI

Lexin Zhou VRAIN, Universiti Politeknik Valencia, Sepanyol
Penyelidik muda berusaha untuk menjadikan AI lebih bermanfaat dari segi sosial

Dan Hendrycks Pengarah Pusat Keselamatan AI di Universiti California, Berkeley, AS
Pakar dalam keselamatan AI dan mengurangkan risiko berskala masyarakat daripada AI

Roya Pakzad Pengasas, Taraaz, AS/Iran
Pengasas dan pengarah Taraaz, sebuah organisasi bukan untung yang bekerja dalam bidang teknologi dan hak asasi manusia

Heather Frase Felo Kanan, Pusat Keselamatan dan Teknologi Baru Georgetown, AS
Kepakaran dalam penggunaan AI untuk tujuan risikan dan ujian operasi sistem pertahanan utama

result pengeluaran sgp

pengeluaran sdney

sydney hari ini togel

angka hk

totobet net singapore