Syarikat Big Tech telah mengurangkan kakitangan daripada pasukan yang berdedikasi untuk menilai isu etika sekitar menggunakan kecerdasan buatan, yang membawa kepada kebimbangan tentang keselamatan teknologi baharu kerana ia diterima pakai secara meluas merentas produk pengguna.
Microsoft, Meta, Google, Amazon dan Twitter adalah antara syarikat yang telah memotong ahli “pasukan AI yang bertanggungjawab”, yang menasihati tentang keselamatan produk pengguna yang menggunakan kecerdasan buatan.
Bilangan kakitangan yang terjejas kekal berpuluh-puluh dan mewakili sebahagian kecil daripada puluhan ribu pekerja teknologi yang dihapuskan sebagai tindak balas kepada kemelesetan industri yang lebih meluas.
Syarikat-syarikat itu berkata mereka tetap berdedikasi untuk melancarkan produk AI yang selamat. Tetapi pakar berkata pemotongan itu tetap membimbangkan, kerana potensi penyalahgunaan teknologi sedang ditemui sama seperti berjuta-juta orang mula bereksperimen dengan alat AI.
Kebimbangan mereka bertambah berikutan kejayaan chatbot ChatGPT yang dilancarkan oleh OpenAI yang disokong Microsoft, yang menyebabkan firma teknologi lain mengeluarkan pesaing seperti Google’s Bard dan Anthropic’s Claude.
“Sungguh mengejutkan berapa ramai ahli AI yang bertanggungjawab dilepaskan pada masa yang boleh dikatakan, anda memerlukan lebih banyak pasukan tersebut berbanding sebelum ini,” kata Andrew Strait, bekas penyelidik etika dan dasar di DeepMind milik Alphabet dan pengarah bersekutu di organisasi penyelidikan Institut Ada Lovelace.
Microsoft membubarkan semua etika dan pasukan masyarakatnya pada bulan Januari, yang mengetuai kerja awal syarikat di kawasan itu. Gergasi teknologi itu berkata pemotongan itu berjumlah kurang daripada 10 peranan dan Microsoft masih mempunyai ratusan orang yang bekerja di pejabat AI yang bertanggungjawab.
“Kami telah meningkatkan usaha AI yang bertanggungjawab dengan ketara dan telah bekerja keras untuk menginstitusikannya di seluruh syarikat,” kata Natasha Crampton, ketua pegawai AI yang bertanggungjawab Microsoft.
Twitter telah mengurangkan lebih separuh daripada jumlah pekerjanya di bawah pemilik jutawan baharunya Elon Musk, termasuk pasukan AI beretika kecilnya. Kerja masa lalunya termasuk membetulkan bias dalam algoritma Twitter, yang kelihatan memihak kepada wajah putih apabila memilih cara memangkas imej pada rangkaian sosial. Twitter tidak menjawab permintaan untuk komen.
Twitch, platform penstriman milik Amazon, memotong pasukan AI beretika minggu lalu, menjadikan semua pasukan yang bekerja pada produk AI bertanggungjawab terhadap isu yang berkaitan dengan berat sebelah, menurut seseorang yang biasa dengan langkah itu. Twitch enggan mengulas.
Pada bulan September, Meta membubarkan pasukan inovasinya yang bertanggungjawab yang terdiri daripada kira-kira 20 jurutera dan ahli etika yang ditugaskan untuk menilai hak sivil dan etika di Instagram dan Facebook. Meta tidak menjawab permintaan untuk komen.
“Pasukan AI yang bertanggungjawab adalah antara satu-satunya benteng dalaman yang Big Tech perlu memastikan bahawa orang dan komuniti yang terjejas oleh sistem AI berada dalam fikiran jurutera yang membinanya,” kata Josh Simons, bekas penyelidik etika AI Facebook dan pengarang Algoritma untuk Rakyat.
“Kepantasan ia dimansuhkan meninggalkan algoritma Big Tech bergantung kepada keperluan pengiklanan, menjejaskan kesejahteraan kanak-kanak, orang yang terdedah dan demokrasi kita.”
Kebimbangan lain ialah model bahasa yang besar, yang mendasari chatbots seperti ChatGPT, dikenali sebagai “halusinasi” — membuat kenyataan palsu seolah-olah ia adalah fakta — dan boleh digunakan untuk tujuan jahat seperti menyebarkan maklumat yang salah dan menipu dalam peperiksaan.
“Apa yang kami mula lihat ialah kami tidak dapat menjangka sepenuhnya semua perkara yang akan berlaku dengan teknologi baharu ini, dan adalah penting untuk kami memberi perhatian kepada mereka,” kata Michael Luck, pengarah King’s College Institut Kepintaran Buatan London.
Peranan pasukan etika AI dalaman telah diteliti kerana terdapat perdebatan tentang sama ada sebarang campur tangan manusia ke dalam algoritma harus lebih telus dengan input daripada orang ramai dan pengawal selia.
Pada tahun 2020, aplikasi foto milik Meta Instagram menubuhkan pasukan untuk menangani “keadilan algoritma” pada platformnya. Pasukan “IG Equity” telah ditubuhkan selepas pembunuhan polis George Floyd dan keinginan untuk membuat pelarasan pada algoritma Instagram untuk menggalakkan perbincangan kaum dan menyerlahkan profil orang yang terpinggir.
Simons berkata: “Mereka dapat campur tangan dan mengubah sistem dan berat sebelah itu [and] meneroka campur tangan teknologi yang akan memajukan ekuiti . . . tetapi jurutera tidak sepatutnya memutuskan bagaimana masyarakat dibentuk.”
Sesetengah pekerja yang ditugaskan dengan pengawasan AI beretika di Google juga telah diberhentikan sebagai sebahagian daripada pemotongan lebih 12,000 kakitangan di Alphabet, menurut seseorang yang rapat dengan syarikat itu.
Google tidak akan menyatakan berapa banyak peranan telah dipotong tetapi AI yang bertanggungjawab itu kekal sebagai “keutamaan utama di syarikat, dan kami terus melabur dalam pasukan tersebut”.
Ketegangan antara pembangunan teknologi AI dalam syarikat dan impak serta keselamatannya telah muncul di Google sebelum ini. Dua pemimpin penyelidikan etika AI, Timnit Gebru dan Margaret Mitchell, masing-masing keluar pada 2020 dan 2021, selepas pertengkaran yang sangat dipublikasikan dengan syarikat itu.
“Adalah bermasalah apabila amalan AI yang bertanggungjawab tidak diberi keutamaan untuk persaingan atau untuk dorongan ke pasaran,” kata Strait dari Institut Ada Lovelace. “Dan malangnya, apa yang saya lihat sekarang ialah apa yang berlaku.”
Pelaporan tambahan oleh Hannah Murphy di San Francisco