Bitget App
Trading lebih cerdas
Beli KriptoPasarTradingFuturesEarnWeb3WawasanSelengkapnya
Trading
Spot
Beli dan jual kripto dengan mudah
Margin
Perkuat modalmu dan maksimalkan efisiensi dana
Onchain
Trading Onchain, tanpa on-chain
Konversi
Tanpa biaya, tanpa slippage
Jelajah
Launchhub
Dapatkan keunggulan lebih awal dan mulailah menang
Copy
Salin elite trader dengan satu klik
Bot
Bot trading AI yang mudah, cepat, dan andal
Trading
Futures USDT-M
Futures diselesaikan dalam USDT
Futures USDC-M
Futures diselesaikan dalam USDC
Futures Koin-M
Futures diselesaikan dalam mata uang kripto
Jelajah
Panduan fitur
Dari pemula hingga mahir di perdagangan futures
Promosi Futures
Hadiah berlimpah menantimu
Ringkasan
Beragam produk untuk mengembangkan aset Anda
Earn Sederhana
Deposit dan tarik kapan saja untuk mendapatkan imbal hasil fleksibel tanpa risiko
Earn On-chain
Dapatkan profit setiap hari tanpa mempertaruhkan modal pokok
Earn Terstruktur
Inovasi keuangan yang tangguh untuk menghadapi perubahan pasar
VIP dan Manajemen Kekayaan
Layanan premium untuk manajemen kekayaan cerdas
Pinjaman
Pinjaman fleksibel dengan keamanan dana tinggi
Perbatasan Baru Keamanan AI: Pengujian Lintas Laboratorium untuk Menyatukan Industri

Perbatasan Baru Keamanan AI: Pengujian Lintas Laboratorium untuk Menyatukan Industri

ainvest2025/08/27 19:56
Tampilkan aslinya
Oleh:Coin World

- Ilya Sutskever dari OpenAI mendorong pengujian lintas laboratorium untuk memperkuat keamanan AI di tengah kemajuan teknologi yang pesat dan risiko di seluruh industri. - Uji coba Claude berbasis browser dari Anthropic menyoroti tantangan keamanan seperti serangan prompt injection, sehingga mendorong strategi mitigasi yang lebih ditingkatkan. - Sebuah studi mengungkapkan tingkat kepatuhan yang rendah terhadap komitmen keamanan sukarela oleh perusahaan AI besar, termasuk Apple, sehingga mempertanyakan efektivitas regulasi mandiri. - Inisiatif Keamanan AI dari Cloud Security Alliance menawarkan kerangka kerja dan RiskRub.

Co-founder dan anggota dewan OpenAI, Ilya Sutskever, telah menyerukan penerapan pengujian lintas laboratorium sebagai langkah penting untuk memastikan keamanan sistem kecerdasan buatan (AI). Pernyataannya muncul di tengah meningkatnya kekhawatiran atas risiko yang terkait dengan kemajuan AI, dengan para pemimpin industri menekankan perlunya protokol keamanan kolaboratif dan terstandarisasi. Seruan Sutskever untuk pengujian lintas laboratorium sejalan dengan upaya yang lebih luas untuk memperkuat keamanan AI dan mengurangi potensi bahaya seiring teknologi ini terus berkembang dengan cepat [1].

Kebutuhan akan pendekatan kolaboratif seperti ini ditekankan oleh perkembangan terbaru dalam penerapan dan regulasi AI. Misalnya, Anthropic, salah satu pemain utama di sektor AI, telah memperkenalkan program percontohan untuk asisten AI-nya, Claude, yang dirancang untuk beroperasi langsung di browser pengguna. Inisiatif ini, yang bertujuan meningkatkan utilitas AI dengan mengintegrasikannya ke dalam alur kerja digital inti, juga menyoroti tantangan besar terkait keamanan dan keselamatan pada agen AI berbasis browser. Serangan prompt injection—di mana pelaku jahat memanipulasi perilaku AI dengan menyisipkan instruksi tersembunyi—telah muncul sebagai risiko utama, mendorong Anthropic untuk menerapkan strategi mitigasi yang kuat seperti izin tingkat situs, konfirmasi tindakan, dan classifier canggih untuk mendeteksi pola mencurigakan [2].

Risiko semacam ini tidak terbatas pada perusahaan individu. Sebuah studi terbaru dari peneliti di Brown, Harvard, dan Stanford menemukan bahwa banyak perusahaan AI belum sepenuhnya memenuhi komitmen keselamatan sukarela mereka, terutama setelah janji keselamatan AI dari pemerintahan Biden pada tahun 2023. Apple, misalnya, menunjukkan kinerja buruk dalam evaluasi, dengan bukti kepatuhan hanya pada satu dari delapan komitmen. Studi ini menyoroti keterbatasan regulasi mandiri di industri yang berkembang pesat dan menimbulkan pertanyaan tentang efektivitas langkah sukarela dalam memastikan akuntabilitas dan keamanan [5].

Menanggapi tantangan ini, Cloud Security Alliance (CSA) meluncurkan AI Safety Initiative pada akhir 2023, yang mempertemukan para pemimpin industri, lembaga pemerintah, dan institusi akademik untuk mengembangkan alat dan kerangka kerja praktis dalam manajemen risiko AI. Inisiatif ini menyediakan daftar periksa kesiapan AI, kerangka tata kelola, dan pedoman keamanan bagi organisasi, dengan tujuan menyelaraskan kemajuan teknologi dengan ekspektasi regulasi. Secara khusus, CSA juga telah memperkenalkan RiskRubric.ai, sebuah sistem penilaian yang mengevaluasi keamanan, transparansi, dan keandalan large language models (LLMs), menawarkan pendekatan berbasis data bagi perusahaan dalam mengadopsi AI [4].

Upaya kolaboratif untuk meningkatkan keamanan AI juga didukung oleh ekosistem pendanaan dan program hibah yang terus berkembang. Organisasi seperti Long-Term Future Fund, Survival and Flourishing Fund, dan AI Safety Fund memberikan dukungan finansial kepada peneliti, pengusaha, dan institusi yang bekerja pada mitigasi risiko AI. Inisiatif ini bertujuan mengatasi risiko eksistensial jangka panjang sekaligus mendorong inovasi yang bertanggung jawab. Selain itu, perusahaan modal ventura seperti Juniper Ventures dan Mythos Ventures berinvestasi pada startup yang mengembangkan alat untuk meningkatkan keamanan, kepatuhan, dan tata kelola AI [6].

Seruan untuk pengujian lintas laboratorium, seperti yang diadvokasi oleh Sutskever, merupakan langkah penting untuk mengatasi tantangan sistemik ini. Dengan memungkinkan standar bersama dan evaluasi transparan di seluruh laboratorium pengembangan AI, industri dapat membangun kepercayaan dan akuntabilitas yang lebih besar. Pendekatan ini sangat penting seiring sistem AI menjadi semakin kompleks dan canggih, sehingga diperlukan upaya bersama untuk mengevaluasi potensi risiko sebelum diterapkan. OpenAI, Anthropic, dan pemangku kepentingan utama lainnya memiliki peluang—dan tanggung jawab—untuk memimpin transisi ini dengan mengadopsi protokol keamanan kolaboratif dan menetapkan preseden untuk inovasi AI yang bertanggung jawab [1].

Perbatasan Baru Keamanan AI: Pengujian Lintas Laboratorium untuk Menyatukan Industri image 0
0

Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.

PoolX: Raih Token Baru
APR hingga 12%. Selalu aktif, selalu dapat airdrop.
Kunci sekarang!

Kamu mungkin juga menyukai

Jepang berencana mereformasi tarif pajak cryptocurrency menjadi 20%, apakah ini dapat memicu gelombang pembelian baru?

Reformasi tarif pajak diperkirakan paling cepat akan terlihat hasilnya pada awal tahun 2026.

Chaincatcher2025/08/31 05:17
Jepang berencana mereformasi tarif pajak cryptocurrency menjadi 20%, apakah ini dapat memicu gelombang pembelian baru?

Praktik KYT di bidang kripto

Menurut data Bitrace, selama periode Januari 2021 hingga September 2023, jaringan Tron telah mencatat lebih dari 41.52 billions risiko...

币追 Bitrace2025/08/31 04:03
Praktik KYT di bidang kripto