Buyuk Britaniya qonunchilari ogohlantirdi: AI xavfsizligi bo‘yicha va’dalar faqat tashqi ko‘rinishga aylanmoqda
- 60 nafar Buyuk Britaniyalik qonunchilar Google DeepMind’ni Gemini 2.5 Pro uchun batafsil xavfsizlik hisobotlarini kechiktirib, AI xavfsizligi bo‘yicha majburiyatlarni buzganlikda aybladi. - Kompaniya ishga tushirilgandan uch hafta o‘tib, uchinchi tomon testlari va hukumat agentliklari ishtiroki haqida aniq ma’lumotlarga ega bo‘lmagan soddalashtirilgan model kartasini chiqardi. - Google bir necha oy o‘tib texnik hisobotni e’lon qilish orqali majburiyatlarni bajarganini ta’kidlamoqda, biroq tanqidchilar bu xavfsizlik protokollariga bo‘lgan ishonchga putur yetkazishini aytishmoqda. - Meta va OpenAI’da ham shunga o‘xshash muammolar butun sanoat bo‘yicha xavotirlarni ko‘rsatmoqda.
Birlashgan Qirollikdan 60 nafar qonunchilar guruhi Google DeepMind’ni AI xavfsizligi bo‘yicha o‘z majburiyatlarini bajarmaganlikda, xususan, Gemini 2.5 Pro modeli uchun batafsil xavfsizlik ma’lumotlarini kechiktirib e’lon qilganlikda ayblab, ochiq xat imzoladi [1]. Ushbu xat siyosiy faollar guruhi PauseAI tomonidan e’lon qilindi va kompaniyani model chiqarilgan paytda uning qanday sinovdan o‘tkazilgani va yaratilgani haqida asosiy hujjat bo‘lgan to‘liq model kartasini taqdim etmaganlikda tanqid qiladi [1]. Ularning ta’kidlashicha, bu xatti-harakat 2024 yil fevral oyida bo‘lib o‘tgan xalqaro sammitda qabul qilingan Frontier AI Safety Commitments majburiyatlarini buzish hisoblanadi, unda imzo chekkanlar, jumladan Google, model imkoniyatlari, xavf baholari va uchinchi tomon sinovlari haqida ommaga hisobot berishga va’da bergan edi [1].
Google Gemini 2.5 Pro’ni 2025 yil mart oyida chiqardi, biroq o‘sha vaqtda to‘liq model kartasini e’lon qilmadi, garchi model asosiy mezonlarda raqobatchilaridan ustun ekanini da’vo qilgan bo‘lsa ham [1]. Buning o‘rniga, uch haftadan so‘ng olti betlik soddalashtirilgan model kartasi chiqarildi, bu esa ayrim AI boshqaruvi bo‘yicha mutaxassislar tomonidan yetarli emas va xavotirli deb baholandi [1]. Xatda ta’kidlanishicha, hujjatda tashqi baholashlar haqida muhim tafsilotlar yetishmaydi va Buyuk Britaniya AI Security Institute kabi davlat agentliklari sinovda ishtirok etgan-yo‘qligi tasdiqlanmagan [1]. Ushbu kamchiliklar kompaniyaning xavfsizlik amaliyotlari shaffofligiga shubha uyg‘otmoqda.
Tanqidlarga javoban, Google DeepMind vakili ilgari Fortune’ga kompaniya o‘z majburiyatlaridan chekinayotgani haqidagi har qanday taxmin "noto‘g‘ri" ekanini aytgan edi [1]. Kompaniya, shuningdek, may oyida Gemini 2.5 Pro model oilasining yakuniy versiyasi mavjud bo‘lganda, batafsil texnik hisobot e’lon qilinishini bildirgan. Nihoyat, to‘liq versiya chiqarilganidan bir necha oy o‘tib, iyun oxirida kengroq hisobot e’lon qilindi [1]. Vakil kompaniya o‘zining ommaviy majburiyatlarini, jumladan Seoul Frontier AI Safety Commitments majburiyatlarini bajarayotganini va Gemini 2.5 Pro qat’iy xavfsizlik tekshiruvlaridan, jumladan uchinchi tomon sinovlaridan o‘tganini yana bir bor ta’kidladi [1].
Xatda, shuningdek, Gemini 2.5 Pro uchun yetishmayotgan model kartasi Google tomonidan ilgari berilgan boshqa va’dalarga, jumladan 2023 yilgi White House Commitments va 2023 yil oktyabrda imzolangan Artificial Intelligence bo‘yicha ixtiyoriy Code of Conduct’ga zid ekani qayd etilgan [1]. Bu holat faqat Google’ga xos emas. Meta ham Llama 4 modeli uchun minimal va cheklangan model kartasi uchun shunga o‘xshash tanqidlarga duch keldi, OpenAI esa GPT-4.1 modeli uchun xavfsizlik hisobotini e’lon qilmaslikka qaror qildi, bunga uning non-frontier maqomini sabab qilib ko‘rsatdi [1]. Ushbu voqealar sanoatda xavfsizlik bo‘yicha ma’lumotlarni oshkor qilish tobora shaffof bo‘lmayotgani yoki umuman e’lon qilinmayotganini ko‘rsatmoqda.
Xatda Google’dan AI xavfsizligi bo‘yicha majburiyatlarini yana bir bor tasdiqlash, model ommaga ochiq bo‘lgani — deployment deb aniq belgilash, kelajakdagi barcha model chiqishlari uchun xavfsizlik baholash hisobotlarini belgilangan muddatda e’lon qilish va har bir chiqish uchun davlat agentliklari va mustaqil uchinchi tomon sinovchilari nomini, shuningdek, aniq sinov muddatlarini to‘liq ochiqlash talab qilinadi [1]. Lord Browne of Ladyton, xat imzolovchilaridan biri va Lordlar palatasi a’zosi, agar yetakchi AI kompaniyalari xavfsizlik majburiyatlarini ixtiyoriy deb hisoblasa, bu tobora kuchli AI tizimlarini yetarli himoyasiz joriy etish bo‘yicha xavfli poygaga olib kelishi mumkinligini ogohlantirdi [1].
Manba:

Mas'uliyatni rad etish: Ushbu maqolaning mazmuni faqat muallifning fikrini aks ettiradi va platformani hech qanday sifatda ifodalamaydi. Ushbu maqola investitsiya qarorlarini qabul qilish uchun ma'lumotnoma sifatida xizmat qilish uchun mo'ljallanmagan.
Sizga ham yoqishi mumkin
Bugun AQSh Federal Reserve raisligiga 11 nafar nomzod suhbatdan o'tadi, Trump qanday tanlov qiladi?
AQSh Federal Rezervi raisligiga nomzodlar ro‘yxati e’lon qilindi, unda siyosat va biznes sohasidagi 11 nafar elita vakili mavjud. Bozor ishtirokchilari pul-kredit siyosatining mustaqilligi va kripto aktivlarga bo‘lgan munosabatga katta e’tibor qaratmoqda.

a16z hamkorining o‘n yillik maslahati: yangi siklda faqat shu uch narsaga e’tibor qarating

XRP yaqin orada 3 dollarni buzadimi?
XRP hozirda taxminan 2.80 dollar atrofidagi tor diapazonda harakat qilmoqda, biroq AQSh Federal zaxira tizimi deyarli aniq shu oy foiz stavkasini pasaytirishi kutilayotgani sababli, tez orada volatilitet qaytishi mumkin.

2025-yil sentyabr oyida sotib olishga arziydigan uchta eng yaxshi altkoin
Kripto bozori turg'un holatda, biroq bitcoinning barqarorligi va altcoin mavsumi indeksi imkoniyatlarni ko'rsatmoqda. Hozir xarid qilishga arziydigan uchta asosiy altcoin mana bular.
Trendda
Ko'proqKripto narxlari
Ko'proq








