英國立法者警告:AI安全承諾正淪為表面功夫
- 60位英國立法者指控Google DeepMind違反AI安全承諾,因為其延遲發布Gemini 2.5 Pro的詳細安全報告。 - 該公司在產品發布三週後僅發布了簡化的模型卡,缺乏第三方測試及政府機構參與的透明度。 - Google聲稱其在數月後發布了技術報告,已履行相關承諾,但批評者認為這削弱了對安全協議的信任。 - Meta和OpenAI也出現類似問題,凸顯了整個行業對透明度的普遍擔憂。
英國有60名議員聯署公開信,指控Google DeepMind未能履行其AI安全承諾,特別是在其Gemini 2.5 Pro模型的詳細安全資訊發布延遲方面[1]。這封由政治行動組織PauseAI發表的公開信,批評該公司在模型發布時未能提供完整的模型卡,該文件是說明模型如何測試與建構的關鍵文件[1]。他們認為,這一失誤構成了對2024年2月國際峰會上簽署的Frontier AI Safety Commitments的違反,當時包括Google在內的簽署方承諾將公開報告模型能力、風險評估及第三方測試參與情況[1]。
Google於2025年3月發布Gemini 2.5 Pro,但當時並未發布完整的模型卡,儘管聲稱該模型在關鍵基準測試中超越競爭對手[1]。取而代之的是,三週後僅發布了一份簡化的六頁模型卡,一些AI治理專家認為這份文件內容不足且令人擔憂[1]。公開信指出,該文件缺乏關於外部評估的實質細節,也未確認英國AI Security Institute等政府機構是否參與測試[1]。這些遺漏引發了外界對該公司安全實踐透明度的擔憂。
針對這些批評,Google DeepMind發言人先前對Fortune表示,任何關於公司違背承諾的說法都是「不準確」的[1]。該公司還於五月表示,當Gemini 2.5 Pro模型家族的最終版本可用時,將發布更詳細的技術報告。最終,一份更全面的報告於六月底發布,距離完整版本上線已有數月[1]。發言人重申,公司正在履行其公開承諾,包括首爾Frontier AI Safety Commitments,並且Gemini 2.5 Pro已經過嚴格的安全檢查,包括第三方測試者的評估[1]。
公開信還指出,Gemini 2.5 Pro缺失的模型卡似乎與Google此前的其他承諾相矛盾,例如2023年White House Commitments以及2023年10月簽署的人工智慧自願行為準則[1]。這種情況並非Google獨有。Meta也因其Llama 4模型的模型卡內容簡略而受到類似批評,而OpenAI則以GPT-4.1模型非frontier狀態為由,選擇不發布安全報告[1]。這些發展顯示,業界在安全資訊披露方面正出現透明度降低甚至省略的趨勢。
公開信呼籲Google重申其AI安全承諾,明確將模型公開可用時視為部署時點,承諾為所有未來模型發布設定安全評估報告的時間表,並在每次發布時完全透明,公開參與測試的政府機構和獨立第三方名稱,以及具體測試時間線[1]。公開信簽署人之一、上議院議員Lord Browne of Ladyton警告,如果領先的AI公司將安全承諾視為可選項,可能導致在缺乏適當保障措施的情況下,競相部署越來越強大的AI系統,帶來危險[1]。
Source:

免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
重大突破在即:SUI上漲7%,價格有望突破3.88美元

PEPE價格走勢穩定於支撐位上方,關注下一步向$0.0000147邁進

山寨幣季節陷入危機:Altcoin未平倉合約第三次超越Bitcoin——五大代幣仍值得持有

頂級交易員在獲利100%後將資金轉入新興山寨幣——現在最值得持有的4大代幣

加密貨幣價格
更多








