Các nhà lập pháp Vương quốc Anh cảnh báo: Cam kết an toàn AI đang trở thành hình thức đối phó bề ngoài
- 60 nghị sĩ Vương quốc Anh cáo buộc Google DeepMind vi phạm các cam kết về an toàn AI khi trì hoãn báo cáo an toàn chi tiết cho Gemini 2.5 Pro. - Công ty đã phát hành một bản mô hình đơn giản hóa ba tuần sau khi ra mắt, thiếu sự minh bạch về kiểm tra của bên thứ ba và sự tham gia của các cơ quan chính phủ. - Google cho rằng họ đã thực hiện các cam kết bằng cách công bố một báo cáo kỹ thuật vài tháng sau đó, nhưng các nhà phê bình cho rằng điều này làm suy yếu niềm tin vào các giao thức an toàn. - Các vấn đề tương tự tại Meta và OpenAI làm nổi bật mối quan ngại trên toàn ngành về tính minh bạch và an toàn AI.
Một nhóm gồm 60 nhà lập pháp Vương quốc Anh đã ký một bức thư ngỏ cáo buộc Google DeepMind không tuân thủ các cam kết về an toàn AI, đặc biệt liên quan đến việc trì hoãn công bố thông tin chi tiết về an toàn cho mô hình Gemini 2.5 Pro [1]. Bức thư, được công bố bởi nhóm hoạt động chính trị PauseAI, chỉ trích công ty vì không cung cấp một thẻ mô hình toàn diện vào thời điểm phát hành mô hình, đây là tài liệu quan trọng nêu rõ cách mô hình được kiểm tra và xây dựng [1]. Họ cho rằng sự thất bại này là vi phạm các Cam kết An toàn AI Tiên phong đã được đưa ra tại hội nghị quốc tế vào tháng 2 năm 2024, nơi các bên ký kết—bao gồm cả Google—cam kết công khai báo cáo về khả năng của mô hình, đánh giá rủi ro và sự tham gia của các bên kiểm tra độc lập [1].
Google đã phát hành Gemini 2.5 Pro vào tháng 3 năm 2025 nhưng không công bố thẻ mô hình đầy đủ vào thời điểm đó, mặc dù tuyên bố mô hình này vượt trội hơn các đối thủ trên các tiêu chuẩn quan trọng [1]. Thay vào đó, một thẻ mô hình đơn giản gồm sáu trang đã được phát hành sau đó ba tuần, mà một số chuyên gia quản trị AI mô tả là không đủ và đáng lo ngại [1]. Bức thư nhấn mạnh rằng tài liệu này thiếu chi tiết thực chất về các đánh giá bên ngoài và không xác nhận liệu các cơ quan chính phủ, như Viện An ninh AI Vương quốc Anh, có tham gia kiểm tra hay không [1]. Những thiếu sót này làm dấy lên lo ngại về tính minh bạch trong các thực tiễn an toàn của công ty.
Đáp lại những chỉ trích, một người phát ngôn của Google DeepMind trước đó đã nói với Fortune rằng bất kỳ gợi ý nào cho rằng công ty không thực hiện các cam kết của mình là "không chính xác" [1]. Công ty cũng cho biết vào tháng 5 rằng một báo cáo kỹ thuật chi tiết hơn sẽ được công bố khi phiên bản cuối cùng của dòng mô hình Gemini 2.5 Pro trở nên khả dụng. Một báo cáo toàn diện hơn cuối cùng đã được phát hành vào cuối tháng 6, vài tháng sau khi phiên bản đầy đủ được cung cấp [1]. Người phát ngôn nhấn mạnh rằng công ty đang thực hiện các cam kết công khai của mình, bao gồm cả các Cam kết An toàn AI Tiên phong tại Seoul, và Gemini 2.5 Pro đã trải qua các kiểm tra an toàn nghiêm ngặt, bao gồm cả các đánh giá của bên kiểm tra độc lập [1].
Bức thư cũng lưu ý rằng việc thiếu thẻ mô hình cho Gemini 2.5 Pro dường như mâu thuẫn với các cam kết khác mà Google đã đưa ra, chẳng hạn như các Cam kết Nhà Trắng năm 2023 và Bộ Quy tắc Ứng xử Tự nguyện về Trí tuệ Nhân tạo được ký vào tháng 10 năm 2023 [1]. Tình huống này không chỉ riêng Google. Meta cũng đối mặt với chỉ trích tương tự vì thẻ mô hình tối giản và hạn chế cho mô hình Llama 4, trong khi OpenAI đã chọn không công bố báo cáo an toàn cho mô hình GPT-4.1, với lý do đây không phải là mô hình tiên phong [1]. Những diễn biến này cho thấy một xu hướng rộng hơn trong ngành, nơi các công bố về an toàn đang trở nên kém minh bạch hơn hoặc bị bỏ qua hoàn toàn.
Bức thư kêu gọi Google tái khẳng định các cam kết an toàn AI của mình bằng cách xác định rõ ràng việc triển khai là thời điểm mô hình trở nên công khai, cam kết công bố các báo cáo đánh giá an toàn theo một lộ trình cố định cho tất cả các lần phát hành mô hình trong tương lai, và cung cấp sự minh bạch hoàn toàn cho mỗi lần phát hành bằng cách nêu tên các cơ quan chính phủ và các bên thứ ba độc lập tham gia kiểm tra, cùng với thời gian kiểm tra cụ thể [1]. Lord Browne of Ladyton, một người ký tên trong bức thư và là thành viên của Thượng viện, cảnh báo rằng nếu các công ty AI hàng đầu coi các cam kết an toàn là tùy chọn, điều này có thể dẫn đến một cuộc chạy đua nguy hiểm để triển khai các hệ thống AI ngày càng mạnh mẽ mà không có các biện pháp bảo vệ phù hợp [1].
Nguồn:

Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích

Ethena tham gia cuộc đua USDH với sự hỗ trợ từ BlackRock BUIDL, Anchorage, Securitize
Thịnh hành
ThêmGiá tiền điện tử
Thêm








