Brytyjscy ustawodawcy ostrzegają: zobowiązania dotyczące bezpieczeństwa AI stają się tylko pozorem
- 60 brytyjskich parlamentarzystów oskarża Google DeepMind o naruszenie zobowiązań dotyczących bezpieczeństwa AI poprzez opóźnienie szczegółowych raportów bezpieczeństwa dla Gemini 2.5 Pro. - Firma udostępniła uproszczoną kartę modelu trzy tygodnie po premierze, która nie zawierała informacji o testach przeprowadzonych przez strony trzecie ani o udziale agencji rządowych. - Google twierdzi, że wypełniło zobowiązania, publikując raport techniczny kilka miesięcy później, jednak krytycy uważają, że podważa to zaufanie do protokołów bezpieczeństwa. - Podobne problemy w Meta i OpenAI podkreślają branżowe obawy dotyczące przejrzystości.
Grupa 60 brytyjskich parlamentarzystów podpisała otwarty list, oskarżając Google DeepMind o niewywiązywanie się ze zobowiązań dotyczących bezpieczeństwa AI, w szczególności w związku z opóźnionym ujawnieniem szczegółowych informacji dotyczących bezpieczeństwa modelu Gemini 2.5 Pro [1]. List, opublikowany przez grupę aktywistów politycznych PauseAI, krytykuje firmę za brak dostarczenia kompleksowej karty modelu w momencie jego premiery, która jest kluczowym dokumentem opisującym sposób testowania i budowy modelu [1]. Według autorów listu, to zaniedbanie stanowi naruszenie Frontier AI Safety Commitments podjętych podczas międzynarodowego szczytu w lutym 2024 roku, gdzie sygnatariusze – w tym Google – zobowiązali się do publicznego raportowania możliwości modeli, ocen ryzyka oraz udziału niezależnych testerów [1].
Google wypuściło Gemini 2.5 Pro w marcu 2025 roku, jednak nie opublikowało wówczas pełnej karty modelu, mimo że twierdziło, iż model przewyższa konkurencję w kluczowych benchmarkach [1]. Zamiast tego, uproszczona, sześciostronicowa karta modelu została opublikowana trzy tygodnie później, co niektórzy eksperci ds. zarządzania AI określili jako niewystarczające i budzące niepokój [1]. List podkreśla, że dokumentowi brakowało istotnych szczegółów dotyczących zewnętrznych ewaluacji i nie potwierdzono, czy w testach brały udział agencje rządowe, takie jak U.K. AI Security Institute [1]. Te braki budzą obawy o przejrzystość praktyk bezpieczeństwa firmy.
W odpowiedzi na krytykę rzecznik Google DeepMind powiedział wcześniej dla Fortune, że wszelkie sugestie, iż firma nie dotrzymuje zobowiązań, są "nieprawdziwe" [1]. Firma poinformowała również w maju, że bardziej szczegółowy raport techniczny zostanie opublikowany, gdy finalna wersja rodziny modeli Gemini 2.5 Pro będzie dostępna. Bardziej kompleksowy raport został ostatecznie opublikowany pod koniec czerwca, kilka miesięcy po udostępnieniu pełnej wersji [1]. Rzecznik podkreślił, że firma realizuje swoje publiczne zobowiązania, w tym Seoul Frontier AI Safety Commitments, a Gemini 2.5 Pro przeszedł rygorystyczne kontrole bezpieczeństwa, w tym ewaluacje przeprowadzone przez niezależnych testerów [1].
List zauważa również, że brakująca karta modelu dla Gemini 2.5 Pro wydaje się być sprzeczna z innymi zobowiązaniami Google, takimi jak 2023 White House Commitments oraz dobrowolny Code of Conduct on Artificial Intelligence podpisany w październiku 2023 roku [1]. Sytuacja ta nie jest wyjątkowa dla Google. Meta spotkała się z podobną krytyką za minimalną i ograniczoną kartę modelu dla Llama 4, podczas gdy OpenAI zdecydowało się nie publikować raportu bezpieczeństwa dla swojego modelu GPT-4.1, powołując się na jego nie-frontierowy status [1]. Rozwój tych wydarzeń sugeruje szerszy trend w branży, gdzie ujawnienia dotyczące bezpieczeństwa stają się mniej przejrzyste lub są całkowicie pomijane.
List wzywa Google do ponownego potwierdzenia swoich zobowiązań dotyczących bezpieczeństwa AI poprzez jasne zdefiniowanie wdrożenia jako momentu, w którym model staje się publicznie dostępny, zobowiązanie się do publikowania raportów z ocen bezpieczeństwa według ustalonego harmonogramu dla wszystkich przyszłych premier modeli oraz zapewnienie pełnej przejrzystości każdej premiery poprzez wskazanie agencji rządowych i niezależnych stron trzecich zaangażowanych w testy wraz z dokładnymi terminami testów [1]. Lord Browne of Ladyton, sygnatariusz listu i członek Izby Lordów, ostrzegł, że jeśli wiodące firmy AI będą traktować zobowiązania dotyczące bezpieczeństwa jako opcjonalne, może to doprowadzić do niebezpiecznego wyścigu w kierunku wdrażania coraz potężniejszych systemów AI bez odpowiednich zabezpieczeń [1].
Source:

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Dogecoin na krawędzi załamania? Formacja podwójnego szczytu wysyła czerwony alert
Dogecoin (DOGE) handluje na poziomie 0,238 USD po gwałtownym spadku, a analitycy obserwują podwójny szczyt, wsparcie linii trendu oraz sygnały MVRV.

Pierwszy licencjonowany stablecoin powiązany z juanem offshore uruchomiony w Hongkongu

Pierwszy stablecoin oparty na narodowej walucie Korei Południowej został uruchomiony

CertiK pojawia się na XRP SEOUL 2025: omawia stablecoiny i RWA, wzmacniając swoją pozycję na rynku koreańskim
21 września największa na świecie firma zajmująca się bezpieczeństwem Web3, CertiK, pojawiła się na XRP SEOUL 2025, a jej dyrektor handlowy Jason Jiang wziął udział w panelu dyskusyjnym. Jednocześnie, podczas Korea Blockchain Week (KBW), CertiK opublikował raport Skynet Korea i planuje wprowadzić serię lokalnych strategii.

Popularne
WięcejCeny krypto
Więcej








