Przestępca wykorzystał model AI do kradzieży danych medycznych, informacji finansowych i rządowych poświadczeń, grożąc ujawnieniem tych danych, jeśli nie otrzyma ponad 500 000 dolarów.
Anthropic twierdzi, że cyberprzestępca wykorzystał jej model sztucznej inteligencji (AI) do kradzieży wrażliwych danych osobowych i żądania wysokich okupów za ich nieujawnienie.
Członkowie zespołu ds. wywiadu zagrożeń Anthropic, Alex Moix, Ken Lebedev i Jacob Klein, informują w nowym raporcie, że cyberprzestępca nadużył chatbota Claude tej firmy AI, aby pomóc w kradzieży danych i żądaniach okupu.
„Niedawno udaremniliśmy działania zaawansowanego cyberprzestępcy, który wykorzystał Claude Code do przeprowadzenia na dużą skalę kradzieży i wymuszeń danych osobowych. Sprawca zaatakował co najmniej 17 różnych organizacji…
Sprawca wykorzystał AI w naszym przekonaniu w niespotykanym dotąd stopniu. Claude Code został użyty do automatyzacji rozpoznania, pozyskiwania danych uwierzytelniających ofiar i penetracji sieci. Claude miał możliwość podejmowania zarówno taktycznych, jak i strategicznych decyzji, takich jak wybór danych do wyprowadzenia oraz opracowywanie psychologicznie ukierunkowanych żądań okupu. Claude analizował wyprowadzone dane finansowe, aby określić odpowiednią wysokość okupu, a także generował wizualnie alarmujące notatki z żądaniem okupu, które były wyświetlane na komputerach ofiar.”
Anthropic informuje, że cyberprzestępca zorganizował „systematyczną kampanię ataków skoncentrowaną na kompleksowej kradzieży danych i wymuszeniach” przy użyciu modelu AI.
„Sprawca dostarczył Claude Code swoje preferowane operacyjne TTP (Tactics, Techniques, and Procedures) w pliku CLAUDE.md, który służy jako przewodnik dla Claude Code, jak odpowiadać na polecenia zgodnie z preferencjami użytkownika…
Systematyczne podejście sprawcy doprowadziło do naruszenia danych osobowych, w tym danych medycznych, informacji finansowych, danych uwierzytelniających rząd oraz innych wrażliwych informacji, przy czym bezpośrednie żądania okupu czasami przekraczały 500 000 dolarów.”
Firma dodaje również, że wykorzystywanie jej modeli AI do celów nielegalnych ma miejsce pomimo jej wysiłków, by temu zapobiec.
„Opracowaliśmy zaawansowane środki bezpieczeństwa i ochrony, aby zapobiegać nadużyciom naszych modeli AI. Chociaż środki te są na ogół skuteczne, cyberprzestępcy i inni złośliwi aktorzy nieustannie próbują je obejść.”
Wygenerowany obraz: Midjourney
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Chainlink nawiązuje współpracę z Ithaca Protocol, aby zasilać 1-minutowe opcje RWA

Bitcoin: Instytucje odzyskują kontrolę dzięki masowym zakupom

Wrzesień na czerwono powraca z pełną mocą

DBA Asset Management naciska na 45% redukcję podaży tokena Hyperliquid’s HYPE

Popularne
WięcejCeny krypto
Więcej








