Un criminale ha utilizzato un modello di intelligenza artificiale per rubare dati sanitari, informazioni finanziarie e credenziali governative, minacciando di esporre i dati a meno che non venisse pagata una somma superiore a 500.000 dollari.
Anthropic afferma che un cybercriminale ha utilizzato il suo modello di intelligenza artificiale (AI) per rubare informazioni personali sensibili e richiedere ingenti riscatti per non divulgarle.
I membri del team di threat intelligence di Anthropic, Alex Moix, Ken Lebedev e Jacob Klein, affermano in un nuovo rapporto che un cybercriminale ha abusato del chatbot Claude dell’azienda AI per assistere nel furto di dati e nelle richieste di riscatto.
“Abbiamo recentemente interrotto un sofisticato cybercriminale che ha utilizzato Claude Code per commettere furti e ricatti su larga scala di dati personali. L’attore ha preso di mira almeno 17 organizzazioni distinte…”
L’attore ha utilizzato l’AI in una misura che riteniamo senza precedenti. Claude Code è stato utilizzato per automatizzare la ricognizione, raccogliere le credenziali delle vittime e penetrare nelle reti. A Claude è stato permesso di prendere decisioni sia tattiche che strategiche, come decidere quali dati esfiltrare e come elaborare richieste di estorsione psicologicamente mirate. Claude ha analizzato i dati finanziari esfiltrati per determinare gli importi appropriati dei riscatti e ha generato note di riscatto visivamente allarmanti che sono state visualizzate sui dispositivi delle vittime.”
Anthropic afferma che il cybercriminale ha orchestrato “una campagna di attacchi sistematica focalizzata su furti di dati completi ed estorsione” utilizzando il modello AI.
“L’attore ha fornito a Claude Code le proprie TTP operative preferite (Tactics, Techniques, and Procedures) nel file CLAUDE.md, che viene utilizzato come guida affinché Claude Code risponda ai prompt nel modo preferito dall’utente…
L’approccio sistematico dell’attore ha portato alla compromissione di registri personali, inclusi dati sanitari, informazioni finanziarie, credenziali governative e altre informazioni sensibili, con richieste di riscatto dirette che occasionalmente superavano i 500.000 dollari.”
L’azienda afferma inoltre che l’uso dei suoi modelli AI per scopi illeciti sta avvenendo nonostante i suoi sforzi per limitarli.
“Abbiamo sviluppato sofisticate misure di sicurezza e protezione per prevenire l’abuso dei nostri modelli AI. Sebbene queste misure siano generalmente efficaci, i cybercriminali e altri attori malintenzionati cercano continuamente modi per aggirarle.”
Immagine generata: Midjourney
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
Metaplanet supera Strategy con una significativa acquisizione di Bitcoin nonostante il calo delle azioni
Ripple svela la roadmap aggiornata di XRPL con piani per lanciare un protocollo di prestito nativo

In tendenza
AltroPrezzi delle criptovalute
Altro








