L’intelligenza artificiale è usata per compiere crimini informatici sempre più raffinati, secondo un nuovo documento di Anthropic. I criminali stanno integrando modelli avanzati come “Claude” in ogni fase degli attacchi, dal furto di credenziali, al ransomware e alle truffe. Gli strumenti basati sull’Ia ormai non fungono più solo da “consulenti”, ma agiscono come operatori attivi negli attacchi hacker.
Il rapporto di Anthropic ha messo in evidenza diversi casi, tra cui una vasta rete nordcoerana di estorsioni , truffe e ransomware venduti sui forum del dark web. In un attacco, un hacker ha utilizzato l’assistente di codifica Claude Code di Anthropic per infiltrarsi in almeno 17 organizzazioni, tra cui ospedali, servizi di emergenza e agenzie governative. Claude è stato impiegato per automatizzare la ricognizione, penetrare nelle reti, analizzare dati finanziari rubati e generare richieste di riscatto che superavano i 500 mila dollari. Anziché crittografare i file, il robot-hacker minacciava di rendere pubblici i dati sottratti, che spaziavano da cartelle cliniche a credenziali governative. L’intelligenza artificiale è in grado portare attacchi del genere in totale autonomia, persino analizzando i dettagli finanziari delle vittime per calcolare quanto si possa realisticamente estorcere loro.
In sostanza non è più necessario essere un genio dei sistemi informatici per fare l’hacker: basta dare l’incarico all’intelligenza artificiale, sedersi e aspettare che quest’ultima faccia tutto il lavoro. E il fenomeno, dice Anthropic, è dilagante negli ambienti dei criminali informatici.
Anthropic ha anche dichiarato di aver bloccato gli account coinvolti in questi crimini informatici, e di aver implementato nuovi strumenti di rilevamento in collaborazione con le forze dell’ordine. Ma ha anche riconosciuto che simili reati vengono commessi anche con altri modelli commerciali e open source: «Ci sono modelli open source che sono ottimizzati proprio per questo – ha detto un ricercatore di Anthropic durante un podcast – i criminali informatici stanno sviluppando degli Llm [modelli linguistici di grandi dimensioni, ndr] per portare questi attacchi».
La difesa e l’applicazione della legge stanno quindi diventando sempre più difficili, e i reati commessi con l’ausilio dell’intelligenza artificiale si fanno più frequenti.