Sono già tra noi! Ecco gli alter ego criminali di ChatGPT

Sono già tra noi! Ecco gli alter ego criminali di ChatGPT

Di
Lorenzo Perrelli
24 Agosto 2023

Non ci è voluto molto. Pochi mesi dopo l’avvento di ChatGPT che ha sconvolto l’economia delle startup e semplificato i compiti di molte persone, i criminali informatici e gli hacker si sono dati da fare e hanno creato le proprie versioni.
Si tratta di sistemi che potrebbero, almeno in teoria, potenziare la capacità dei criminali di scrivere malware o e-mail di phishing, che poi inducono le persone a consegnare le proprie informazioni o, nel peggiore dei casi, i propri dati bancari.

Le prime avvisaglie sono cominciate ad inizio luglio, quando sul dark web si sono intravisti due nuovi modelli linguistici (LLM). Questi sistemi imitano le funzionalità di ChatGPT e Bard di Google, generando un testo per rispondere alle domande. Ma a differenza degli LLM, realizzati da aziende legittime, questi chatbot sono commercializzati per attività illegali.

 

Secondo i ricercatori di sicurezza che monitorano le attività, nei forum del dark web sono comparsi WormGPT e FraudGPT

La differenza principale, tra queste “new entry” e i noti ChatGPT e simili, sono principalmente nell’eliminazione dei filtri. Mentre gli LLM sviluppati da grandi aziende tecnologiche come Google, Microsoft e OpenAI, dispongono di una serie di guardrail e misure di sicurezza per impedire che vengano utilizzati in modo improprio, quelli provenienti dal dark web eliminano qualsiasi tipo di protezione della sicurezza o barriere etiche.

WormGPT è stato individuato per la prima volta dal ricercatore di sicurezza informatica Daniel Kelley. Secondo i suoi sviluppatori, questo strumento offre un numero illimitato di caratteri e una formattazione del codice: “I modelli di intelligenza artificiale sono particolarmente utili per il phishing, in particolare perché abbassano le barriere d’ingresso per molti criminali informatici alle prime armi”, afferma Kelley, “molte persone sostengono che la maggior parte dei criminali informatici può comporre un’e-mail in inglese, ma questo non è necessariamente vero per molti truffatori”.

Durante un test sul sistema è stato chiesto di produrre un’e-mail che potesse essere utilizzata come parte di una truffa, con un presunto CEO che scriveva a un account manager per dire che era necessario un pagamento urgente. “I risultati sono stati inquietanti”, conferma Kelley, “Il sistema ha prodotto un’e-mail che non solo era straordinariamente persuasiva, ma anche strategicamente astuta”.

In alcuni post su dei forum, lo sviluppatore di WormGPT ha affermato che il sistema è stato costruito sul modello di linguaggio GPTJ, un modello open source sviluppato nel 2021 dal gruppo di ricerca sull’intelligenza artificiale EleutherAI.

Per quanto riguarda invece FraudGPT, il creatore ha rivendicato un potenziale ancora più elevato per il proprio sistema, suggerendo che potrebbe “creare malware non rilevabili”, oltre a creare testi che potrebbero essere utilizzati nelle truffe online.
Rakesh Krishnan, analista senior per le minacce presso la società di sicurezza Netenrich, e colui che ha scoperto FraudGPT, ha affermato che la persona che l’ha messa sul mercato, ha pubblicizzato il prodotto su più forum nel dark web, oltre che sui canali di Telegram.

Krishnan afferma che il creatore ha pubblicato un video dove mostra il funzionamento del chatbot e come poter generare un’e-mail fraudolenta: “stavano anche cercando di vendere l’accesso al sistema per $200 al mese, o ad un costo annuale di $1.700”.

Ma non è tutto, nelle conversazioni con lo sviluppatore dietro la creazione di FraudGPT, si è venuto a sapere come alcune centinaia di abbonati abbiamo già cercato di acquistare il prodotto, mentre il creatore di WormGPT sembra invece aver già ricevuto pagamenti in criptovalute: “Tutti questi progetti sono agli albori”, afferma Krishnan, “non abbiamo molti feedback sul fatto che le persone acquistino o utilizzino i sistemi”.

Sicuramente non si tratta di una sorpresa che i criminali informatici vogliano partecipare al boom LLM, come confermato anche dall’FBI e dall’agenzia di polizia europea Europol. Ogni volta che un nuovo prodotto, servizio o evento attira l’attenzione del pubblico, come ad esempio il film Barbie, o la pandemia di Covid-19, i truffatori si affrettano a includerlo nella loro artiglieria di hacking.

Finora hanno indotto le persone a scaricare malware per il furto di password attraverso annunci falsi per ChatGPT, Bard, Midjourney e altri sistemi di intelligenza artificiale generativa su Facebook.

Nel suo rapporto su WormGPT, Kelley osserva come i criminali informatici spesso condividono dei jailbreak, un termine che sta a significare un qualcosa che consente alle persone di aggirare le restrizioni di sicurezza messe in atto dai creatori degli LLM.

Di tutta questa storia, la nota positiva sta nel fatto che le versioni non vincolate di questi modelli, nella loro forma attuale potrebbero non essere così utili a questi malfattori, essendo ancora ai primi stadi. Sicuramente migliorabili, con l’esperienza e il passare del tempo, ma non ancora effettive.

Quindi tenete gli occhi aperti e fate sempre molta attenzione a cosa cliccate.

logo-footer

Direttore responsabile: Donato Parete     

Editore: Millionaire.it Srl – Indirizzo: Largo della Crocetta, 2 20122 Milano (MI) Italia

Partita IVA: 12498200968 – Numero iscrizione ROC: 38684

Hosted by Kinsta

© 2025 millionaire.it.
Millionaire
Panoramica privacy

Questo sito Web utilizza i cookie in modo che possiamo offrirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser e svolgono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web ritieni più interessanti e utili. Clicca per consultare la nostra Privacy Policy

Se disattivi completamente i cookie, potresti disabilitare alcune funzionalità del sito. Anche con tutti i cookie disabilitati, il tuo browser continuerà a memorizzare una piccola quantità di informazioni, necessarie per le funzionalità di base del sito.

I cookie scaricati dal presente sito avranno una validità di 12 mesi, periodo dopo il quale verrà nuovamente richiesta la tua espressione di consenso.
Qualora tu chiuda il banner mediante la “x”, senza indicare la tua accettazione o meno dei cookie di profilazione, il consenso potrà esserti richiesto nuovamente dopo un periodo non inferiore ai 6 mesi. Anche nel caso in cui tu abbia negato il consenso all’utilizzo dei cookie, non potrà esserti richiesto nuovamente se non siano trascorsi almeno 6 mesi da quando hai effettuato la scelta.

Il consenso potrà invece esserti di nuovo richiesto quando mutino significativamente le condizioni del trattamento (ad. es. nuove terze parti coinvolte), o se sia impossibile per il sito sapere se i cookie siano già stati memorizzato sul dispositivo (es. se scegli di cancellare i cookie installati sul tuo dispositivo).

E’ possibile in ogni caso consultare e modificare tale espressione in qualunque momento attraverso questa pagina.