Gli hacker colpiscono ancora. Una parabola che si ripete: è una storia antica quanto l’informatica stessa. Anche la vicenda della “Modalità Dio” di ChatGPT segue questo schema. Tutto inizia con un post su X pubblicato da un hacker noto come Pliny the Prompter. “Abbiamo tolto le catene a GPT-4!” ha annunciato, rivelando una versione speciale del chatbot di OpenAI con un prompt di jailbreak integrato che aggira la maggior parte delle limitazioni imposte dall’azienda. “Si prega di utilizzare in modo responsabile e divertirsi!”, ha aggiunto.
La Modalità Dio permette al chatbot di ignorare i termini e le condizioni d’uso posti da OpenAI. Il termine “God Mode” è stato preso in prestito dal mondo dei videogiochi degli anni ’90, dove indicava una modalità di gioco in cui il personaggio è invulnerabile e ha accesso a risorse illimitate. La versione “senza catene” di ChatGPT funziona in modo simile, consentendo al bot di eludere i guardrail, fornire ricette per sintetizzare metanfetamina e creare napalm con articoli per la casa. Queste informazioni sono reperibili su internet, ma normalmente sono più difficili da trovare. Con la Modalità Dio, invece, è sufficiente chiedere.
Il bot ha avuto vita breve: OpenAI l’ha bloccato e al momento non è più possibile utilizzarlo. Tuttavia, è probabile che la guerra a colpi di jailbreak continuerà. Gli hacker cercheranno nuovi modi per aggirare i sistemi, le aziende risponderanno, e altre “Modalità Dio” nasceranno e moriranno nel tentativo di bucare le barriere tecnologiche.
Il Test con God Mode
Pliny ha condiviso degli screenshot per mostrare come funziona la Modalità Dio. God Mode utilizza il “leetspeak”, un linguaggio informale che sostituisce le lettere con i numeri, per eludere i guardrail. Non è chiaro come questo approccio permetta al chatbot di aggirare i termini e le condizioni d’uso posti dall’azienda, ma la modalità funziona. In uno screenshot, il bot consiglia come preparare metanfetamina e fornisce a Pliny the Prompter una guida passo passo su come fare napalm con articoli per la casa.
Anche la testata Futurism ha effettuato dei test con la Modalità Dio. Hanno chiesto alla versione jailbroken di ChatGPT le istruzioni per creare LSD e come far partire una macchina senza chiavi, ottenendo risposte accurate. Il bot ha anche condiviso suggerimenti per infettare computer macOS, utilizzato un linguaggio scorretto e aggirato i limiti etici imposti da OpenAI.
La Fine della Modalità Dio
Non era il primo tentativo di corrompere ChatGPT. Fin dall’inizio, gli utenti hanno cercato di aggirare le barriere poste dall’azienda. I ricercatori di Check Point Software Technologies Ltd., una società di sicurezza informatica con sede in Israele, nel febbraio 2023 avevano scoperto un gruppo di criminali informatici che utilizzavano ChatGPT per migliorare il codice di un malware Infostealer del 2019. Grazie al chatbot, i criminali sono riusciti a creare virus in grado di infettare dispositivi o rubare dati.
Ora, la Modalità Dio è stata bloccata. Colleen Rize, portavoce di OpenAI, ha dichiarato a Futurism: “Siamo a conoscenza del GPT God Mode e abbiamo preso provvedimenti visto che ha violato le nostre politiche”. Al momento, non è possibile testarlo, ma è solo questione di tempo prima che emergano nuovi tentativi di superare le barriere tecnologiche.