ChatGPT è un modello di intelligenza artificiale che può generare testi di qualsiasi tipo a partire da una richiesta dell’utente. Questa capacità lo rende uno strumento molto potente, ma anche molto pericoloso se usato per fini malevoli. In questo articolo, analizzeremo alcuni dei rischi e delle sfide che ChatGPT pone alla sicurezza informatica e alla società in generale.
Uno dei principali usi malevoli di ChatGPT è il phishing, ovvero l’invio di e-mail fraudolente che mirano a rubare dati personali o finanziari delle vittime grazie alla capacità di produrre testi altamente credibili e personalizzati, adattando il contesto e il registro linguistico a seconda del bersaglio. Ad esempio, può fingere di essere un’azienda, un ente pubblico, un amico o un familiare e chiedere informazioni sensibili o inviare link infetti. Secondo Europol, ChatGPT è uno strumento estremamente utile per il phishing.
Un altro uso malevolo di ChatGPT è la generazione di codice sorgente funzionante, nei più comuni linguaggi di programmazione, per scopi dannosi. Infatti partendo da a una semplice descrizione o a un esempio fornito dall’utente è in grado di scrivere un intero programma come se fossimo dei programmatori esperti. Questo codice può essere usato per creare virus informatici, malware, script che danneggiano il sistema operativo o che sfruttano le vulnerabilità di altri software. Inoltre, ChatGPT è in grado di generare anche codice polimorfico, ovvero codice che cambia la sua forma mentre si propaga, rendendo più difficile il rilevamento e la rimozione (classico dei virus informatici).
Per prevenire questi usi malevoli, OpenAI (la compagnia che sviluppa ChatGPT), ha introdotto delle misure di sicurezza chiamate safeguards, che bloccano i comandi diretti dal prompt come ad esempio contenuti che potrebbero generare; contenuti violenti, sessualmente espliciti o pericolosi in generale. Tuttavia, queste safeguards non sono infallibili e possono essere aggirate da utenti esperti o malintenzionati.
Un gruppo di ricercatori ha creato DarkBERT, un modello basato su CHATgpt ma usato per analizzare il Dark Web¹ al fine di identificare minacce e per la ricerca sul Dark Web. Nonostante sia simile a ChatGPT però non è stato creato per essere utilizzato come una chatbot, ma funge piu’ da motore di ricerca evoluto, sempre che l’uso che se ne faccia sia sempre per il bene. Alla fine della fiera come al solito ogni cosa può essere utilizzata per scopi malevoli, anche se non nasce espicitamente per quello, anche se nel monndo tecnologico una linea di confine netta è sempre piu’ diffficile marcarla lasciando sempre piu’ spazio ad un’ambivalenza preoccupante. Come al solito è necessario un approccio etico e responsabile da parte sia degli sviluppatori che degli utenti, oltre a una maggiore consapevolezza e protezione da parte dei governi.
NOTE
¹Il Dark Web è una parte di Internet a cui non è possibile accedere con i normali browser web, come Google Chrome o Firefox. Per entrarci devi usare un software speciale, come Tor o I2P, che nasconde la tua identità e la tua posizione. Purtroppo è usato dalla criminalità come metodo di compravedita di; droga, armi, documenti falsi o servizi hacker. Piu’ o meno per fare un paragone è come una città nascosta al buio (dark), in cui non è possibile distinguere esattamente chi vi abita e che intenzioni abbia.