Oltre alle normali minacce, ora anche l’Intelligenza Artificiale è arrivata a mettere in pericolo la sicurezza degli utenti.
ChatGPT e molti altri tipi di Intelligenza Artificiale sono ormai utilizzabili molto facilmente da chiunque. Questa nuova tecnologia ha già aperto un ampio dibattito nell’opinione pubblica, in cui da una parte c’è chi crede che sarà uno strumento utile per il futuro di tutti noi, dall’altra c’è chi avverte che a lungo andare porterà più problemi che altro. Uno dei suoi lati negativi, però, è già abbastanza evidente a tutti noi.
Anche gli hacker hanno imparato a usare questi nuovi strumenti per portare a termine le loro attività criminali. In particolare, sembra che proprio ChatGPT sia uno dei loro strumenti preferiti quando si tratta di elaborare le famose truffe di “phishing”, quegli attacchi informatici in cui si cerca di ingannare l’utente e fargli inserire le proprie credenziali su una pagina web che sembra vera ma che in realtà è costruita dagli hacker stessi. I dati inseriti, poi, finiranno direttamente nelle loro mani.
Minacce sempre nuove e sempre più sofisticate
L’attacco di phishing è una tecnica usata dai criminali informatici per ingannare le persone affinché rivelino informazioni personali, come password o dettagli bancari. Il truffatore invia un’e-mail che sembra provenire da una fonte affidabile, come una banca, un servizio governativo o una società nota. Questa email contiene in genere un link o un allegato che reindirizza la vittima a un sito web falso che assomiglia a quello reale. Se l’utente clicca sul link e inserisce informazioni personali (come username e password) sul sito web falso, queste informazioni vengono rubate dal truffatore, che può poi usarle nel modo che preferisce.
Ebbene, sembra che ChatGPT stia aiutando i criminali a creare attacchi di phishing sempre più convincenti, in grado di ingannare anche gli utenti più esperti. Già diverse ricerche avevano evidenziato il fatto che questo tipo di truffe fossero diventate le più comuni nel 2023. Ora nuovi studi hanno ipotizzato che tra l’aumento di attacchi di phishing e l’arrivo dell’IA ci sia una connessione ben precisa.
Secondo la società di cybersecurity SlashNext, ChatGPT e i suoi compagni stanno venendo utilizzati per produrre email di phishing a un ritmo accelerato. Il rapporto sostiene che le email di phishing maligne siano aumentate del 1.265% rispetto quarto trimestre del 2022. Non solo grazie a ChatGPT i truffatori riescono a creare più email di phishing, ma possono anche renderle molto più convincenti e ingannevoli.
Alcuni esperti e giganti tecnologici, con Amazon, Google, Meta e Microsoft, hanno promesso di effettuare test per combattere i rischi di questa nuova minaccia. Le aziende stanno anche sfruttando l’IA a scopo difensivo, utilizzandola per migliorare i loro sistemi di rilevamento, filtri, e simili. Tuttavia, nella maggior parte dei casi è il privato cittadino a dover fronteggiare questo tipo di minacce.
Per rimanere sempre al sicuro, è bene ricordare di non cliccare su nessun link proveniente da fonti non certe. Anche quando l’email sembra affidabile, una doppia (o tripla) verifica sono ormai fondamentali per rimanere al sicuro.