Esiste ancora il libero arbitrio? Forse, ma sicuramente nel 2025 molte scelte vengono influenzate da algoritmi matematici invisibili che sono in grado di apprendere, adattarsi e agire senza una supervisione costante. Si tratta di sequenze di istruzioni logiche e computazionali che, attraverso complesse operazioni di calcolo, elaborano dati e restituiscono risposte, previsioni o decisioni.
In poco tempo gli algoritmi hanno conquistato un potere quasi assoluto, governano sistemi bancari, servizi sanitari, piattaforme social e infrastrutture ed è proprio questo che rende ancora più evidente l’altra faccia della medaglia, l’estremo paradosso secondo cui il maggiore punto debole del sistema digitale globale, sono proprio gli algoritmi perché strumenti concepiti per difendere reti e infrastrutture digitali possono trasformarsi essi stessi in minaccia se manipolati, aggirati o lasciati agire in modo incontrollato.
Quindi chi proteggerà gli algoritmi da sé stessi?
Proteggere gli algoritmi da sé stessi significa progettare un’architettura di sicurezza capace non solo di difendersi da minacce esterne, ma anche di sorvegliare e correggere, in tempo reale, le deviazioni di quelle stesse intelligenze artificiali cui affidiamo decisioni strategiche, flussi finanziari e infrastrutture critiche.
Se l’intelligenza artificiale evolve a ritmi vertiginosi e l’impiego di modelli generativi, predittivi e decisionali cresce in ogni ambito, la sfida non è più soltanto quella di difendersi dai cyberattacchi tradizionali, ma di immaginare e realizzare un ecosistema digitale capace di monitorare, correggere e contenere le deviazioni delle stesse intelligenze artificiali.
Vulnerabilità specifiche, come il cosiddetto prompt injection, consentono di alterare il comportamento dei modelli linguistici di ultima generazione, obbligandoli a rispondere in modo scorretto o a eseguire azioni dannose. È quanto accaduto nel 2024, quando dei ricercatori hanno dimostrato come fosse possibile manipolare sistemi di AI conversazionale come ChatGPT e Gemini, inducendoli a eludere i propri filtri di sicurezza attraverso istruzioni ben congegnate nascoste nel testo.
Ma le insidie non si fermano qui, perché l’uso dell’AI per scopi illeciti ha favorito la nascita di malware autonomi che apprendono dall’ambiente in cui operano, modificano il proprio codice e sfuggono alle misure di sicurezza tradizionali. Secondo uno studio pubblicato da FreeCodeCamp nel 2024, la capacità di questi software di adattarsi e di utilizzare tecniche di social engineering automatico rappresenta una delle minacce più complesse e sottovalutate per le reti aziendali e le infrastrutture critiche.
Un capitolo ancora poco esplorato, ma già fonte di preoccupazione per esperti e responsabili della sicurezza informatica, riguarda la gestione dei software dotati di capacità decisionali che operano in autonomia su sistemi complessi e hanno facoltà di intervenire nella gestione dei flussi finanziari, nei processi industriali o nel controllo di infrastrutture critiche, se privi di adeguate misure di sicurezza, rischiano di diventare essi stessi vettori di incidenti.
Parallelamente, l’AI viene ormai sistematicamente sfruttata per perfezionare phishing e truffe digitali, tanto che secondo Forbes, nel 2024 il numero di attacchi di questo tipo è cresciuto del 300% rispetto all’anno precedente, con danni stimati per miliardi di dollari nel solo settore privato statunitense.
Ed ecco perché un approccio alla cybersecurity non solo adattivo, ma anche predittivo e, soprattutto proattivo è fondamentale insieme alla necessità di una collaborazione costante tra governi, aziende tecnologiche, enti regolatori e istituzioni accademiche, al fine di definire standard etici e di sicurezza comuni, capaci di tenere il passo con l’evoluzione tecnologica e con le nuove forme di criminalità digitale.