L’impiego dell’IA generativa nelle aziende promette grandi guadagni in termini di efficienza, generazione rapida di idee, ma anche nuove vulnerabilità per la sicurezza dei dati. Di questi rischi e pericoli devono occuparsi i responsabili dell’intelligenza artificiale e della sicurezza.
3 Maggio 2024, Testo Andreas Heer 4 Min.
Il boom (e anche l’hype) dell’IA generativa apre le porte del mondo degli affari ai grandi modelli linguistici (LLM) e spesso, involontariamente, apre anche backdoor per i criminali informatici o comunque per la fuga di dati aziendali riservati. Questi rischi per la sicurezza devono essere affrontati dai responsabili IT e della sicurezza delle aziende. Questo articolo illustra le principali minacce e le possibili misure di protezione.
«L’aspetto più evidente riguarda la sicurezza dei dati degli LLM», afferma Beni Eugster, Cloud Operation and Security Officer presso il Swisscom Outpost nella Silicon Valley. «Si tratta di controllare a quali dati possono accedere i modelli e, soprattutto, cosa ne sarà di questi dati.» La governance dei dati o dell’IA aiuta a definire quali informazioni i collaboratori possono usare con un modello d’intelligenza artificiale e quali no.
Nel caso dei modelli ospitati esternamente, ossia delle offerte SaaS, le aziende non hanno in pratica nessun controllo su ciò che accade in background. Ciò vale in particolare se il provider non offre alcun accordo sulla sicurezza dei dati. Ci si chiede quindi se i dati vengano utilizzati per l’addestramento oppure se il modello venga addirittura manipolato così da permettere agli hacker di leggere in background tutte le informazioni in entrata e in uscita. Quanto è grande il rischio di imbattersi in un modello manipolato tra i circa 470’000 offerti da HuggingFace(apre una nuova finestra) ?
Nella fase attuale, infatti, la cybersicurezza potrebbe non essere al primo posto per alcuni provider, afferma Eugster: «Nel bel mezzo di un boom tecnologico, i fornitori si concentrano prima di tutto sulle opportunità commerciali e solo dopo sui rischi.» Ma la seconda fase è già iniziata, osserva Eugster: «A San Francisco, la città dell’intelligenza artificiale per eccellenza, nascono sempre più start-up che si occupano dei rischi dell’IA generativa.»
Ma anche dietro all’inserimento di prompt (istruzioni per l’IA generativa) si nasconde il pericolo. Con una formulazione ingegnosa si riescono infatti ad eludere le misure di sicurezza, i cosiddetti «guardrail». Un esempio tratto dalle attuali ricerche è l’attacco chiamato «ArtPrompt(apre una nuova finestra)», in cui determinate parole chiave vengono sostituite con disegni ASCII («ASCII Art»), bypassando così i controlli di sicurezza degli LLM. L’iniezione di prompt può anche essere utilizzata per estrapolare dati confidenziali da un modello. Queste includono, ad esempio, le fonti delle informazioni fornite.
Un frammento del prompt utilizzato dai ricercatori per indurre GPT-4 a generare una guida con le istruzioni per la creazione di denaro falso. Fonte: Ricerca ArtPrompt.
Tuttavia anche l’affidabilità dei modelli stessi deve essere verificata in relazione all’output – parola chiave allucinazioni e risposte sbagliate. Questo vale a maggior ragione se un’azienda utilizza un LLM per il contatto con i clienti o se le risposte vengono utilizzate per processi decisionali. Ad esempio, di recente, la compagnia aerea Air Canada ha dovuto autorizzare a posteriori un rimborso a un passeggero, perché il chatbot sul sito aveva suggerito questa opzione, in contraddizione con altre informazioni presenti sullo stesso sito.
Il filtraggio e la convalida di input e output per le offerte aziendali basate sull’IA sono misure di sicurezza fondamentali, così come i test approfonditi. «È qui che gli esperti di cibersicurezza e IA devono collaborare e combinare le loro conoscenze per ottenere risultati significativi», suggerisce Eugster. «Di conseguenza, le aziende devono anche integrare le proprie strategie e disposizioni in materia di cibersicurezza.»
È probabile che solo poche aziende siano in grado di addestrare e gestire i propri modelli. In tal caso emergono altri aspetti rilevanti per la sicurezza:
La protezione di modelli linguistici di grandi dimensioni richiede una strategia olistica che comprenda sia l’uso diretto che l’infrastruttura sottostante e i dati di addestramento. Regole di accesso, misure di sicurezza dei dati, filtraggio/convalida di input e output, nonché una gestione proattiva dei rischi garantiscono un funzionamento sicuro e un utilizzo affidabile. Lo stesso concetto lo riassume Eugster con queste parole: «Quando si è compreso il modello, l’utilizzo e i casi di applicazione si è a metà dell’opera per proteggere al meglio i progetti di IA. Gli sviluppatori e i team di sicurezza informatica devono lavorare a stretto contatto per individuare tempestivamente le vulnerabilità e i rischi.»