L’IA generativa è una tecnologia in rapido sviluppo che offre alle aziende l’opportunità di aumentare i propri livelli di efficienza e sviluppare nuove applicazioni innovative. Ma come possono le aziende sfruttare al massimo questa tecnologia? E quali sono le sfide e i confini dell’IA generativa? Sulla base di esperienze sul campo ed esempi pratici, questo articolo vuole dare una risposta a queste domande.
Eccola, la domanda che attualmente preoccupa più di tutte le aziende: Come posso sfruttare al meglio l’intelligenza artificiale generativa? Quali sono i vantaggi che derivano dall’utilizzo di questi modelli linguistici? È sbagliato pensare che l’intelligenza artificiale non sia stata mai utilizzata in ambito aziendale finora. Ad oggi, tuttavia, l’impiego si è limitato all’intelligenza artificiale «classica», ossia modelli autoaddestrati basati sui propri dati .
L’architettura di trasformazione originariamente sviluppata da Google, che sta alla base dei grandi modelli linguistici (Large Language Models, LLM) porta l’IA al livello successivo, dando luce all’era dell’IA generativa (chiamata anche AI generativa o GenAI). Il focus di questi modelli è rappresentato dalla comprensione e creazione di testi, linguaggio, immagini e sempre più contenuti multimediali. La grande differenza tra gli LLM come GPT di Open AI, Google Gemini o Claude di Anthropic rispetto a modelli di IA classica? Gli LLM sono già addestrati e sono quindi più fruibili, in quanto prodotti considerati «di serie».
Semplice? Non proprio. Serve una preparazione adeguata e soprattutto avere un’idea dei possibili utilizzi dell’IA generativa. In linea di massima, si possono distinguere tre campi di applicazione che possono essere equiparati a livelli di difficoltà crescenti o a una complessità crescente:
- Integrare i servizi di IA nelle postazioni di lavoro: Si tratta dell’integrazione e dell’utilizzo di servizi già pronti come ChatGPT, Copilot per Microsoft 365 o il generatore di immagini Midjourney.
- Integrare gli LLM esistenti nelle proprie applicazioni: In questo caso, un’azienda integra con i propri dati un modello esistente nel cloud per costruirci sopra le proprie applicazioni, come ad esempio un chatbot «intelligente» per il servizio clienti.
- Addestrare e gestire modelli con i propri dati: A tal fine, all’azienda basta sfruttare le capacità di base degli LLM, ossia l’elaborazione di testi e del linguaggio, per sviluppare, ed eventualmente gestire in autonomia, le proprie applicazioni. Inoltre, i modelli vengono addestrati su un set di dati propri e specifici.
Questo articolo affronta le possibilità, le sfide e i limiti dell’IA generativa, portando anche interessanti esempi pratici.
Livello 1: Sfruttare i servizi dell’IA nelle aziende
Consentire ai collaboratori l’accesso all’IA generativa affinché possano lavorare con maggiore efficienza. Questo è il motivo principale per impiegare servizi di IA all’interno dell’azienda. Questo campo, il cosiddetto «AI as a Service», è dominato dal big tech: Open AI con GPT, Microsoft con Copilot per M365 e Google con Gemini.
«Il primo scoglio è relativamente facile da superare. È necessario investire nell’acquisto delle licenze e devono essere soddisfatti i requisiti di conformità. Ma per usufruire dei servizi non servono conoscenze specialistiche in ambito IT», afferma Tim Giger, Consulting Leader Data & AI di Swisscom. In seguito, basterà integrare i servizi nel panorama esistente delle applicazioni per l’ufficio per ampliarlo.
Ambito d’applicazione: Copilot nella quotidianità lavorativa
Un sondaggio condotto dal gruppo pilota per Copilot M365 di Swisscom mostra come funziona nella pratica. I partecipanti utilizzano Copilot soprattutto come ausilio nelle applicazioni Office. Di seguito gli scenari più citati:
- Scrivere e tradurre e-mail e documenti ad uso interno
- Riassumere testi ed e-mail
- Semplificare l’utilizzo delle applicazioni Office, facendo creare a Copilot formule Excel o una presentazione PowerPoint partendo da un elenco
- Rapida elaborazione e riassunto di temi tecnici, operativi e strategici
I partecipanti hanno apprezzato il fatto che con Copilot sono diventati più efficienti, veloci e anche più produttivi. Questo valeva in particolare per la redazione di testi e script. Ma il progetto pilota ha anche mostrato i limiti di questo servizio. Ad esempio, quando confrontato con i dati aziendali, Copilot ha fornito risultati talvolta insoddisfacenti. In alcuni casi ciò è dovuto alla qualità dei dati, in altri ai prompt. Determinate conoscenze sui prompt («prompt engineering») o, in alternativa, un’adeguata formazione dei collaboratori sono presupposti fondamentali per ottenere risultati utili con Copilot. Attualmente anche il dialetto rappresenta un ostacolo: Quando gli è stato chiesto di riassumere le riunioni fatte su Teams, infatti l’assistente AI ha fallito e questo proprio a causa dello svizzero tedesco.
Scopra con Swisscom il mondo Copilot per M365
Offriamo alle imprese un supporto completo per tutti gli aspetti di Copilot per Microsoft 365. Vi accompagniamo durante l’introduzione e lavoriamo con voi per sviluppare scenari di implementazione.
Livello 2: Integrare gli LLM esistenti nelle proprie applicazioni
In questo livello, si passa dagli assistenti IA sul posto di lavoro all’integrazione delle funzionalità IA nelle applicazioni aziendali. Vengono impiegati modelli già esistenti, già addestrati, offerti come servizio cloud. L’utilizzo tipico è rappresentato dall’elaborazione del testo e del linguaggio con un LLM controllato tramite API (interfaccia di programmazione). «In questo caso le aziende solitamente acquistano i servizi di un hyperscaler come Azure, AWS o Google Cloud», afferma Tim Giger. «Questi Foundation Models (modelli base) possono essere integrati anche con dati propri dell’azienda, grazie ad esempio alla Retrieval Augmented Generation (RAG).»
La componente IA non è direttamente visibile agli utenti che utilizzano tali applicazioni. Queste infatti vengono utilizzate tramite una piattaforma aziendale, come il sito web o l’intranet. Queste applicazioni basate sull’IA sono pensate sia per i collaboratori che per i clienti.
L’impegno richiesto inizialmente è certamente maggiore rispetto a quello necessario per integrare un assistente AI nella postazione di lavoro. «Ho bisogno di un certo know-how per integrare questi modelli nella mia applicazione», afferma Tim Giger. «Ma non ho bisogno di conoscenze approfondite sull’addestramento e sul funzionamento dei modelli in sé.»
Use Case 1: Chatbot con IA generativa
Tra gli utilizzi più plausibili dell’IA generativa a questo livello troviamo il chatbot «intelligente», spendibile ad esempio per il servizio clienti o le vendite. «Parliamo dei classici chatbot o voicebot, che però non si limitano a inoltrare la richiesta del cliente, ma sono anche in grado di comprendere la richiesta fatta ed elaborarla autonomamente», afferma Kai Duttle, Consultant di Swisscom Interaction & Process Management. Tecnologie di questo tipo sono chiamate anche conversational AI.
I chatbot già presenti in azienda possono essere resi ancora più efficienti grazie all’IA generativa e alleggerire così i collaboratori dalle attività di routine. In questo contesto è fondamentale tenere sempre bene a mente i vantaggi, afferma Kai Duttle: «Dobbiamo utilizzare la tecnologia in modo da aumentare i benefici per il cliente, non meramente per amore della tecnologia».
Use Case 2: Elaborazione delle conversazioni registrate
Le chiamate registrate in un Contact Center (previo consenso) possono essere trascritte e riassunte con l’IA generativa. Il materiale che ne risulta può essere utilizzato in vari modi:
- Come fonte di informazione utile agli altri collaboratori nel processo di assistenza, in caso di un ricontatto da parte di uno stesso cliente
- Sentiment analysis delle chiamate per ottenere un quadro del livello di soddisfazione della clientela
- Acquisizione di informazioni sulle tematiche più richieste tramite la hotline
. Queste informazioni possono essere utilizzate per il funzionamento e l’ulteriore sviluppo di un Contact Center, ad esempio per la formazione del personale o per l’automatizzazione dei processi nelle tematiche di supporto più richieste.
Use Case 3: Knowledge base e ricerca aziendale
In ogni grande azienda i collaboratori investono molto del loro tempo nella ricerca di informazioni interne. Una knowledge base aziendale basata sull’IA e integrata con tutte le informazioni rilevanti può rendere molto più efficiente questo processo ed eventualmente sostituire anche un’eventuale funzione di ricerca interna. Dal punto di vista tecnico, questa knowledge base corrisponde al chatbot del primo use case. Anche la procedura d’implementazione è simile.
Workshop ReThink Conversational AI
Scoprite il futuro del servizio clienti. Scoprite come l’intelligenza artificiale può rendere più efficiente il vostro servizio clienti e migliorare l’esperienza lato cliente. Nel workshop potrete elaborare, con l’aiuto degli esperti di Swisscom, una strategia per l’implementazione dell’IA conversazionale come base per ulteriori sviluppi.
Livello 3: Addestramento e gestione autonoma di modelli con i propri dati
La differenza principale tra il terzo e il secondo livello è che nel livello 3 viene addestrato un modello linguistico per un compito specifico, utilizzando i dati della propria azienda o del proprio settore. Spesso anche la gestione avviene in autonomia. L’obiettivo è sviluppare un’applicazione per uno scopo specifico. Di conseguenza, tale applicazione si differenzia da quelle del livello 2, che si basano su un modello linguistico «generalista».
La procedura di addestramento e l’impegno richiesto in questo livello corrispondono a quelli dei modelli di machine learning o deep learning. «Sono necessarie conoscenze specifiche, ad esempio nella programmazione in Python. E devo capire come funzionano i modelli e come posso gestire input e output in modo sicuro», afferma Tim Giger.
A questo livello, un’azienda si occupa in prima persona dell’intero ciclo di vita, ossia delle fasi che vanno dalla formazione all’utilizzo di modelli e applicazioni. In questo contesto si ricorre principalmente ai servizi cloud specializzati degli hyperscaler, come Amazon Sagemaker o Azure Machine Learning, in combinazione con modelli open source come Llama di Meta o Mixtral di Mistral AI. «Questo approccio comporta molto lavoro di sviluppo ed il suo campo di applicazione è molto circoscritto», afferma Tim Giger. «Al momento in Svizzera vediamo solo pochi casi d’uso di questo tipo.»
Sfide nell’impiego dell’IA generativa
Anche se i LLM pre-addestrati risultano più facilmente fruibili rispetto all’IA classica, il loro utilizzo non è così scontato. Ci sono infatti alcune sfide in agguato, soprattutto a livello di dati. Ecco gli ostacoli e gli scogli principali che le aziende devono considerare nell’impiego dell’IA generativa:
- Scarsa qualità dei dati: Un chatbot per i clienti, un knowledge base per i collaboratori o il Copilot-button nelle applicazioni Microsoft: Tutti (e anche gli utenti) traggono vantaggio dall’utilizzo dei dati aziendali. Questi non devono necessariamente essere strutturati, ma devono essere corretti. Dati obsoleti o non più validi falsano i risultati dei modelli IA. «È utile riordinare prima i dati e le strutture delle cartelle», raccomanda Tim Giger. In questo modo si evita anche che l’IA acceda accidentalmente a informazioni riservate.
- I risultati vengono accettati senza prima essere verificati: Le allucinazioni di un chatbot, se possibile, non dovrebbero finire nelle mani degli utenti. Per quanto riguarda le applicazioni supportate dall’IA, l’output (e idealmente anche l’input) deve essere prima controllato e filtrato per evitare il più possibile risultati indesiderati. D’altra parte però anche i collaboratori dovrebbero verificare e osservare con occhio critico l’output di Copilot o ChatGPT. Perché questo accada, si raccomandano misure di sensibilizzazione. In mancanza di questa attitudine, i collaboratori saranno più propensi a dare per buono il risultato di un’IA senza essere neanche prima verificarlo.
- Governance dell’IA: Quanto possa essere elevato il tasso di errore o quanto le allucinazioni possano ancora essere tollerate è anche una questione di governance. La governance infatti regola il grado di tolleranza degli errori, per chiarire le questioni di responsabilità e le possibili conseguenze legali derivanti da affermazioni false. Oppure, come riassume Tim Giger: «Se il tasso di errore deve essere minimo, potrebbe non essere il caso d’uso giusto per l’IA generativa.»
- Mancanza di benchmark e tracciabilità: Con l’IA generativa non è possibile definire o raggiungere un’accuratezza statistica dei risultati come, ad esempio, «80% corretto». E la tracciabilità di un risultato è difficile perché varia anche se l’input è lo stesso. Di conseguenza non esistono benchmark standardizzati ad uso commerciale che consentano di misurare la qualità dei risultati e di selezionare un LLM adeguato. Questo rischio deve essere preso in considerazione quando si utilizza l’IA.
A che punto è oggi l’impiego dell’IA generativa?
Nonostante il rapido sviluppo tecnologico dei grandi modelli linguistici, la situazione attuale delle imprese è abbastanza definita. «Il vantaggio maggiore a cui si può auspicare oggi è collegato a un caso di applicazione basato proprio sull’efficienza. Le aziende utilizzano l’IA generativa per lavorare in modo più efficiente», così valuta Tim Giger la situazione. Molte aziende si trovano al livello 1, in quanto utilizzano i servizi di intelligenza artificiale o ne pianificano l’introduzione.
Secondo Kai Duttle, al momento è soprattutto il servizio clienti a beneficiare dell’IA generativa: «Si tratta di chatbot e linguaggio. Questo è l’ambito in cui l’IA generativa è più matura e apporta i maggiori vantaggi.»