5 domande a...
Gianmarco Ciarfaglia
Intervista al Senior Manager AI & Advanced Analytics di Engineering.
Gianmarco Ciarfaglia dal 2023 è Senior Manager dell’area AI & Advanced Analytics, all’interno della Technology Business Line AI & Data del Gruppo Engineering.
Il team di AI & Advanced Analytics riunisce le competenze Eng nell’ambito dell’AI, Generative AI, machine learning, ricerca operativa e in generale matematica applicata, contando circa 50 professionisti e più di 30 progetti realizzati ogni anno.
Nel 2018 Gianmarco ha avviato e gestito gli sviluppi dell'LLM proprietario di Engineering, EngGPT, a oggi utilizzato da diverse grandi realtà tra i nostri clienti, nonché punto di riferimento della Private GenAI nel panorama italiano.
In precedenza, Gianmarco ha ricoperto ruoli di crescente responsabilità nel mondo dei dati e dell'AI in importanti realtà italiane e internazionali come BNL ed EY.
Attualmente riscontriamo nei nostri clienti una grande attenzione all’efficienza operativa che questa tecnologia è in grado di introdurre come primo beneficio nel breve periodo. Tuttavia, non è che la punta dell’iceberg di un cambiamento che a tendere sarà più trasformativo e disruptive piuttosto che incrementale o semplicemente migliorativo. Uno dei filoni principali in termini di innovazioni interessanti è la produzione di contenuti AI-based di alta qualità per la quale si sono drasticamente abbassate le barriere di ingresso: penso ai nuovi strumenti di generazione e editing di immagini rilasciati recentemente, che permettono di creare campagne pubblicitarie in una chat utilizzando stili artistici che erano appannaggio di pochissime grandi produzioni. Un ulteriore caso è costituito dallo sviluppo di codice altamente specializzato, magari utilizzando linguaggi e tecnologie di nicchia che pochi sviluppatori manovrano in termini di sintassi, ma che in molti sono perfettamente in grado di produrre con il supporto dell'AI. Un’altra competenza innovativa è la capacità di questi strumenti di interagire in modo quasi umano attraverso voci che non solo rispondono più velocemente di quanto potrebbe fare una persona vera, ma comunicano anche empatia e si adeguano a modalità e stato d'animo dell'utente replicando in maniera importante quella che è l'interazione umana. Ad oggi, infatti, i cosiddetti grandi modelli di linguaggio (LLM) non devono più forzatamente passare dal testo scritto e poi trasformarlo staticamente in audio, ma sono in grado direttamente di ascoltare e produrre suoni cogliendo in maniera diretta tutte le sfumature emotive, riproducendo respiri, intercalari o addirittura risate. Nasce così, ad esempio, una soluzione di call center dotata non solo di infinita pazienza ma, per costruzione, sempre pronta ad ascoltare e supportare l’utente nell'ambito del business di riferimento.
L'adoption e l'integrazione di tecnologie legate all'intelligenza artificiale rappresentano un processo che coinvolge l'azienda a tutti i livelli e va affrontato come una trasformazione dove l'aspetto tecnologico rappresenta solo una faccia della medaglia. L'altro elemento fondamentale è costituito, come per ogni cambiamento, dalle persone e dalla cultura aziendale che deve sposare il nuovo modo di lavorare e di creare valore nelle attività di tutti i giorni.
In quest'ottica è fondamentale che tutte le strutture aziendali siano messe in grado, sia dal punto di vista culturale che tecnico, con i diversi livelli di profondità di ogni ruolo, di saggiare come l'AI può impattare la modalità attraverso la quale si fa business. Le grandi aziende iniziano a passare dalle fasi di sperimentazione alle realizzazioni concrete e quindi ai grandi progetti di trasformazione almeno per gli ambiti più visibili dall'esterno. Per esempio, l'AI sta rivoluzionando il mondo dell'assistenza, complice la modalità di interazione via chat che è stata il punto di ingresso che potremmo definire "democratico" per la tecnologia dell'AI generativa. In questi ambiti poi, raggiunto l'obiettivo di maggiore efficienza, la sfida continua sarà tenere sempre alto il livello di qualità percepito dall’utenza del servizio offerto.
Ultima sfida, che in un certo senso prescinde dall'AI, è la capacità delle aziende di essere reattive alla velocità alla quale il settore tecnologico evolve, velocità alla quale l'AI ha dato una spinta sostanziale: è ormai chiaro che il cambiamento legato alle nuove tecnologie non è più limitato ad uno specifico momento storico, ma è piuttosto uno state of mind continuo, che non va subìto passivamente, ma colto come un'irrinunciabile opportunità.
Sul mercato tecnologico italiano e mondiale l'intelligenza artificiale è una tecnologia sempre più pervasiva, soprattutto in riferimento all'interoperabilità del sistema AI con sistemi terzi attraverso agenti specializzati. Per quanto riguarda gli AI Agent, stiamo assistendo ad un’evoluzione di paradigma, passando da una tecnologia inizialmente concepita come supporto passivo che si attiva per task ben definiti a valle di un'iniziativa umana, ad un'AI che comprende il contesto, può anche avviare in autonomia determinate azioni e, soprattutto, ha a disposizione una serie di strumenti da utilizzare.
Per esempio, esistono sistemi AI ormai piuttosto diffusi che sono in grado di effettuare ricerche di carattere scientifico ricalcando il processo deduttivo basato sull'evidenza tipico della ricerca partendo da un obiettivo pre-definito, esplorando articoli di letteratura, costruendo tesi e provando a confutarle, tornando sui propri passi in caso il filone non riesca a fornire risultati utili e, in ultimo, fornendo risposte ragionate e corroborate da dati e fonti certe. Altri sistemi AI possono, invece, essere progettati per farsi carico non solo tradurre uno script di codice da una tecnologia ad un'altra, ma di tradurre un intero sistema, considerando le relazioni tra gli oggetti, gli impatti di una scelta di traduzione di una parte di applicativo su tutto il resto del sistema, della pianificazione, scrittura ed esecuzione dei test. Resta però sempre essenziale l’approccio Human-in-the-loop, per il quale l'AI non opera in completa autonomia e l’essere umano viene coinvolto in alcune fasi del processo per supervisionare le decisioni più critiche.
In entrambi i casi citati abbandoniamo quindi un'AI che fornisce una risposta istantanea basata su ragionamenti non comunicati all’utente, muovendoci verso una che a valle di un task ragiona, colleziona elementi tracciabili e dimostrabili ed esprime una risposta articolata. Si tratta chiaramente di sistemi ancora in evoluzione, ma che, già in prima istanza, forniscono un significativo valore aggiunto in termini di incremento di efficienza e riduzione di tempistiche.
L’AI Generativa Privata è un concetto che, almeno in questi termini, abbiamo coniato proprio qui in Engineering, e fa riferimento alla possibilità di implementare soluzioni di GenAI, traendone i relativi benefici, senza però dover rinunciare alla completa e totale privacy del dato utilizzato.
Questo vuol dire che, per esempio, i dati utilizzati per addestrare o specializzare il Large Language Model di riferimento, le domande poste dall’utente durante l’utilizzo, i dati estratti dai sistemi con cui l’LLM interagisce e tutte le relative risposte, possono non lasciare mai il perimetro aziendale del cliente, che sia esso rappresentato dal suo cloud privato o, addirittura, dalle sue macchine fisiche locali. Non solo, un’AI Generativa Privata ha l’unico scopo di funzionare per il cliente per il quale è stata realizzata e può quindi essere customizzata in ogni suo aspetto per fare in modo funzioni al meglio per il caso specifico di business. Progettare un’AI privata consiste per esempio, nel non dover trovare il prompt o la serie di prompt che funzionano per ottenere il risultato desiderato, ma insegnare all’AI il linguaggio del business e fare in modo sia essa stessa a adattarsi e a rispondere alle domande nel modo più opportuno.
In ultimo, un’AI Generativa Privata, a meno non che sia strettamente necessario per il caso di utilizzo, non è esposta al web in alcun modo, riducendo quindi la vulnerabilità per il cliente sul versante della cybersecurity: il rischio di cyber attacchi negli LLM è qualcosa che vediamo ancora spesso sottovalutato ed è invece un tema più attuale che mai.
In Engineering siamo in grado di sviluppare da zero sistemi complessi di Generative AI, che si basano su Large Language Model proprietari, tra i quali il nostro EngGPT, e di installarli sull’hardware dedicato al cliente che, a seconda del caso di utilizzo, non è detto debba tradursi per forza in enormi costi infrastrutturali. Abbiamo infatti versioni più ridotte del nostro EngGPT utilizzabili per RAG (Retrieval-Augmented Generation) della tipologia più semplice, che possono addirittura essere installate su un iPhone, estendendo il concetto della Private GenAI da “on-premise” a “on-edge-device”. Uno degli obiettivi che ci poniamo è quello di rendere l’implementazione di soluzioni di AI Generativa Privata snella e dedicata al time to market sotto tutti i punti di vista.
Quando parliamo di implementare ad esempio uno use case tramite EngGPT, non intendiamo l’utilizzo unicamente di un LLM, ma di un vero e proprio framework di acceleratori che ci permettono di traguardare in maniera più efficace e veloce il deploy di una soluzione di Private GenAI. Per citarne alcuni:
Questi sono tutti strumenti che abbiamo realizzato e continuiamo a rifinire nell’ambito delle varie esperienze progettuali di AI Generativa Privata.
Le modalità di progettazione e implementazione di un sistema di AI responsabile impattano tutto il ciclo di vita di un progetto che riguarda l’intelligenza artificiale. Il primo step consiste spesso nell’analisi e valutazione dei dati che verranno utilizzati per addestrare i modelli; questi potrebbero offrire una rappresentazione parziale o falsata della realtà. Alcune modalità per riequilibrare i modelli possono, ad esempio, consistere nella generazione di dati sintetici che riducano i bias o selezionare, sempre attraverso meccanismi intelligenti, un nuovo sottoinsieme dei dati disponibili in modo da rappresentare gli altri diversi sottoinsiemi in modo equo. Esistono poi delle azioni che possono invece essere intraprese direttamente durante la fase di costruzione del modello: una di queste consiste nel fare in modo che questo commetta un errore paragonabile qualunque sottoinsieme della popolazione dei dati venga considerato oppure calibrare l’obiettivo imponendo di porre maggiore attenzione ad una determinata quota parte di dati che sappiamo essere sotto-rappresentata. Si cerca dunque di intervenire in diverse fasi con tecniche specifiche per fare in modo che il modello rispetti i criteri della Responsible AI.
Anche questo aspetto è stato particolarmente approfondito nella creazione della nostra soluzione di AI Generativa Privata, EngGPT, e nelle sue nuove versioni. Trattandosi di un sistema basato su tecnologia generativa è stato fondamentale costruire un ampio set di dati di training che si basa sui valori della Responsible AI e altrettanti dati di test con queste caratteristiche, volti proprio a valutare e migliorare il modello. In ultimo abbiamo messo in piedi una serie di strati di safety esterni al Large Language Model, costituiti da modelli AI addestrati unicamente con l’obiettivo di impedire e prevenire comportamenti dannosi o non appropriati per il caso di utilizzo specifico.
È fondamentale che tutte le strutture aziendali siano messe in grado, sia dal punto di vista culturale che tecnico, con i diversi livelli di profondità di ogni ruolo, di saggiare come l'AI può impattare la modalità attraverso la quale si fa business.
Recommended for you
Explore additional content associated with the topic