
Accelerare il trasferimento tecnologico dell’intelligenza artificiale alle imprese per dare impulso all’innovazione in uno dei settori tecnologici più strategici per la competitività attuale e futura del sistema industriale italiano. È questo l’obiettivo del progetto AI Factory coordinato da Cineca e cofinanziato equamente dall’Italia e da EuroHpc per un valore di 430 milioni. Il progetto prevede l’installazione presso il Tecnopolo di Bologna di una infrastruttura di supercalcolo dedicata esclusivamente all’AI. Come spiega Sanzio Bassini, direttore del dipartimento supercalcolo di Cineca, «IA factory sarà operativo dal 2026 e offrirà un incremento di prestazioni per applicazioni di IA di 10 volte superiori all’attuale supercomputer Leonardo.
L’implementazione avverrà per fasi successive con l’obbiettivo di mettere a disposizione del sistema della ricerca pubblica e privata un sistema il più aggiornato possibile alla frontiera dell’innovazione tecnologica». Non si sa però ancora quale sarà l’architettura, se si utilizzerà hardware di Nvidia, di Amd o di altri prodotturi. Il disegno concettuale è per un sistema di supercalcolo ottimizzato per le applicazioni di intelligenza artificiale «Noi facciamo il capitolato tecnico poi ci sarà un bando, gestito da EuroHpc dove i vari Dell, Hpe, Eviden, Lenovo, ma anche integratori emergenti, come ad esempio E4 Engineering, una realtà italiana, avranno modo di formulare una loro offerta», dice Bassini.
Ecco le opportunità che possono nascere dalla futura fabbrica dell’intelligenza artificiale che sorgerà nella Data Valley dell’Emilia-Romagna, il valore e le potenzialità dell’open source nell’ambito dello sviluppo di Large language models, i progetti realizzati in collaborazione con Almawave, Babelscape, le possibilità di sviluppo di modelli generativi per dare vita a interfacce conversazionali e multimodali di digital twin di manufatti, di impianti e di fabbriche.
AI Factory per le aziende manifatturiere, per pmi e start-up che desiderano usare intelligenza artificiale “free of charge” per migliorare e innovare prodotti e servizi. Capacità di calcolo che permetterà di superare le attuali disponibilità di Leonardo, creando un’infrastruttura su cui far decollare l’innovazione Made in Italy
«Metteremo a disposizione di Pmi e start-up infrastruttura e supporto specialistico senza che debbano sostenere alcun costo», racconta Bassini. AI Factory, quindi, come fabbrica one stop shop, dove sviluppare soluzioni e servizi di IA basati su modelli open source. Questi ultimi si pongono come vera alternativa ai modelli generalisti (ChatGpt, Palm, Llama…) e sono in grado di tradurre esigenze manifatturiere con più flessibilità e a costi inferiori (distribuzione dell’inferenza on premise e on edge). Fastweb, Almawave, Babelscape. Tutti i player italiani che hanno finora creato modelli di IA open source in lingua italiana si sono appoggiati a Cineca per l’addestramento dei modelli. Ma la capacità non è più sufficiente. «Per addestrare modelli di dimensioni sempre maggiori è necessario dedicare tutta la potenza del supercomputer per un certo numero di mesi, una condizione ormai non più sostenibile», dice Bassini. Con la nuova macchina Cineca darà spazio a nuovi progetti. Sarà possibile realizzare modelli più potenti, nell’ordine delle centinaia di miliardi di parametri, permettendo di sviluppare applicazioni più complesse e performanti rispetto a quelle finora realizzate.
Infrastruttura di supercalcolo alternativa agli hyperscaler per sviluppare servizi industriali e di filiera azzerando le barriere all’ingresso delle imprese italiane
Amazon, Google, Microsoft, Il mercato dei servizi cloud è dominato da aziende globali. L’idea alla base del progetto IT4LIA AI Factory è anche di favorire lo sviluppo di operatori europei e italiani in particolare per dare alle imprese italiane la possibilità di accedere a cloud service provider italiani per i servizi di inferenza dell’intelligenza artificiale come alternativa ai servizi degli operatori international. «Un cloud aperto alle filiere, uno spazio che possa diventare un business to business industriale per offrire servizi di IA in un contesto sicuro e presidiato alternativo alle big tech», dice Bassini.
L’obiettivo non è sviluppare modelli generici. Quelli esistono già. L’infrastruttura servirà per l’addestramento e l’inferenza di sistemi conversazionali e multimodali per specifiche esigenze applicative. La logica, come detto, che si allarga a Pmi e start-up, le quali potranno accedere gratuitamente ai servizi offerti da Cineca. «L’AI Factory sarà una sorta di stabilimento produttivo a cui possono accedere più soggetti sfruttando una piattaforma che tradizionalmente ha presentato grandi barriere all’ingresso dal punto di vista dei costi», spiega Bassini.
L’open source è ormai un protagonista indiscusso nello sviluppo dei modelli di IA: possono essere addestrati su dati aziendali con molta più facilità e meno risorse di calcolo mentre l’inferenza può avvenire in cloud, on premise e on edge
L’AI Factory diventa il riferimento per addestramento di modelli open source e l’affinamento sui dati proprietari delle aziende e delle pubbliche amministrazioni per lo sviluppo di applicazioni sicure, credibili e certificate, di proprietà dei soggetti finali. È questa per Bassini, la via italiana all’intelligenza artificiale. «Di grandi modelli Llm ce ne sono ormai molti. Ciascuno può scegliere quello più adatto. Ma le aziende non vogliono affinare le soluzioni applicative usando i modelli proprietari, sarebbe come regalare i dati a uno di questi soggetti. Da un punto di vista imprenditoriale sarebbe un suicidio», osserva Bassini. Per anni, i giganti della tecnologia hanno costruito la propria narrazione attorno a un presunto vantaggio incolmabile nel campo dell’intelligenza artificiale. Le loro risorse computazionali, i dataset proprietari e le squadre di ricerca d’élite rappresentavano, almeno sulla carta, un fossato invalicabile, un sistema di difesa capace di proteggere il loro dominio dalla concorrenza.
Non è un attacco ideologico contro le Big Tech, ma una constatazione. L’open-source non solo sta recuperando terreno rispetto ai modelli proprietari come Gpt-4 e Gemini, ma lo sta facendo con una rapidità che sta colmando i vantaggi delle big tech. Il problema non è tanto il valore assoluto dei modelli proprietari, quanto il ritmo con cui le alternative open-source stanno colmando il divario. Mentre i big dell’IA cercano di superarsi a colpi di modelli sempre più grandi e complessi, un terzo attore – basato su di un approccio open-source su dati certificati – ha silenziosamente preso il sopravvento. La velocità di questa evoluzione è sconcertante. Google e OpenAI impiegano mesi per rendere disponibili nuove iterazioni dei loro modelli, la comunità open-source sta invece generando miglioramenti significativi nel giro di giorni. Il metodo di fine-tuning chiamato LoRA (Low-Rank Adaptation), ad esempio, permette di personalizzare modelli di IA in poche ore con costi ridottissimi, democratizzando l’accesso alla tecnologia e rendendo superflua la necessità di infrastrutture monster. Il risultato? L’open-source sta erodendo il monopolio delle big tech più velocemente di quanto chiunque avrebbe potuto immaginare.
Cineca come incubatore di progetti di IA. Gli esempi open source di Almawave, Babelscape. I modelli italiani addestrati su infrastruttura Leonardo
CAlmawave (società italiana specializzata in ambito data & artificial intelligence, quotata sul mercato Euronext Growth Milan, e parte del Gruppo Almaviva) su infrastruttura Cineca ha sviluppato una famiglia di Large language model multimodali e multilingua denominati Velvet 14B e Velvet 2B, già disponibili in modalità open source e sviluppati integralmente dall’azienda su una propria architettura. Modelli da 14 e da 2 miliardi di parametri pronti per essere utilizzati in cloud, su tutte le principali piattaforme di mercato, on premise e on edge, che Almawave integrerà anche nell’ampio portafoglio di prodotti e soluzioni applicative verticali di intelligenza artificiale della piattaforma AIwave della società. Infine, Babelscape, che ha rilasciato il modello Minerva e si sta specializzando per l’affinamento su dati documentali della Pubblica Amministrazione, come regolamenti, normativa, leggi.
Large language model open source per creare interfacce al digital twin di prodotto o di fabbrica. Le nuove opportunità che nascono dall’applicazione manifatturiera dell’intelligenza generativa
Quali le soluzioni per il manifatturiero che possono nascere dall’AI Factory del Cineca? È risaputo, Grazie all’analisi avanzata basata sull’IA, le aziende possono estrarre insight strategici da enormi quantità di dati generati durante l’intero ciclo produttivo. In ambito manifatturiero si può per esempio pensare di realizzare soluzioni digital twin di prodotto o di fabbrica basate su Llm. In altre parole, fare diventare il modello un’interfaccia di manutenzione predittiva del prodotto o della fabbrica. Sviluppare una soluzione di digital twin di prodotto o di fabbrica è un’applicazione sempre più promettente e strategica nel panorama industriale. Gli Llm possono analizzare i dati provenienti dai digital twin per identificare potenziali problemi o opportunità, consentendo di prendere decisioni più informate e proattive. Possono essere utilizzati per creare interfacce utente più intuitive e personalizzate, facilitando l’interazione degli operatori di produzione. In questo scenario, l’Llm funge da intermediario tra l’utente e il modello digitale, fornendo un’interfaccia intuitiva e conversazionale.
L’utente può porre domande al modello, richiedere informazioni specifiche o simulare diversi scenari, e l’Llm elaborerà le richieste e fornirà le risposte in modo chiaro e conciso. Ad esempio, l’utente potrebbe chiedere: “Quali sono i principali punti di criticità nella produzione di questo componente?” o “Come possiamo migliorare l’efficienza di questo processo?”. L’Llm, basandosi sui dati del digital twin, potrebbe rispondere fornendo informazioni dettagliate sui potenziali problemi e suggerendo possibili soluzioni. Questo tipo di interazione permette agli utenti di sfruttare appieno le potenzialità del digital twin, senza dover essere esperti di programmazione o di analisi dei dati. Il modello agisce come un assistente virtuale, facilitando l’accesso alle informazioni e ai modelli di simulazione, e supportando gli utenti nelle loro decisioni.
Un approccio che potrebbe essere ulteriormente sviluppato con modelli multimodali, una tecnologia che si preveda possa raggiungere l’incredibile valore di 98,9 miliardi di dollari entro il 2037 e che si pensa possa rappresentare il 40% delle soluzioni di IA generativa entro il 2027. Mentre i sistemi tradizionali di IA si basano principalmente su input testuali, l’IA multimodale rispecchia l’esperienza umana attraverso l’integrazione di diverse fonti di dati come immagini, audio, video e testo, permettendo così una comprensione più profonda del contesto e portando a risultati più intuitivi e precisi.
(Ripubblicazione dell’articolo pubblicato il 21 febbraio 2025)
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link