Il panorama dell'IA si sta evolvendo a un ritmo elettrizzante. Come per qualsiasi cambiamento tecnologico, la domanda sorge spontanea: quale sarà il percorso che plasmerà al meglio il suo futuro? Red Hat ritiene che la risposta sia chiara:
Il futuro dell'IA è l'open source.
Questa non è solo una posizione filosofica; si tratta di un approccio che mira a sfruttare il vero valore dell'IA, rendendola più accessibile, più democratica e più efficace.
Abbiamo sempre creduto nel potenziale dello sviluppo open source alla guida dell'innovazione. Abbiamo assistito a questo fenomeno con l'avvento di Linux, KVM, OpenStack, Kubernetes e molti altri progetti che hanno contribuito a dare forma al panorama odierno delle tecnologie. Attraverso la collaborazione, la trasparenza e l'innovazione guidata dalle community, i modelli di sviluppo open source accelerano la ricerca, incoraggiano la sperimentazione e rendono più democratico l'accesso a strumenti e tecnologie all'avanguardia. Questo porta a un progresso più rapido, a una maggiore innovazione e a ecosistemi dinamici.
L'IA non è diversa.
Nell'IA, dove la fiducia, la sicurezza e la spiegabilità sono fondamentali, tutti, non solo coloro che hanno più disponibilità economiche o più risorse, dovrebbero poter partecipare. Red Hat si impegna a promuovere l'innovazione dell'IA open source, aprendo la strada al futuro di questa tecnologia sulla base dello sviluppo guidato dalla community, del progresso condiviso e della possibilità di scegliere.
Stiamo investendo molto in progetti open source e tecnologie di IA, collaborando con i partner del settore e sviluppando soluzioni che consentano alle organizzazioni di distribuire in modo flessibile i carichi di lavoro di IA ovunque servano. Oggi abbiamo annunciato di aver firmato un accordo definitivo per l'acquisizione di Neural Magic. Ritengo che questo importante traguardo ci consentirà di accelerare i nostri progressi e di realizzare la nostra visione per il futuro dell'IA.
Noi di Red Hat crediamo che il futuro dell'IA sia nell'open source e che si basi su diversi concetti fondamentali:
I modelli di piccole dimensioni favoriscono l'adozione
L'intelligenza artificiale non riguarda solo i grandi modelli che sfruttano grandi volumi di risorse. Stiamo assistendo a un passaggio a modelli più piccoli e specializzati che offrono prestazioni eccezionali con una maggiore efficienza. Questi modelli non solo sono più efficienti da addestrare e distribuire, ma offrono anche vantaggi significativi in termini di personalizzazione e adattabilità.
Prendiamo ad esempio IBM Granite 3.0, la terza generazione degli LLM della serie Granite, che punta su modelli di IA più piccoli e funzionali. Rilasciati con la licenza permissiva Apache 2.0, questi modelli variano in termini di parametri da 1B a 8B, e possono essere eseguiti ovunque, da un laptop a server GPU standard. Proprio come abbiamo visto con Linux, una accessibilità semplificata porta all'innovazione e all'adozione da parte delle aziende.
Oltre alle dimensioni ridotte del modello iniziale, l'ottimizzazione dei modelli di IA basata sulla sparsità e la quantizzazione è un ulteriore approccio utile per consentirci di soddisfare una domanda sempre maggiore con lo stesso hardware. La sparsità è il frutto di una rimozione strategica delle connessioni non necessarie all'interno di un modello, per ridurre drasticamente le dimensioni e i requisiti di calcolo senza sacrificare la precisione o le prestazioni. La quantizzazione riduce ulteriormente le dimensioni del modello per l'esecuzione su piattaforme con requisiti di memoria ridotti. Tutto questo si traduce in una riduzione dei costi, un'inferenza più rapida e la possibilità di eseguire carichi di lavoro di IA su una gamma più ampia di hardware. Un approccio simile ha dato a Linux la capacità di funzionare praticamente su qualsiasi infrastruttura disponibile al mondo, dagli orologi ai supercomputer. Con l'ingresso di Neural Magic in Red Hat, siamo riusciti a dare la stessa enfasi all'IA.
L'addestramento offre vantaggi alle aziende
Per quanto potenti siano questi piccoli modelli di IA, vengono comunque addestrati su dati accessibili al pubblico. Hanno un'incredibile padronanza delle lingue, capiscono il business e conoscono la maggior parte degli argomenti trattati su Internet. Ma, quasi per definizione, non capiscono l'attività delle singole aziende. Se i tuoi processi aziendali e la tua proprietà intellettuale non sono di dominio pubblico, l'IA non li comprenderà. Tuttavia, tu devi perfezionare i tuoi processi aziendali, non un concetto generico. Quindi, per sfruttare appieno il potenziale della tua azienda, devi inserire le tue conoscenze in questi modelli. E questo richiede l'addestramento.
Red Hat contribuisce a questo obiettivo con InstructLab, un progetto open source pensato per semplificare il contributo e la messa a punto degli LLM per le applicazioni di IA generativa, anche da parte di utenti che non hanno esperienza di data science. Lanciato da Red Hat e IBM e distribuito nell'ambito di Red Hat AI, InstructLab si basa su un processo descritto in un documento di ricerca pubblicato nell'aprile 2024 dai membri del MIT-IBM Watson AI Lab e da IBM. In questo modo si riduce la complessità del compito di addestrare un modello di IA in base alle proprie esigenze, mitigando decisamente alcuni degli aspetti più costosi dell'IA aziendale e rendendo gli LLM più facilmente personalizzabili per scopi specifici.
La possibilità di scegliere promuove l'innovazione
La maggior parte delle organizzazioni dispone di carichi di lavoro che si estendono sia nei datacenter aziendali che nell'infrastruttura cloud. L'IA deve integrarsi perfettamente con l'infrastruttura in uso per consentire un deployment adattabile e coerente in diversi ambienti: on premise, nel cloud o all'edge. Devi essere in grado di addestrare i tuoi dati e le tue risorse. Inoltre, è necessario poter eseguire i modelli ovunque sia opportuno per il proprio scenario di utilizzo. Proprio come Red Hat Enterprise Linux (RHEL) consentiva l'esecuzione delle applicazioni compilate su qualsiasi CPU senza modificare l'applicazione, la nostra missione è garantire che i modelli addestrati con RHEL AI possano essere eseguiti su qualsiasi server GPU. Questa combinazione di hardware adattabile, modelli di piccole dimensioni, addestramento semplificato e ottimizzazione offre la flessibilità necessaria per promuovere l'innovazione.
Riteniamo inoltre che la formazione e il deployment scalabile dell'IA richiederanno la stessa disciplina che abbiamo adottato per il software nell'ultimo decennio. Red Hat OpenShift AI unisce le funzionalità di personalizzazione dei modelli, inferenza, monitoraggio e ciclo di vita alle applicazioni che le utilizzano su Red Hat OpenShift. Neural Magic condivide la stessa passione e ha l'obiettivo di consentire l'esecuzione dell'IA su piattaforme ibride. Ha dimostrato di essere un leader nelle community open source attente a promuovere l'innovazione in questo settore.
Partecipiamo alla missione di Neural Magic
Neural Magic è stata fondata sulla convinzione che l'IA dovrebbe essere in grado di funzionare ovunque, dai dispositivi più piccoli ai datacenter più grandi. La storia delle sue origini come azienda è simile a quella che ho visto nei piccoli, ma efficienti, team di Red Hat che stanno portando l'innovazione nell'IA, tra cui il nostro team InstructLab. Per questo penso che valga la pena di parlarne qui.
Nir Shavit, rinomato professore al MIT, specializzato nel calcolo parallelo, ha esplorato per decenni le complessità di algoritmi e hardware. Il suo lavoro aveva già rivoluzionato aree come le strutture di dati simultanee e la memoria transazionale. Alex Matveev, ex ricercatore al MIT, ha portato la sua esperienza nel machine learning e una profonda conoscenza delle sfide che pone il deployment efficiente dei modelli di IA.
Neural Magic ha preso il via quando Nir e Alex hanno riconosciuto un ostacolo critico nel progresso dell'IA: la dipendenza da GPU costose e spesso inadeguate. Questa dipendenza ha creato una barriera, ostacolando l'adozione diffusa dell'IA in vari settori e limitando il suo potenziale di rivoluzionare il modo in cui viviamo e lavoriamo.
Così si sono impegnati per consentire a chiunque, indipendentemente dalle proprie risorse, di sfruttare il potenziale dell'IA. Il loro approccio innovativo prevedeva l'utilizzo di tecniche come la compressione e la quantizzazione per ottimizzare i modelli di machine learning, a partire dall'esecuzione efficiente dei modelli di ML su CPU prontamente disponibili senza sacrificare le prestazioni. In definitiva, Neural Magic ha spostato la propria visione sull'accelerazione della GPU e ha portato lo stesso livello di ottimizzazione ed efficienza all'IA generativa tramite vLLM. Questo impegno per l'innovazione prometteva di rendere l'IA più accessibile, conveniente e più facile da distribuire. Sono entusiasta dell'opportunità di offrire queste funzionalità ai nostri clienti all'interno di Red Hat AI, ma sono altrettanto entusiasta del fatto che i nostri team condividano una cultura di sperimentazione e invenzione radicata nel superare gli attuali limiti che ostacolano il progresso e l'adozione dell'IA.
Nella nostra sede di Boston, ad esempio, troverai un gruppo di ricercatori e collaboratori del MIT che sono motivati e lavorano al progetto InstructLab per risolvere le complessità e facilitare il contributo alla formazione per l'adozione diffusa dell'IA. Se la tecnologia di Neural Magic sta rendendo l'accesso all'IA più democratico, InstructLab cerca di fare lo stesso per il modo in cui addestriamo e mettiamo a punto i modelli. Non vedo l'ora di scoprire quali ulteriori innovazioni arriveranno da questo team.
Sono davvero entusiasta della prospettiva che Neural Magic si unisca a Red Hat e acceleri la nostra missione con la community open source per offrire di più al futuro dell'IA. Noi di Red Hat crediamo che l'open source apra al mondo nuove possibilità. La nostra missione con Neural Magic sarà accelerare il processo con l'intelligenza artificiale. Ritengo che questa collaborazione con la community open source garantirà i risultati migliori.
Siamo solo all'inizio.
Sull'autore
Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.
Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.
Ricerca per canale
Automazione
Novità sull'automazione IT di tecnologie, team e ambienti
Intelligenza artificiale
Aggiornamenti sulle piattaforme che consentono alle aziende di eseguire carichi di lavoro IA ovunque
Hybrid cloud open source
Scopri come affrontare il futuro in modo più agile grazie al cloud ibrido
Sicurezza
Le ultime novità sulle nostre soluzioni per ridurre i rischi nelle tecnologie e negli ambienti
Edge computing
Aggiornamenti sulle piattaforme che semplificano l'operatività edge
Infrastruttura
Le ultime novità sulla piattaforma Linux aziendale leader a livello mondiale
Applicazioni
Approfondimenti sulle nostre soluzioni alle sfide applicative più difficili
Virtualizzazione
Il futuro della virtualizzazione negli ambienti aziendali per i carichi di lavoro on premise o nel cloud