In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
Colloquio

Nvidia, dietro la rivoluzione dell'intelligenza artificiale ci sono le schede grafiche

Nvidia, dietro la rivoluzione dell'intelligenza artificiale ci sono le schede grafiche
Nata come produttore di GPU, oggi l'azienda americana ha un ruolo di primo piano nell’hardware per l’intelligenza artificiale: “L’IA è lo strumento più potente che l’umanità abbia mai avuto a disposizione”, dice il CTO Michael Kagan
4 minuti di lettura

“Io parlerei di punto di svolta. Mi piace anche l’espressione Momento iPhone dell’intelligenza artificiale, penso che sia molto efficace per descrivere il periodo che stiamo vivendo”: Michael Kagan, Chief Technology Officer di Nvidia, è convinto che la rivoluzione dell’IA non sia né una bolla né un trend passeggero.

“Le cose stanno cambiando veramente grazie all’IA, proprio come iniziarono a cambiare quando l’iPhone sbloccò il potenziale degli smartphone”, ha spiegato in un'intervista a Italian Tech. Con lui abbiamo provato a capire come Nvidia, un’azienda nota per le schede grafiche da gaming, sia diventata un nome di primissimo piano in questo settore. Per dirla meglio: l’azienda senza la quale l’attuale rivoluzione dell’IA non sarebbe stata possibile.

GPU per GPT

Non è un’esagerazione: già nel 2019 si poteva trovare una GPU Nvidia praticamente in tutti i centri di elaborazione dei maggiori provider di cloud computing utilizzati per applicazioni IA, da Amazon AWS a Google, da Azure ad Alibaba. Nel 2016, OpenAI scelse proprio l’hardware Nvidia (un DGX AI) per allenare le prime versioni di ChatGPT. Oggi GPT-3.5 e GPT-4 girano sui supercomputer di Microsoft Azure, un’infrastruttura che, dicono da Redmond, include “migliaia di GPU Nvidia ottimizzate per l’IA, collegate assieme in un network a bassa latenza e alta capacità basato su componenti di comunicazione Nvidia Quantum InfiniBand”.

Anche i conti dell’azienda ne riflettono il nuovo ruolo: sebbene Nvidia debba ancora una parte significativa delle entrate all’hardware per il gaming (circa il 34%), nel 2022 è avvenuto il sorpasso. Il segmento enterprise e datacenter è cresciuto di più del 40% e l’anno scorso, con i suoi 15 miliardi di dollari di introiti, ha contribuito a più della metà del fatturato. Alla differente composizione del fatturato ha contribuito però anche un altro fattore, e cioè il calo di interesse nel cosiddetto mining delle criptovalute, altra attività di computazione per la quale le schede grafiche di Nvidia (in particolare quelle per il gaming) si erano dimostrate sorprendentemente efficaci.

Dalla grafica all’intelligenza artificiale

“È vero che Nvidia ha iniziato come azienda di schede e chip grafici, ma volendo generalizzare il nostro business è sempre stato l’accelerazione della computazione - ci ha spiegato Kagan - L’applicazione principale storicamente era la grafica e la visualizzazione di immagini, operazioni che richiedono l’elaborazione in parallelo di un numero enorme di dati. Poi una ventina di anni fa ha iniziato a emergere un nuovo modo di processare i dati, i neural network. Anche in questo caso c’è una quantità enorme di dati da calcolare in parallelo nella maniera più efficiente possibile. L’esperienza nella grafica si poteva così applicare a questo tipo di calcolo: Nvidia poteva fornire gli strumenti adeguati, e ha saputo farlo”.

Ma se nel caso dell’intelligenza artificiale Kagan ritiene che il beneficio per l’umanità sia netto e positivo, per quanto riguarda le criptovalute il giudizio è molto più sprezzante: secondo il CTO, le criptomonete non hanno portato niente di utile per la società. E così, finché Nvidia ha potuto vendere le sue schede grafiche agli impallinati delle crypto lo ha fatto (il business è sempre business) ma non ha mai ripensato la direzione strategica dell’azienda per favorire quella tendenza, come invece sta avvenendo ora per l’intelligenza artificiale.

Un’enorme mole di dati

Per capire la quantità di dati di cui stiamo parlando quando discutiamo di computazione per l’intelligenza artificiale, basta prendere l’esempio di OpenAI: GPT-3, svelato nel 2020, fu allenato su 175 miliardi di parametri con un training il cui costo stimato fu di più di 4 milioni di dollari. L’allenamento di GPT-4, l’ultima versione del modello linguistico, è avvenuto con un set di dati da più di 1000 miliardi di parametri.

“È chiaro che per queste necessità di computazione non ci sono CPU che tengono. La legge di Moore è quasi morta, presto non si potrà più avere il doppio dei transistor in un chip allo stesso costo, ma allo stesso tempo la domanda per le capacità di elaborazione sta esplodendo. Noi offriamo una soluzione attraverso l’ottimizzazione dei processi grazie alle GPU - ci ha detto ancora Kagan - È bene precisare che i computer che costruiamo a questi scopi non sono esattamente come i PC che finiscono sotto la scrivania, ma supercomputer che installiamo in edifici grandi come un hangar”.

I nuovi superchip

Alla GTC 2023, la conferenza annuale per gli sviluppatori di NVIDIA che si è tenuta dal 20 al 23 marzo, l’azienda ha mostrato ulteriori novità per il settore. Il CEO, Jensen Huang, ha annunciato la soluzione DGX Cloud, un supercomputer on demand che si può affittare tramite Oracle Cloud, Google Cloud o Microsoft Azure. L’altro annuncio di rilievo è la piattaforma AI Foundations, una soluzione software grazie alla quale le aziende possono allenare modelli di intelligenza artificiale con dati privati per creare LLM simili a GPT o generatori di immagini, ma ottimizzati per un compito o un dominio specifico.

Annunci che lasciano intuire una traiettoria chiara: Nvidia è pronta a capitalizzare la posizione di vantaggio nel settore per espandere la sua offerta a tutti gli aspetti della computazione necessari per le applicazioni di intelligenza artificiale, inclusa la programmazione dei modelli e molte altre operazioni seriali per le quali le CPU industriali tradizionali non sono correttamente ottimizzate. Il prodotto chiave a questo scopo è il superchip Grace Hopper, che unisce una GPU Hopper H100 al processore Grace, il tutto ottimizzato esattamente per il processamento ad alte prestazioni delle operazioni di intelligenza artificiale.

“Abbiamo progettato la CPU Grace per tutte quelle operazioni necessarie nell’ambito dell’IA che però non possono essere elaborate, o non ha senso elaborare, in parallelo - ci ha chiarito ancora Kagan - In questo modo i nostri sistemi possono occuparsi di tutto, dal processamento dati all’elaborazione, fino alle operazioni sequenziali di gestione di tutto il processo”.

In una conversazione con il capo tecnologico di un’azienda come Nvidia è facile perdersi in discussioni tecniche ma Kagan, nonostante il ruolo che ricopre, non sembra perdere di vista la visione d’insieme: “Quella che stiamo costruendo è una straordinaria piattaforma per l’innovazione. L’uomo è da sempre un costruttore di utensili che amplificano le sue capacità, e l’intelligenza artificiale è uno strumento fra i più potenti che abbiamo mai avuto a disposizione”. Ancora: È difficile predire le applicazioni che renderà possibili, così come all’arrivo dell’iPhone non si poteva prevedere con certezza che nel giro di dieci anni le mappe cartacee sarebbero diventate obsolete”.