Come funzionano le macchine e le IA dietro al prossimo mondo virtuale

Uno degli argomenti di cui si è più parlato negli ultimi mesi è il Metaverso: un termine non nuovo, essendo di ispirazione cyberpunk anni ‘90, che è tornato alla ribalta quando Facebook si è trasformata in Meta e ha deciso di crearne uno.
Quello che forse non tutti sanno è che per tenere in piedi una struttura del genere, un mondo virtuale a tutti gli effetti, è necessaria una grandissima potenza di calcolo: motivo per cui Facebook-Meta ha realizzato un supercomputer ad hoc.
Il supercomputer che terrà in piedi il mondo virtuale interconnesso di Meta si chiama AI Research SuperCluster, in breve RSC, e secondo Mark Zuckerberg è già uno dei supercomputer per l’AI più veloci al mondo: a bordo ha 760 sistemi Nvidia Dgx A100 per un totale di 6.080 Gpu che lavorano tutti insieme per costruire e sorreggere il metaverso, ma quando diventeranno circa 16.000 ha annunciato che diventerà il primo a livello globale.
A cosa serve tutta questa potenza di calcolo? La risposta un po’ sta già nel nome del supercomputer, perché i ricercatori di Meta lo useranno per creare modelli di apprendimento automatico in grado di imparare da trilioni di esempi, lavorare in centinaia di lingue diverse e analizzare testi, immagini e video, per poi riversare quanto imparato per moderare automaticamente i contenuti, sviluppare nuovi strumenti di realtà aumentata e aiutare a creare la tecnologia necessaria a popolare l’universo parallelo di FB.
Per arrivare a questo risultato, al supercomputer verrà dato in pasto il mastodontico flusso di informazioni prodotto da Meta, che potrebbero essere anche per esempio i dati generati in questi anni da Instagram, Facebook e WhatsApp: interrogata in proposito alle recenti polemiche a tema privacy su ex Facebook, l’azienda ha confermato che i dati saranno in forma anonimizzata e resteranno criptati almeno fino al momento dell’utilizzo.
Un investimento da milioni di dollari: anche se Meta non ha dichiarato il costo della macchina, è possibile fare qualche stima. Ogni Nvidia Dgx A100 costa 200.000 dollari, cioè circa 177.000 euro, che moltiplicato per gli attuali 760 sistemi dà un totale di 134 milioni di euro, ed è solo l’hardware.
Come dice il nome, i supercomputer sono sistemi di elaborazione con risorse dislocate in più computer operanti in parallelo; si tratta di macchine molto potenti, in grado di raggiungere capacità di elaborazione estremamente alte e svolgere operazioni molto complesse a elevatissime prestazioni.
Si distinguono dai computer non solo per l’ordine di grandezza della potenza di calcolo e l’alta complessità dei calcoli, ma anche per la filosofia alla base del loro sviluppo, a partire dall'architettura che li contraddistingue. Se il PC tradizionale è progettato per essere usato da un utente comune per svolgere operazioni di carattere generico, il supercomputer è destinato a rimanere confinato dentro un datacenter, con compiti ben specifici che hanno consentito di verticalizzare in modo estremo le configurazioni.
Grazie alla capacità di svolgere elaborazioni a velocità elevate, i supercomputer hanno impiego in ambito scientifico, dalla medicina alla chimica, dall'astrofisica alla meteorologia, ma anche in campo finanziario, militare e informatico.
Con la pandemia per esempio sono stati avviati tantissimi filoni di ricerca fondati sulle simulazioni attraverso il supercomputing, sia per conoscere meglio la natura del virus e le sue continue mutazioni sia per individuare nuove molecole utili a costruire farmaci efficaci per prevenire e contrastare la sua azione patologica.
Quello di Meta è l’ultimo assurto agli onori delle cronache, ma i supercomputer sono parecchi: esiste addirittura una lista dei 500 più potenti al mondo che viene aggiornata regolarmente, e tra i primi dieci ce n'è anche uno italiano. La maggior parte delle posizioni è occupata da macchine cinesi o statunitensi, ma al primo posto c'è il giapponese Fugaku.
Realizzato da Fujitsu nei datacenter Riken di Kobe, è basato su tecnologia ARM, conta su 442 petaFLOPS ed è stato ideato per raggiungere performance applicative elevatissime per risolvere problemi sociali e scientifici. Fugaku è tre volte più potente dell’ex numero uno, IBM Summit, che si è fermato a 148,6 petaFLOPS e si trova all’Oak Ridge National Laboratory in Tennessee, negli Stati Uniti.
Al terzo posto IBM Sierra, anch’esso localizzato in un datacenter statunitense, stavolta in California. Stessa architettura di Summit, ha raggiunto 94,6 petaFLOPS, ed è stato usato insieme al "fratello maggiore" nella lotta contro il cancro per studiarne l'incidenza grazie agli algoritmi di machine learning applicati alla popolazione statunitense, ma anche per identificare nuovi materiali per costruire batterie o semiconduttori grazie alla possibilità di ottenere risposte sul comportamento dei materiali a livello atomico.
Al quarto posto c'è il Sunway TaihuLight, supercomputer cinese che fino a poco tempo fa era in cima alla classifica, dotato di 40.960 moduli processori, ognuno di essi equipaggiato con 260 core per un totale di 10.649.600 core complessivi, che ha raggiunto 93 petaFLOPS, e al quinto c'è lo statunitense Perlmutter, arrivato a questa posizione giusto lo scorso giugno con 70,9 petaFLOPS.
Al momento il nostro Paese ha tre supercomputer piazzati nella top500, abbastanza ben posizionati. Uno è addirittura nella top 10: è il HPC5, supercomputer di ENI sviluppato da Dell EMC e collocato in un datacenter in provincia di Pavia: arriva a 34,5 petaFLOPS ed è attualmente il secondo supercomputer più potente d’Europa, preceduto solo dal tedesco JUWELS con 44,12 petaFLOPS.
A livello europeo l’Italia fa parte dell’impresa EuroHPC che punta alla transizione verso uno scenario che porterà a usare sistemi cinquanta volte più potenti rispetto agli attuali, e che richiede una collaborazione sempre più trasversale tra gli stati europei. In questo contesto saranno determinanti le risorse messe in campo dai partner, come il super computer pre-exascale europeo Leonardo, che sarà installato e gestito da Cineca nel corso del 2022.
In prospettiva, bisognerà tener conto anche dell'aspetto di sostenibilità ambientale dei supercomputer, perché per quanto lo sviluppo dei semiconduttori sia in grado offrire maggior potenza di calcolo a fronte di minori consumi, queste macchine rimangono strutture estremamente energivore: motivo per cui si rende necessario limitare i consumi, ridurre le emissioni CO2 e rendere l’intera filiera più sostenibile.