Il supercomputing sta entrando in una nuova fase. Dopo decenni in cui la potenza di calcolo è stata dominata da CPU e (più recentemente) GPU, adesso l’industria si prepara a integrare il calcolo quantistico all’interno delle architetture HPC tradizionali, creando sistemi ibridi capaci di affrontare problemi scientifici e industriali impossibili da risolvere con l’informatica classica.
IBM è ovviamente in prima fila nello sviluppo di queste nuove tecnologie e ha presentato la prima architettura di riferimento per il quantum-centric supercomputing, un modello progettuale pensato per integrare processori quantistici, infrastrutture HPC e strumenti di intelligenza artificiale in un’unica piattaforma di elaborazione. L’obiettivo è offrire un percorso che porti alla nuova generazione di supercomputer in cui quantum computing, calcolo classico e AI collaborano per affrontare sfide scientifiche di estrema complessità.
Dal sogno di Feynman ai supercomputer quantistici
L’uso di computer quantistici è nei progetti degli scienziati fin dagli anni ’80, quando il fisico teorico Richard Feynman immaginò una macchina capace di replicare il comportamento dei sistemi quantistici, un compito che i computer classici faticano ad affrontare per via della complessità esponenziale delle interazioni tra particelle.
Oggi, secondo IBM, quel concetto teorico sta iniziando a diventare una realtà operativa grazie alla convergenza tra diverse tecnologie di calcolo. Come ha spiegato Jay Gambetta, direttore di IBM Research, i processori quantistici hanno già dimostrato di poter affrontare porzioni di problemi governati dalla meccanica quantistica, come simulazioni molecolari o fenomeni chimici complessi.
Il nuovo approccio, però, consiste non nel sostituire i supercomputer tradizionali, ma nel farli lavorare insieme sistemi quantistici e classici, sfruttando i punti di forza di ciascun sistema computazionale.
È proprio su questo principio che si basa il quantum-centric supercomputing: un’architettura in cui processori quantistici collaborano con cluster di CPU e GPU per risolvere problemi che nessuna singola tecnologia sarebbe in grado di affrontare da sola.
L’architettura IBM: un ambiente unificato tra quantum, HPC e AI
La nuova architettura di riferimento presentata da IBM definisce un modello infrastrutturale in cui computer quantistici vengono integrati all’interno dell’ecosistema dei supercomputer moderni. In questo schema i processori quantistici non sono sistemi isolati, ma componenti di una piattaforma di calcolo più ampia che comprende infrastrutture HPC, reti ad alta velocità e sistemi di storage condivisi. L’architettura è progettata per funzionare sia in ambienti on-premise sia nei centri di ricerca o nel cloud, permettendo di orchestrare workload complessi che combinano diverse modalità di calcolo.
Dal punto di vista tecnologico il modello prevede un’infrastruttura classica ad alte prestazioni composta da cluster di CPU e GPU, collegata a processori quantistici tramite reti a bassa latenza e sistemi di orchestrazione software capaci di distribuire dinamicamente i calcoli tra i diversi livelli dell’infrastruttura. In pratica, i supercomputer del futuro potrebbero eseguire alcune parti di un problema su GPU o CPU tradizionali e delegare altre parti ai processori quantistici, in base alla natura matematica del problema stesso.
Ovviamente, perché tutto funzioni il software occupa un ruolo centrale. IBM punta, infatti, su framework aperti e workflow coordinati, con particolare attenzione all’ecosistema Qiskit, la piattaforma open source utilizzata per programmare e gestire sistemi quantistici. Grazie a questi strumenti, sviluppatori e ricercatori possono accedere alle funzionalità quantistiche utilizzando ambienti e modelli di sviluppo familiari. Questo approccio mira a ridurre la distanza tra ricerca quantistica e applicazioni reali, permettendo ai team scientifici di integrare gradualmente il quantum computing nei workflow di ricerca già esistenti.
I primi risultati scientifici del quantum-centric computing
L’architettura proposta da IBM non è soltanto un progetto teorico. Negli ultimi anni diversi gruppi di ricerca hanno già utilizzato sistemi quantistici integrati con infrastrutture HPC per affrontare problemi scientifici reali. Uno dei casi più interessanti riguarda la creazione della prima molecola half-Möbius, sviluppata da un team composto da ricercatori IBM e scienziati delle università di Manchester, Oxford e Ratisbona. I ricercatori hanno utilizzato un computer quantistico per verificare la particolare struttura elettronica della molecola, dimostrando come il calcolo quantistico possa contribuire alla comprensione di nuovi materiali.
Un altro esperimento significativo è stato condotto dalla Cleveland Clinic, che è riuscita a simulare una mini-proteina chiamata tryptophan-cage composta da 303 atomi, uno dei modelli molecolari più grandi mai analizzati con un sistema quantistico. Nel campo della fisica dei sistemi complessi, un gruppo di ricerca che coinvolge IBM, RIKEN e l’Università di Chicago è riuscito a individuare lo stato energetico più basso di alcuni sistemi quantistici ingegnerizzati, superando approcci basati esclusivamente su metodi classici.
Particolarmente interessante è anche il lavoro svolto nel supercomputer Fugaku di RIKEN. In questo caso oltre 152 mila nodi di calcolo classici hanno lavorato in cooperazione con un processore IBM Quantum Heron, installato nello stesso centro di calcolo, per simulare cluster ferro-zolfo fondamentali nei processi biologici e chimici.
Verso la prossima generazione di supercomputer
La strategia di IBM riflette una convinzione sempre più diffusa nella comunità scientifica: il futuro del supercomputing non sarà esclusivamente quantistico, ma ibrido. Nei prossimi anni, i centri di ricerca e i grandi laboratori scientifici potrebbero adottare architetture in cui quantum processor unit, GPU, CPU e modelli di intelligenza artificiale cooperano all’interno dello stesso ambiente computazionale, condividendo dati, orchestrazione e workflow.
Se questa visione si concretizzerà, il quantum-centric supercomputing potrebbe rappresentare la base della prossima generazione di infrastrutture di calcolo scientifico, aprendo la strada a scoperte in campi che oggi sono limitati dalla capacità dei sistemi classici.