22/05/2017 di Redazione

The Machine, una rivoluzione che viene da lontano e guarda lontano

Il prototipo della nuova architettura per il calcolo in-memory mostrato nei giorni scorsi da Hpe è il risultato di un progetto nato nel 2004 nella mente del chief architect Kirk Bresniker. Ma le sue potenzialità sono ancora tutte da realizzarsi.

immagine.jpg

Nelle ambizioni di Hpe, potrà addirittura cambiare il corso di molte scoperte scientifiche e più in generale in qualsiasi campo richieda l'elaborazione di grandi volumi di dati, in tempi rapidi. The Machine, oggi un prototipo funzionante, è un'architettura di computing per il calcolo in-memory che nasce da lontano. Nel 2004 Kirk Bresniker, allora chief architect degli Hp Labs (oggi svolge il medesimo incarico per Hpe), aveva per la prima volta esplicitato l'intenzione di dar vita a un progetto capace di apportare cambiamenti radicali all'architettura dei sistemi informatici. Tredici anni dopo, il suo pensiero assume una prima veste concreta con un prototipo mostrato nei giorni scorsi nei laboratori nel Colorado.

Fin dalle origini, il progetto di Bresniker si fondava sull'idea di realizzare un computer che potesse utilizzare tecnologie all'avanguardia, come i memristors e le connessioni fotoniche. Quello che si inizia a vedere ora è ancora abbastanza distante dai piani resi pubblici al momento dell'avvio ufficiale del progetto, nel 2014. Tuttavia, siconferma soprattutto la volontà di superare le limitazioni collegate alle tradizionali architetture di Pc e server, dove la memoria rappresenta un collo di bottiglia. Basandosi su un'architettura di calcolo in-memory, invece, The Machine può disporre di 160 TB di memoria, ripartiti su 40 nodi fisici interconnessi ad alta velocità. Nessun server oggi sul mercato può vantare un'analoga capacità di memoria, che rappresenta tre volte la Dram dei Superdome X della stessa Hpe.

Il prototipi ospita 1,280 core Armv8-A Cavium Thunder X2 e funziona con versione ottimizzata del sistema operativo Linux. Le connessioni sono ripartite su una rete a maglia, in modo tale che i nodi di memoria e i processori possano comunicare più rapidamente fra loro. I controller di interconnessione sono Fpga. Si tratta quindi di un sistema di supercalcolo distribuito, che scompone l'elaborazione su diverse risorse. E questo supercomputer è già pronto per integrare future tecnologie: gli slot possono ospitare connettori fotonici, allo scopo di legare storage, memoria e processori su un'architettura fabric ultrarapida. L'interconnessione stessa anticipa il protocollo Gen-Z, supportato dai principali produttori hardware.

L'intento di Hpe è quello di migliorare il sottosistema di memoria e storage nei pc e nei server: se i dati sono elaborati più rapidamente in queste componenti, si riduce la necessità di accelerare le istruzioni nelle Cpu. Tuttavia, l'azienda californiana non ha ancora risolto alcuni problemi rilevanti. Il modello iniziale di The Machine avrebbe dovuto utilizzare i cosiddetti memristors, una sorta di abbinamento fra memoria e resistenza, in grado di effettuare calcoli logici che possono aiutare i computer a prendere decisioni in funzione dei dati che conservano. La tecnologia era stata già annunciata nel 2008, ma ha subito numerosi ritardi: “Ci stiamo lavorando insieme a Western Digital”, ha puntualizzato Bresniker, il quale ha adottato un approccio open-source per lo sviluppo di questo prodotto.

 


Hpe si aspetta che l'architettura possa crescere ancora in potenza, fino a poter disporre di un exabyte di memoria, per poi salire nel più lungo periodo verso numeri ben superiori alla totalità dell'universo digitale conosciuto fino a oggi. L'enorme quantità di spazio di memoria promessa renderà possibile lavorare simultaneamente su singoli dati sanitari di ogni essere umano oppure su singoli dati memorizzati su Facebook o, ancora, su specifici tragitti effettuati dalle automobili driverless di Google, solo per fare esempi legati a sviluppi che oggi conosciamo.

Ma quando arriverà sul mercato? “La disponibilità concreta per i data center di The Machine dipende dalla supply-chain, dallo sviluppo del silicio, dagli accordi che si faranno sulle specifiche ed alla velocità dello sviluppo del software”, spiega Bresniker. “Quest'ultimo aspetto è stato sempre limitato, ma anche orientato dalla Legge di Moore. Se in futuro l'elaborazione basata sulla memoria diventerà lo standard, potremmo immaginare uno sviluppo del software in modalità completamente differenti”.

 

ARTICOLI CORRELATI