• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus

Elaborazione parallela, l’acceleratore della produttività nel 2016

Il presidente e Ceo di DataCore, George Teixeira, ha spiegato le dinamiche che stanno rendendo ancora più conveniente l’approccio software-defined e analizzato una tecnologia – l’elaborazione parallela – ora in grado di cambiare le regole del gioco. Accelerando processi e applicazioni, come mai prima di oggi.

Pubblicato il 18 gennaio 2016 da Redazione

Fra i tanti pronostici per il 2016 tracciati dai vendor di tecnologia, c’è anche quello sul ruolo dirompente dell’elaborazione parallela. Una tecnologia che è il vanto della piattaforma di software-defined storage di DataCore, San-Symphony. In un suo recente passaggio in Italia, il cofondatore, presidente e Ceo George Teixeira aveva già avuto modo di parlare di questa nuova caratteristica, definendola come il “fast pass” per i server oberati di carichi di lavoro. La caratteristica in sé, in realtà, non è nuova ma solo adesso DataCore ha iniziato a promuoverla alla luce delle evoluzioni dell’hardware e di server equipaggiati con processori più veloci.

 

 

L’elaborazione parallela cambierà “le regole del gioco”
Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli anni Settanta, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei Pc e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.

Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’It è rimasta bloccata per la mancanza di software capace di farla esplodere.

Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.

Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela.

Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il software-defined storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.

Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.

I server saranno il nuovo storage
Solamente un layer di software-defined storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o del cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.

Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per l’archiviazione: i server saranno il nuovo storage. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’It.

 

 

La rivoluzione delle infrastrutture It e della produttività

Il dato più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente Spc1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono fare di più con meno risorse, e possono cambiare drasticamente gli aspetti economici e la produttività.

L’elaborazione parallela cambierà “le regole del gioco”
Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli anni Settanta, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei Pc e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.

Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’It è rimasta bloccata per la mancanza di software capace di farla esplodere.

Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.

Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela.

Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il software-defined storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.

Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.

I server saranno il nuovo storage
Solamente un layer di software-defined storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o del cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.

Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per l’archiviazione: i server saranno il nuovo storage. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’It.

La rivoluzione delle infrastrutture It e della produttività

Il dato più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente Spc1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono fare di più con meno risorse, e possono cambiare drasticamente gli aspetti economici e la produttività.

 

Tag: storage, software defined, datacore, sansymphony-v

STORAGE

  • Con FlashBlade//E, Pure Storage si occupa dei dati non strutturati
  • DataCore ancor più forte nello storage a oggetti con Object Matrix
  • Miglioramenti al programma e nuovi partner per Infinidat
  • Sistemi hardware per il cloud, spesa in crescita del 25%
  • L'efficienza della sanità passa anche dallo storage

FOCUS

  • Threat intelligence, per Mandiant è alla base della prevenzione
  • Future of work week: Cisco ripensa i luoghi e i modi per lavorare
  • Check Point riporta in auge il concetto di prevenzione
  • BBBell, da operatore Internet a fornitore di servizi cloud
  • Il campus di Elmec cresce abbinando tecnologia e sostenibilità
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
La sicurezza rafforzata dall’AI ispira gli sviluppi di Dynatrace
Trasformazione digitale in azienda, scontento un dipendente su tre
Nel cloud di Infobip i dati possono restare in Europa
Sd-Wan e 5G tengono banco negli sviluppi di VMware
Automazione intelligente per le telco grazie a Juniper e Ibm
Microsoft, novità di Azure per gli operatori di telecomunicazione
Una nuova intranet fa “viaggiare” Autostrade per l’Italia
Transizione energetica, il gap tra buone intenzioni e fatti
Trend Micro sceglie Salvatore Marcis per la guida del canale
Microsoft lancia in Dynamics un “copilota” di intelligenza artificiale
Gli errori di configurazione del cloud sono quasi ubiqui
Peter Herweck Ceo di Schneider Electric, Caspar Herzberg guida Aveva
PA, utilities e servizi finanziari volano per Oracle in Italia
Con Avm Fritz!Box 5690 Pro fibra ottica e DSL in un solo dispositivo
Boom di attacchi gravi in Italia, il pericolo anche nella banalità
Donne e tecnologia, a che punto siamo con il gender gap?
Aziende lente, solo il 10% risponde alle cyber minacce entro un’ora
La cyber estorsione inizia a fare a meno anche del ransomware
Nuova struttura a tre livelli per il programma partner di Rubrik
Google s’impegna in Italia contro cybercrimine e disinformazione
Skillskan, un motore per “sposare” domanda e offerta di lavoro
Una piattaforma gestita per cloud ibrido con Red Hat e Aruba
Cohesity sceglie Kit Beall come chief revenue officer
Microsoft Teams diventa più veloce, flessibile, facile e smart
Cybersicurezza, per un vendor come Eset è una maratona
Addio Gordon Moore, da Intel alla legge pilastro dell’informatica
Scansioni malware più “leggere” con Intel e Acronis
Plink nella cybersicurezza con servizi di monitoraggio e risposta
Data analytics, Piwik Pro cresce e nomina un nuovo Ceo
Videosorveglianza con AI per le Olimpiadi di Parigi del 2024
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968