• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus

Elaborazione parallela, l’acceleratore della produttività nel 2016

Il presidente e Ceo di DataCore, George Teixeira, ha spiegato le dinamiche che stanno rendendo ancora più conveniente l’approccio software-defined e analizzato una tecnologia – l’elaborazione parallela – ora in grado di cambiare le regole del gioco. Accelerando processi e applicazioni, come mai prima di oggi.

Pubblicato il 18 gennaio 2016 da Redazione

Fra i tanti pronostici per il 2016 tracciati dai vendor di tecnologia, c’è anche quello sul ruolo dirompente dell’elaborazione parallela. Una tecnologia che è il vanto della piattaforma di software-defined storage di DataCore, San-Symphony. In un suo recente passaggio in Italia, il cofondatore, presidente e Ceo George Teixeira aveva già avuto modo di parlare di questa nuova caratteristica, definendola come il “fast pass” per i server oberati di carichi di lavoro. La caratteristica in sé, in realtà, non è nuova ma solo adesso DataCore ha iniziato a promuoverla alla luce delle evoluzioni dell’hardware e di server equipaggiati con processori più veloci.

 

 

L’elaborazione parallela cambierà “le regole del gioco”
Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli anni Settanta, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei Pc e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.

Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’It è rimasta bloccata per la mancanza di software capace di farla esplodere.

Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.

Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela.

Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il software-defined storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.

Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.

I server saranno il nuovo storage
Solamente un layer di software-defined storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o del cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.

Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per l’archiviazione: i server saranno il nuovo storage. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’It.

 

 

La rivoluzione delle infrastrutture It e della produttività

Il dato più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente Spc1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono fare di più con meno risorse, e possono cambiare drasticamente gli aspetti economici e la produttività.

L’elaborazione parallela cambierà “le regole del gioco”
Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli anni Settanta, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei Pc e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.

Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’It è rimasta bloccata per la mancanza di software capace di farla esplodere.

Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.

Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela.

Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il software-defined storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.

Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.

I server saranno il nuovo storage
Solamente un layer di software-defined storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o del cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.

Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per l’archiviazione: i server saranno il nuovo storage. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’It.

La rivoluzione delle infrastrutture It e della produttività

Il dato più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente Spc1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono fare di più con meno risorse, e possono cambiare drasticamente gli aspetti economici e la produttività.

 

Tag: storage, software defined, datacore, sansymphony-v

STORAGE

  • Hitachi Vantara vede nei dati il valore strategico per le imprese
  • Sistemi per data center, Ingram Micro distribuisce Overland-Tandberg
  • Storage fisico e a servizio si mescolano nella gamma Pure Storage
  • Riparte il ciclo degli Storage Day di Share Distribuzione
  • In un mondo multicloud, la libertà di scelta è la forza di Dell

FOCUS

  • Il retail abbraccia il digitale, i consumatori apprezzano sì e no
  • Modernizzare le app non basta, bisogna pensare alle operations
  • La continuità di Red Hat fa perno su cloud ibrido e innovazione
  • Genya, un software gestionale che cambia la vita
  • Malware “commodity” e ransomware, due pericoli coesistenti
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
MSSP italiani: chi sono, dove sono e quali servizi di sicurezza erogano
Sap, Massimo Peruso alla guida dei Cloud Success Services
Konica Minolta e Mobotix rinnovano l’alleanza per la video analisi
Osservabilità dei dati e automazione, Ibm acquisisce Databand.ai
Google, l’antitrust italiano indaga su abuso di posizione dominante
Matt Hicks va alla guida di Red Hat, Cormier diventa chairman
Google si adatta allo scenario globale, le assunzioni rallentano
Il cloud aiuta i partner a crescere, parola di Microsoft
Con Xcelerator, Siemens porta le industrie nel metaverso
Le assunzioni rallentano anche in Apple, ma i Glass non si discutono
Switch EX4100 Juniper, l’intelligenza artificiale fa la differenza
La sicurezza gestita made in Italy di Sababa si estende all’OT
ThinkCentre neo 50a, l’all-in-one “intelligente” di Lenovo
Sicurezza e migrazione su Microsoft, Quest Software sceglie Arrow
Data center sostenibili, come ottenerli e perché non è semplice
Ivanti amplia l’accordo di distribuzione con Arrow Electronics
Withsecure si focalizza su threat intelligence e machine learning
Servizi finanziari, lo sviluppo software preoccupa il 75% dei Ciso
Epson riorganizza il canale e lo indirizza verso soluzioni e servizi
Vendite di Pc ancora in calo, ma permangono aree di crescita
Un dispositivo indossabile rileva i casi di covid asintomatico
Battuta d’arresto per Alibaba, la prima dopo una lunga crescita
Tra cyberwar e cybercrimine, il 2022 riserva ancora delle sorprese
Ivanti e SentinelOne unite nella lotta alle vulnerabilità nascoste
Tim, avanti con il taglio dei costi e nello sviluppo della rete
La Robotic Process Automation cresce e va verso l’iperautomazione
Sanjay Poonen passa da Vmware a Cohesity per diventare Ceo
Google e Unioncamere hanno formato 43mila persone in due anni
Elon Musk al contrattacco, fa causa a Twitter a sua volta
Engineering, Guido Porro è executive vice president enterprise
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2022 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968