• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus

Dal “magazzino” al “lago” di dati: una trasformazione necessaria

Il country manager italiano della californiana Talend ci illustra come siano mutate negli ultimi anni le esigenze di conservazione e uso dei dati. Per esempio, con l'intelligenza artificiale e con le attività di data preparation.

Pubblicato il 27 gennaio 2017 da Roberto Bonino

Nell'era dei Big Data, il modo in cui le informazioni vengono custodite e trattate si è trasformato profondamente. Un tempo lo strumento principe era il data warehouse, ovvero una sorta di grande archivio pensato per raccogliere grandi quantità di dati, che poi venivano classificati e ordinati all'interno di database relazionali. Se ne è parlato per diverso tempo nel primo decennio di questo secolo, ma in pochi anni lo scenario è radicalmente cambiato, complici l’esplosione di dati generati dalle fonti più disparate, ma anche nuove esigenze di governance e collaborazione che le tecnologie tradizionali faticano a soddisfare.

Oggi inizia a farsi largo il concetto di data lake, idealmente non troppo diverso da quello di data warehouse, ma più aggiornato alle attuali tendenze (come il cloud e l'utilizzo di Apache Hadoop come framework per l’accesso e il calcolo distribuito). Un strumento che consente di creare un repository centralizzato dove immagazzinare grandi quantità di dati a costi relativamente contenuti. Un esperto di questo approccio è Talend, società francese fondata nel 2006 ma oggi domiciliata a Redwood City, California. Oggi conta oltre 500 dipendenti e 1.300 aziende clienti nel mondo, tra cui Air France, Findus, Groupon, Lenovo, Sky Deutschland e Virgin Mobile.

“Per affrontare al meglio il tema della trasformazione digitale, è inevitabile che un’azienda evolva in direzione data-driven”, spiega Massimo Tripodi, country manager di Talend Italia. “Con un modello data lake è possibile partire da semplici casi d’uso, poi passare all’infrastruttura e, infine, aggiungere temi come la condivisione e la governance dei dati, ma anche il machine learning, la gestione dei metadati o l’accesso self-service. Per evitare che un progetto fallisca, tuttavia, occorre capire quali informazioni acquisire e che cosa farne, controllarne la qualità e rendere possibile un accesso più universale”.

L'offerta di Talend si fonda sul concetto di data fabric, cioè un ambiente software che permette di elaborare, organizzare e manutenere set di dati delle più disparate provenienze, gestendoli su piattaforme Big Data come Apache Hadoop o Apache Spark, in modo coeso, integrato, controllato e accessibile in modalità self-service. Lo specifico prodotto, cioè la piattaforma Data Fabric, è appena stato aggiornato alla versione Winter '17 proprio per soddisfare alcune delle esigenze elencate da Tripodi. “L’obiettivo di questo aggiornamento”, sottolinea il country manager, “è di rendere disponibili dati di qualità, validati e utili per il business, in modo che si possa usare una logica self-service per agevolare il lavoro di tutti gli interessati in azienda”.

Con l'attività di “data preparation” gli utenti possono accedere a qualsiasi fonte (ambienti tradizionali, Hadoop o cloud) e utilizzare un “data dictionary” pre-configurato per il riconoscimento automatico del valore dei dati grezzi messi a disposizione dal data lake. A questo si aggiunge la cosiddetta “data stewardship”, che rende omogenei tutti i dati, anche quelli che l’algoritmo di machine learning non sa gestire in termini di eccezioni. Con questa edizione, inoltre, il supporto è stato esteso alla recente versione 2.0 di Spark, ma anche ad Amazon Web Services, a Salesforce e a distribuzioni Hadoop come Cloudera, MapR e Hortonworks.

 

Massimo Tripodi, country manager di Talend Italia

 


Per tradizione, Talend rilascia due volte all’anno un aggiornamento della propria Data Fabric, per assicurare la costante evoluzione della soluzione in un contesto soggetto a cambiamenti piuttosto frequenti. Questa scelta, abbinata a quella totalmente open source (con il vantaggio di poter sfruttare quanto prodotto dalla community degli sviluppatori) e a un modello commerciale basato sul canone annuale (il tasso di rinnovo è al 98%, secondo il vendor), è alla base di una crescita che da sei anni mantiene il ritmo del 40% all’anno.

In Italia, la società franco-californiana aveva già tentato di affermarsi qualche anno fa, per poi tornare con decisione con una presenza diretta nel 2016. “Abbiamo chiuso il primo anno di attività con un surplus del 175% rispetto al budget assegnato”, sottolinea Tripodi, “e abbiamo acquisito 22 clienti, con alcune eccellenze soprattutto nel settore finanziario. Nel 2017 porteremo l’organico a dieci persone e costruiremo una rete di partner che dovrà sostenerci nelle attività di implementazione, consentendo di concentrarci sul rafforzamento del brand e sulla parte di supporto. Già oggi, comunque, quasi tutto il business locale viene generato attraverso il canale”.

 

Tag: big data, data lake, gestione dati, data fabric, talend, data preparation

BIG DATA

  • Tableau, il brand che resiste e rilancia sull’innovazione
  • Olidata torna in Borsa e si rilancia come system integrator
  • Cloud, AI e Big Data: aziende italiane lontane dai traguardi europei
  • SQream e Hitachi Vantara insieme per AI/ML e Big Data
  • Fra analytics e alfabetizzazione sui dati, la roadmap di Qlik

FOCUS

  • Oracle rilancia su database, AI generativa e alleanze in cloud
  • SAP Business Technology Platform, base per l’innovazione di Man-Agent
  • Per CdLan è tempo di crescere, anche cercando partner
  • Pure Storage apre nuove frontiere per l’uso dell'all-flash
  • La tecnologia Outbrain per accrescere l’attenzione del pubblico Web
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Cybercrimine e aziende, la lotta si gioca anche sul tempo
Tecnologia e consulenza, il binomio di Ibm per far attecchire l’AI
Cybersicurezza nelle medie imprese: cinque consigli di strategia
L’AI generativa è un’opportunità imperdibile per il canale
Oracle inizia il nuovo anno fiscale con ricavi in crescita del 9%
I vantaggi e i limiti dell’intelligenza artificiale nelle risorse umane
L’idea di ibrido passa anche per la modernizzazione dei mainframe
Chip per l’intelligenza artificiale, mercato raddoppiato in quattro anni
Netalia e GetSolution si alleano per allineare cloud e cybersecurity
Analytics, MicroStrategy One sbarca sul marketplace di Azure
Olidata alla ricerca di talenti nel campo dei Big Data e dell’AI
Intelligenza artificiale, Alibaba non mollerà la presa
Man-Agent innesta nel cloud la gestione delle provvigioni
Con l’immutabilità dei dati l’azienda protegge il bene più prezioso
Wi-Fi veloce e gestito in cloud con gli access point di Sophos
Il Sase di Fortinet raggiunge le microfiliali e gli oggetti connessi
Intelligenza artificiale “in loco” a costi ridotti con Lenovo ThinkEdge
Una SD-Wan gestita per ridurre i costi e raddoppiare la capacità
Mappatura processi aziendali, Sap si prepara ad acquisire LeanIX
L’intelligenza artificiale nell’edge è anche in forma di servizio
Cybersicurezza, solo il 44% delle Pmi europee aumenterà il budget
Hwg-Sababa, managed security e governance in soluzione unica
Paessler acquisisce Itps Group per potenziare il monitoraggio
I chatbot si preparano a invadere i social, con Meta AI e "personaggi"
I servizi di cloud computing di Akamai trovano casa a Milano
Riverbed aiuta a misurare e ridurre i consumi degli endpoint
Ibm semplifica il reporting Esg con il Natural Language Processing
ChatGPT fa un altro salto: ora sa anche ascoltare, vedere e parlare
Con Mexedia On, l’AI si costruisce un mattoncino alla volta
Amazon investe 4 miliardi di dollari in Antrophic e nel suo Claude
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968