Fondata nel 1343 per volontà di Papa Clemente VI, l’Università di Pisa è uno degli atenei più antichi d’Europa. Sbocciata soprattutto sotto l’impulso mediceo, grazie all’impegno di Lorenzo il Magnifico alla fine del Quattrocento e poi con il duca Cosimo I, l’università toscana ha avuto fra i suoi più celebri allievi Galileo Galilei: lo scienziato pisano fu infatti studente e poi docente di Matematica dell’ateneo per circa tre anni, dal 1589 al 1592. Oggi il centro universitario conta 50mila iscritti distribuiti in venti dipartimenti, quasi 1.300 docenti e più di 1.500 membri del personale tecnico amministrativo. Tradizione e innovazione animano da sempre l’Università di Pisa e, per riuscire a rispondere alle esigenze di una comunità numerosa e moderna, l’istituto ha voluto ripensare i sistemi informativi, ripensando le infrastrutture a servizio della ricerca e dell’amministrazione.

A fine anni Novanta le strutture del centro furono collegate da una rete proprietaria in fibra ottica. Nel corso del tempo, su questa infrastruttura sono stati poi costruiti alcuni data center minori. Di conseguenza, si è giunti a una frammentazione del patrimonio informativo dell’università. Inoltre, il 90 per cento dei sistemi It dell’ateneo era basato su software open source, rendendo più complessa la manutenzione. Serviva quindi una svolta.

Sotto la guida del professor Antonio Cisternino, delegato del rettore per l’informatica, e del chief technology officer Maurizio Davini, i sistemi informativi dell’università sono stati posti al centro della trasformazione digitale dell’istituto. “Dovevamo consolidare e mettere in sicurezza diversi centri elaborazione dati, distribuiti nelle sedi dei dipartimenti: molti erano basati su tecnologie open source”, ha spiegato Davini.

La scelta è ricaduta quindi sulla creazione di tre silos informativi e tecnologici paralleli, in modo da garantire la massima flessibilità. Alle soluzioni aperte sono stati affidati i sistemi dedicati alla ricerca e sviluppo. Per gli applicativi più critici, invece, il team It si è mosso verso architetture di classe enterprise, che prevedessero contratti di manutenzione, puntando su infrastrutture di virtualizzazione basate anche su tecnologia Vmware. I sistemi di messaggistica e collaborazione, infine, prevedono l’utilizzo di applicazioni Microsoft.

“Il nuovo disegno dell’It d’ateneo parte da una scelta fondamentale, quella per la modernizzazione dei data center. È una scelta che ha visto nella virtualizzazione dei sistemi un tassello fondamentale e che si è basata, per tutti i sistemi server e database più critici, anche su tecnologia Vmware”, ha aggiunto Davini.

L’ateneo ha acquistato un certo numero di server Dell in convenzione Consip, utilizzandoli per costruire le nuove infrastrutture. La componente di integrazione è stata affidata al partner Vmware Assyrus, che ha lavorato in collaborazione con il personale interno, completando il progetto in meno di un mese.

Il nuovo data center definito dal software ha permesso di avviare il consolidamento dei diversi centri di elaborazione dati che l’università aveva distribuito nelle diverse sedi, passando a un un’infrastruttura che a regime avrà quattro sale macchine ben identificate: tre di produzione enterprise e una dedicata alle attività di ricerca e sviluppo. Uno dei nodi è un nuovo data center, collocato fuori città, a dieci chilometri di distanza, in una struttura di proprietà.

Da questo modello il team che gestisce i sistemi promuove la riprogettazione di una serie di servizi, sia dal punto di vista infrastrutturale, con nuove architetture di virtualizzazione e nuovi sistemi di supporto al calcolo per la ricerca, sia dal punto di vista applicativo, per quanto riguarda i software che sono al servizio dei processi amministrativi e tecnici.

“Con Vmware abbiamo costruito un cluster di dodici server, diviso su più siti, e un’infrastruttura di virtualizzazione dello storage basata su vSan”, ha sottolineato Davini. “Abbiamo puntato su sistemi iperconvergenti e questa architettura ci permette di aumentare in misura rilevante l’affidabilità e la disponibilità, sia dal punto di vista della potenza di calcolo, sia per quanto riguarda lo storage. E soprattutto possiamo sfruttare al meglio le risorse disponibili, con la massima flessibilità, offrendo servizi migliori e riducendo i costi”.

Parte integrante del progetto è una soluzione di disaster recovery, con cui si sta realizzando un’infrastruttura per l’affidabilità delle applicazioni. Sarà possibile, ad esempio, eseguire interventi di manutenzione sulla sala macchine senza alcun impatto sull’operatività dei sistemi e degli applicativi. “Possiamo spegnere un data center e mantenere le applicazioni in esecuzione”, ha concluso Davini. La nuova architettura è ormai quasi del tutto operativa, anche se alcune configurazioni dovranno ancora essere ottimizzate e nuovi servizi essere completati.