18/11/2024 di redazione

Con gli strumenti di Nutanix, la GenAI può stare al sicuro nel cloud pubblico

La nuova offerta Nutanix Enterprise AI può essere implementata su qualsiasi piattaforma Kubernetes, su cloud pubblico (gestito), nell’edge e on-premise.

Il multicloud ibrido è e resta il modello infrastrutturale di riferimento per Nutanix, in una strategia che si allontana sempre di più da quella scelta dalla concorrente Vmware: coerentemente con questa visione, l’azienda ha annunciato una nuova offerta di soluzioni per l’intelligenza artificiale che può essere ospitata in qualsiasi ambiente, avendo sempre il medesimo funzionamento e le stesse garanzie di sicurezza. Nutanix Enterprise AI può essere implementata su qualsiasi piattaforma Kubernetes, nell’edge o in data center on-premise e anche su cloud pubblico di Aws, Azure e Google Cloud, o meglio nel cloud pubblico gestito per container di Aws Eks, Azure Aks e Google Gke.

Questa nuova offerta è stata progettata per aiutare le aziende a sviluppare, adottare, gestire e scalare le risorse di inferenza per modelli linguistici di grandi dimensioni (LLM), oltre che per distribuire applicazioni di intelligenza artificiale generativa. Un punto di forza è l'integrazione con Nvidia Nim, una serie di microservizi per la GenAI, rivolti agli sviluppatori, e quella con i modelli open-source forniti da Hugging Face.

I principali casi d'uso di questa soluzione riguardano gli strumenti di GenAI per il supporto clienti, la generazione di codice, l’uso di modelli di fine-tuning su dati specifici, il rilevamento delle frodi e delle minacce informatiche, la creazione automatica di policy. Tra gli altri vantaggi, Nutanix sottolinea gli aspetti di sicurezza e privacy, dato che i modelli vengono eseguiti su risorse di calcolo che le aziende controllano direttamente, e vista la presenza di controlli di accesso basati sui ruoli. Volendo, è anche possibile utilizzare per l’implementazione ambienti isolati, air-gapped o dark-site. Non manca una dashboard per la risoluzione dei problemi, l’osservabilità e il monitoraggio delle risorse utilizzate per i modelli.

Nutanix Enterprise AI è un componente di Nutanix GPT-in-a-Box 2.0, un’offerta (certificata per funzionare con prestazioni ottimali sui servizi Nvidia)  che include anche Nutanix Cloud Infrastructure, Nutanix Kubernetes Platform e Nutanix Unified Storage, oltre a una serie di servizi per l'addestramento di modelli e l’inferenza on-premise.  I costi vengono calcolati in base alla risorse di infrastruttura utilizzate, anziché in base ai token o ad altre variabili poco prevedibili.

“Nutanix Enterprise AI permette ai nostri clienti di eseguire le applicazioni GenAI in modo semplice e sicuro, sia on-premise sia su cloud pubblici”, ha commentato Thomas Cornely, senior vice president product management di Nutanix. “Può operare su qualsiasi piattaforma Kubernetes e consente alle applicazioni IA di essere eseguite in un luogo sicuro, con un modello di costo prevedibile”.

“I carichi di lavoro di intelligenza artificiale generativa sono intrinsecamente ibridi, con formazione, personalizzazione e inferenza su cloud pubblici, sistemi on-premise e all'edge”, ha osservato Justin Boitano, vicepresidente di enterprise AI di Nvidia. “L'integrazione di Nvidia NIM in Nutanix Enterprise AI fornisce un modello multicloud coerente con API sicure, permettendo ai clienti di implementare l'intelligenza artificiale in ambienti diversi con le prestazioni e la sicurezza necessarie per le applicazioni business-critical”.

scopri altri contenuti su

ARTICOLI CORRELATI