28/03/2024 di Redazione

L’AI generativa entra nella gestione delle reti di Hpe Aruba

Il costruttore ha deciso di utilizzare Llm proprietari per comprendere meglio i segnali lanciati dalla piattaforma Networking Central e generare risposte più precise.

Hpe Aruba ha deciso di incorporare diversi large language model (Llm), creati dalla propria casa madre, negli strumenti di ricerca inclusi in Networking Central, piattaforma di punta per la gestione e orchestrazione basata su cloud di reti cablate e wireless, capace di coprire campus, filiali e data center. In questo modo, gli strumenti di ricerca basati sull’AI generativa possono fornire ai clienti risposte dettagliate a domande su configurazioni di rete, documentazione e altri problemi relativi alle operazioni It.

Sfruttando questi Llm interni e non disponibili al pubblico, gli strumenti di AIgen hanno accesso a un data lake molto esteso, che include dati di telemetria provenienti da circa quattro milioni di punti di accesso, switch e dispositivi edge gestiti, che supportano un miliardo di dati univoci endpoint del cliente.

Il supporto alla ricerca basato sugli Llm è già disponibile e integrato con AI Search di Aruba Networking Central. La piattaforma, secondo il vendor, sfrutta le funzionalità AI esistenti basate su machine learning per fornire insight più approfonditi, analisi migliori e competenze più proattive. Analizzando circa tre milioni di domande raccolte nel tempo, i team di data science di Hpe Aruba hanno scoperto che gli utenti concentrano le loro richieste su temi di gestione delle configurazioni oppure sulle conseguenze di aggiunte di funzionalità. Anziché consultare manuali o lunghi documenti, ora è l’Ai generativa a fornire risposte specifiche o creare documentazioni dettagliate.

scopri altri contenuti su

ARTICOLI CORRELATI