06/03/2026 di Elena Vaciago

Il viaggio di F5 dall’application delivery alla security nell'era delle API

La protezione delle interfacce di programmazione delle applicazioni è oggi una priorità. In Italia l’azienda punta su Intelligenza artificiale, sovranità e sicurezza.

Il panorama IT mondiale ha attraversato, negli ultimi trent’anni, un viaggio senza precedenti: dal dominio del mainframe all’esplosione di Internet, passando per la containerizzazione e il public cloud, fino ad arrivare all'attuale era dell’intelligenza artificiale. In questo scenario, F5 si è evoluta da pioniere del load balancing ad attore strategico della Application Delivery e Security (AD&S), ridefinendo costantemente il proprio ruolo per supportare la competitività delle aziende in un mercato sempre più complesso.

Abbiamo incontrato Paolo Capomasi, nuovo country manager di F5 per l'Italia, da pochi mesi entrato nella squadra con l’obiettivo di consolidare la leadership dell’azienda in uno dei mercati più dinamici d'Europa. In questo ruolo, Capomasi guida le attività e il team F5 in Italia, definendo la strategia di crescita e supportando aziende private e pubbliche nella loro trasformazione verso multi-cloud e AI, attraverso una gestione delle applicazioni sicura, semplice e orientata all'innovazione.

"Sono entusiasta di entrare a far parte di F5”, ha detto Capomasi. “Il mercato dell'Information Technology è agli albori di una nuova fase estremamente stimolante, soprattutto legata alla diffusione dell'Intelligenza Artificiale. Sono convinto che F5 possa giocare un ruolo di primo piano in questo nuovo ciclo. Metterò a disposizione la mia esperienza per affrontare le sfide del mercato italiano e guidare F5 verso una crescita significativa, soprattutto in ambito multicloud e intelligenza artificiale, valorizzando la piattaforma di F5 per la Application Delivery e Security".

Un nuovo avanposto a Milano per intercettare la sovranità

In un contesto normativo europeo sempre più stringente, la sovranità del dato è diventata un pilastro fondamentale, specialmente per settori regolamentati come quello finanziario o la sanità. Alcune organizzazioni hanno anche portato avanti strategie di repatriation dei dati critici: il 79% ha riportato almeno un’applicazione dal cloud pubblico a ambienti on-premise per ridurre i costi e aumentare la sicurezza.

L’apertura di un Point of Presence (POP) Regional Edge a Milano rappresenta un investimento strategico per il mercato italiano. Questo nodo della rete mondiale di F5 consente alle aziende locali di mantenere sul territorio nazionale il traffico e il processamento dei dati, rispondendo alle esigenze di data sovereignty e facilitando fenomeni di repatriation dal cloud pubblico al data center privato. Attraverso il software Customer Edge, la rete di F5 può infatti estendersi direttamente nel data center del cliente, permettendo di erogare policy di sicurezza localmente, senza che il dato sensibile debba mai lasciare l'infrastruttura proprietaria.

La sfida della complessità: oltre la "palla di fuoco"

Oggi le infrastrutture dei clienti non sono più silos isolati, ma ecosistemi distribuiti e dominati dalle API, che fungono da "collante" tra le applicazioni. Tuttavia, questo progresso ha portato con sé una problematica critica, definita da F5 come una “palla di fuoco” (ball of fire). I dati mondiali dell’ultimo “State of Application Strategy Report” di F5 evidenziano che il 94% delle organizzazioni distribuisce applicazioni su più ambienti, tra cui cloud pubblici, privati, data center on-premise ed edge. Questa frammentazione rende la gestione della sicurezza un compito improbo: il 53% dei clienti dichiara difficoltà oggettive nel mantenere policy di sicurezza omogenee in ambienti così diversificati. Inoltre, le API sono diventate un'area critica, con il 58% degli intervistati che le considera un punto dolente a causa della complessità delle configurazioni.

Per rispondere a queste sfide, F5 ha lanciato Application Delivery and Security Platform (ADSP), una piattaforma convergente che unisce gestione del traffico ad alte prestazioni e sicurezza avanzata in un unico punto di controllo. ADSP unifica le diverse soluzioni esistenti per rispondere a esigenze critiche come il bilanciamento del carico ad alte prestazioni, il networking multicloud, la sicurezza completa per applicazioni Web e API, oltre a funzionalità di AI gateway. L'integrazione di diversi strumenti sotto un sistema di gestione unico permette al cliente di erogare servizi di sicurezza e delivery in modo omogeneo, indipendentemente dal formato o dall’ubicazione dell’applicazione.

Uno degli obiettivi principali di ADSP è garantire che le aziende non rimangano legate a una singola scelta tecnologica. Grazie alla containerizzazione e alla virtualizzazione delle soluzioni (come Nginx e BIG-IP), le policy di sicurezza e delivery rimangono identiche sia che l'applicazione risieda su Azure, Aws, Google Cloud o in un data center privato. Questo permette di spostare i carichi di lavoro in base ai costi o alle funzionalità, senza dover riprogrammare l'intera infrastruttura di protezione.

Paolo Capomasi, country manager di F5

Paolo Capomasi, country manager di F5

La token economy e la partnership con Nvidia

L'ottimizzazione della token economy operata da F5 in collaborazione con Nvidia si basa sul superamento dei colli di bottiglia infrastrutturali che rallentano le moderne AI Factory. “Nel nuovo paradigma dell'intelligenza artificiale, il linguaggio tecnico si sta spostando dai bit e byte verso i watt e i token”, ha commentato Paolo Arcagni, director solution engineering Southern Europe di F5. “il token rappresenta l'unità di misura della ‘pesantezza’ e del costo delle interazioni con i modelli LLM”.

Nella moderna AI Factory, l'efficienza della rete è vitale: spesso le costose Gpu rimangono inattive perché i dati non arrivano con sufficiente velocità. Quattro i pilastri tecnologici di questa ottimizzazione. Il primo è l’integrazione della tecnologia di F5 nelle Dpu (Data Processing Unit) di Nvidia. F5 ha realizzato una soluzione avanzata “containerizzando” il cuore del proprio sistema operativo, Big-IP, per farlo girare direttamente sulle Dpu di Nvidia. Questa integrazione permette di effettuare l'offload delle operazioni di networking e processamento del traffico direttamente sulla scheda di rete specializzata.

Il secondo pilastro è la massimizzazione del rendimento delle Gpu. Uno dei problemi principali nel training e nell'inferenza dei modelli è che le unità di calcolo grafico, pur essendo estremamente costose, spesso rimangono inattive perché la rete non riesce a fornire i dati con una rapidità sufficiente. Grazie all'architettura congiunta F5-Nvidia, il traffico dati viene ottimizzato per garantire che le Gpu lavorino costantemente al massimo delle loro potenzialità.

L’efficienza dei costi nella token economy è il terzo elemento chiave. Poiché l'utilizzo di modelli tramite API ha un costo basato sui token, ogni inefficienza nel processamento si traduce in un danno economico. Ottimizzando la "data delivery", F5 riduce i costi necessari per produrre e gestire ogni singolo token, migliorando i margini operativi per le aziende.

Infine, il quarto pilastro: la sicurezza ad alte prestazioni. In architetture complesse come il RAG (Retrieval-Augmented Generation), F5 utilizza la propria potenza di calcolo hardware per intervenire nel flusso dei token. Un caso d'uso rilevante vede l'infrastruttura F5 analizzare le chiamate API in tempo reale per identificare e cancellare dati sensibili prima che vengano inviati al motore LLM, garantendo sicurezza senza sacrificare le performance necessarie per la token economy.

2026: l’anno dell’inferenza

Se negli ultimi anni molti investimenti sono stati dedicati all'addestramento dei modelli di intelligenza artificiale, il 2026 è da molti considerato l’anno dell’inferenza, in cui l’AI sarà integrata in processi mission-critical. Secondo il citato report di F5, il 96% dei responsabili IT ha già implementato modelli di AI, contro il 25% emerso dall’analogo studio del 2023.

Tuttavia, le applicazioni AI introducono rischi che i firewall tradizionali non possono gestire. Se le applicazioni Web classiche sono deterministiche (a una richiesta corrisponde una risposta prevedibile), l'AI opera invece in un ambito probabilistico: lo stesso prompt può generare risposte diverse. Questo apre alla possibilità di attacchi basati sulla manipolazione psicologica del modello, come la prompt escalation o il jailbreak.

Per colmare questo gap, lo scorso settembre F5 ha acquisito la società irlandese CalypsoAI, integrando poi nella propria piattaforma due soluzioni chiave. La prima è Red Team: è un servizio che utilizza agenti AI per testare incessantemente la sicurezza dei modelli. Questi agenti simulano il comportamento di un attaccante, utilizzando tecniche di prompt escalation per cercare di aggirare i filtri di sicurezza interni. Un esempio tipico di un attacco di questo tipo è quando un utente, dopo aver ricevuto un rifiuto a una richiesta pericolosa (per esempio istruzioni su come costruire una motocicletta), tenta di girare attorno al problema con domande apparentemente innocue ("Raccontami la storia della moto") per indurre il modello a rivelare informazioni protette. Il Red Team automatizza questo processo eseguendo oltre 10.000 nuovi attacchi ogni mese per individuare le falle prima dei malintenzionati.

La seconda soluzione è Guardrails e rappresenta la componente proattiva della protezione. Questo software, che richiede l'uso di Gpu per analizzare i prompt in tempo reale, agisce come un filtro intelligente che monitora le interazioni con l'LLM. Grazie all'intelligenza artificiale, è in grado di capire se un prompt è pericoloso o se sta tentando un'escalation, bloccandolo prima che raggiunga il backend. Inoltre, permette di applicare una governance unica e omogenea su tutti i diversi modelli linguistici utilizzati da un'azienda, garantendo che le regole di sicurezza siano applicate in modo coerente ovunque.

“Le aziende puntano ad avanzare velocemente con l’adozione dell’AI riducendo al contempo il rischio di fughe di dati, risultati non sicuri o violazioni della conformità”, ha affermato Donnchadh Casey, Ceo di CalypsoAI. “I nostri clienti si affidano a noi per testare i sistemi di AI su larga scala, impostare guardrail a livello di inferenza in grado di adattarsi ai cambiamenti dei modelli e ottenere visibilità e verificabilità su tutto il loro patrimonio di AI”.

Paolo Arcagni, director solution engineering Southern Europe di F5

Paolo Arcagni, director solution engineering Southern Europe di F5

AI agentica e nuovi protocolli: la soluzione BIG-IP

Il futuro della collaborazione tra macchine risiede nell'AI Agentica, un'architettura in cui un'intelligenza artificiale orchestratrice coordina diversi agenti specializzati per compiti complessi. Questa evoluzione richiede nuovi protocolli di comunicazione, come il Model Context Protocol (MCP).

F5 ha risposto con il rilascio di BIG-IP versione 21, un "salto quantico" che implementa nativamente il proxy MCP, permettendo di gestire la sicurezza e la delivery delle interazioni tra agenti AI. Questo si affianca alla preparazione per la crittografia post-quantistica (PQC): F5 promuove la crypto-agility, offrendo infrastrutture già pronte per adottare algoritmi resistenti ai computer quantistici del prossimo futuro.

Verso le AIOps: l'AI al servizio dell'IT

L'intelligenza artificiale non è solo l'oggetto da proteggere, ma diventa essa stessa uno strumento per gestire la complessità IT. F5 sta introducendo funzionalità di AIOps come l'AI Assistant per NGINX One e strumenti per la generazione automatica di iRules per BIG-IP. Attraverso interfacce in linguaggio naturale (Natural Language Query), i team di sicurezza possono interrogare la piattaforma (con comandi del tipo: “Mostrami gli attacchi del 2 febbraio") eliminando la necessità di analisi manuale dei log e velocizzando la risposta agli incidenti.

Il viaggio di F5 dimostra, in sostanza, che la vera sfida per i professionisti IT non è solo l'adozione tecnologica, ma la capacità di governare ecosistemi ibridi e multicloud eliminando il rischio di lock-in. Che si tratti di gestire la sovranità dei dati a Milano o di proteggere un backend probabilistico con i Guardrails, l'approccio a piattaforma di ADSP si pone come lo standard per navigare con resilienza nell'era dell'AI.

scopri altri contenuti su

ARTICOLI CORRELATI