11/05/2026 di Redazione

AI in azienda: il 78% gestisce internamente l’inferenza

Il report F5 2026 mostra come l’AI sia diventata un workload operativo core: il 78% delle aziende gestisce internamente l’inferenza AI.

F5_AIeInferenza.png

F5, azienda specializzata in servizi applicativi, sicurezza informatica e tecnologie di networking, con sede a Seattle, ha appena rilasciato il suo report intitolato State of Application Strategy Report 2026 che mostra in che modo il mercato sta progressivamente integrando l’uso dell’intelligenza artificiale nel suo quotidiano.

Il dato che sintetizza meglio questa evoluzione è probabilmente uno: il 78% delle aziende gestisce oggi internamente l’inferenza AI, segnale evidente del fatto che le imprese vogliono mantenere controllo diretto su modelli, dati, performance e governance e che hanno iniziato a trattare l’AI con lo stesso livello di criticità riservato alle applicazioni mission-critical.

L’inferenza diventa il vero cuore dell’AI enterprise

Quando gli LLM si sono affacciati sul mercato, si faceva un gran parlare soprattutto sul loro training e sulla loro versatilità. Oggi, invece, la discussione si è spostata su come gestire la loro esecuzione continua all’interno dei processi aziendali. Questo è un salto notevole in termini di maturità perché adesso le aziende sono disposte a usare modelli meno “complessi e performanti” sullo spettro più ampio, ma più facilmente governabili e meno inclini alle allucinazioni.

Inoltre, secondo il report, il 77% delle organizzazioni indica l’inferenza come principale attività AI, superando sviluppo e training dei modelli. È un cambiamento importante perché implica una ridefinizione completa delle priorità infrastrutturali. L’inferenza rappresenta infatti il momento in cui il modello viene realmente utilizzato per generare output, prendere decisioni, supportare processi o interagire con utenti e applicazioni. Significa che l’AI non vive più nei laboratori di ricerca o nei sandbox environment, ma direttamente nelle operations quotidiane.

Le aziende coordinate da F5 dichiarano inoltre di gestire in media sette modelli AI differenti contemporaneamente in produzione, un dato che evidenzia quanto l’ecosistema enterprise stia diventando rapidamente multi-modello e distribuito.

Controllo e governance spingono l’AI on-premise

Uno dei dati più interessanti del report riguarda il progressivo allontanamento da strategie completamente basate su AI pubblica. Solo l’8% delle organizzazioni utilizza esclusivamente servizi AI pubblici in modalità AI-as-a-Service. Tutte le altre stanno costruendo architetture ibride, con modelli distribuiti tra cloud pubblici, ambienti privati e infrastrutture on-premise.

Dietro questa scelta, ovviamente, ci sono soprattutto esigenze di controllo, sicurezza, compliance e gestione dei costi. L’AI generativa e agentica produce infatti workload molto più pesanti rispetto alle applicazioni tradizionali. Inoltre, il valore strategico dei dati utilizzati dai modelli rende sempre più delicato affidare completamente elaborazione e inferenza a provider esterni. Il report evidenzia come le organizzazioni stiano adottando portafogli AI estremamente diversificati, nei quali differenti modelli vengono utilizzati a seconda di accuratezza, costi operativi, disponibilità o tipologia di workload. Questo porta alla necessità di implementare meccanismi avanzati di routing, fallback e orchestrazione tra ambienti differenti.

Inoltre, la crescita dell’AI sta accelerando ulteriormente una tendenza già consolidata: la frammentazione infrastrutturale. Secondo F5, il 93% delle aziende utilizza ambienti multicloud, mentre l’86% distribuisce applicazioni tra data center interni, cloud pubblici e colocation. L’intelligenza artificiale amplifica questa complessità perché i workload AI hanno caratteristiche molto diverse rispetto alle applicazioni enterprise tradizionali. Alcuni modelli richiedono GPU locali per motivi di latenza o compliance, altri vengono eseguiti in cloud pubblici per scalabilità o elasticità. Ne deriva un ecosistema estremamente eterogeneo, in cui delivery, sicurezza e governance devono operare in modo coerente attraverso ambienti differenti. Secondo F5, proprio questa capacità di orchestrazione trasversale rappresenta oggi uno dei principali fattori competitivi per le aziende che vogliono utilizzare l’AI su larga scala.

La sicurezza AI diventa una priorità enterprise

Con il passaggio dell’AI alla produzione, cambiano anche le priorità della cybersecurity. Il report evidenzia che l’88% delle organizzazioni ha già affrontato problematiche di sicurezza legate all’AI, dato che conferma come i modelli generativi e agentici stiano introducendo nuove superfici di attacco.

Ma il dato forse ancora più significativo riguarda l’AI agentica: il 98% delle aziende dichiara di prepararsi a gestire sistemi AI autonomi, capaci cioè di prendere decisioni, interagire con applicazioni e operare quasi come utenti digitali. Questo cambia radicalmente il concetto stesso di sicurezza applicativa.

Secondo F5, il nuovo perimetro di protezione non si limita più all’infrastruttura o alle API, ma si sposta verso prompt,token, identità, policy di accesso, guardrail comportamentali. I modelli AI diventano quindi entità operative che richiedono autenticazione, controllo privilegi e governance continua.

Prompt e token diventano il nuovo layer di controllo

Uno degli aspetti più interessanti emersi dal report riguarda il ruolo crescente dei cosiddetti prompt layer e token layer. Il 29% delle organizzazioni considera ormai i prompt uno dei principali meccanismi di delivery dell’AI, mentre il 23% individua nei token il punto centrale per sicurezza e orchestrazione. È un cambio di prospettiva importante. Per anni l’attenzione si è concentrata sull’infrastruttura fisica o virtuale, mentre oggi il vero punto di controllo si sta spostando verso l’interazione tra utenti, applicazioni e modelli.

I prompt diventano elementi critici perché determinano comportamento, accesso ai dati e qualità delle risposte generate. I token, invece, rappresentano il meccanismo attraverso cui vengono gestiti autenticazione, sessioni, autorizzazioni e consumo dei modelli. Secondo F5, le aziende che riusciranno a governare efficacemente questi layer avranno un vantaggio competitivo significativo rispetto a chi continuerà a concentrarsi esclusivamente sull’infrastruttura.

scopri altri contenuti su

ARTICOLI CORRELATI