
Telco AI 2025, il momento della verità
Chi lavora nelle telecomunicazioni lo sente nell’aria: l’intelligenza artificiale non è più un optional da laboratorio, ma il nuovo manuale operativo del settore. L’ultima edizione del Telco AI Market Pulse lo dice senza mezzi termini: dalle sale C-level alle centrali radio, ogni discussione strategica parte dal presupposto che “AI is the playbook”.
Negli ultimi due anni gli operatori hanno riempito l’agenda di proof-of-concept — soprattutto sull’assistenza clienti e sull’ottimizzazione di rete — ma ora il vero nodo è industrializzare ciò che funziona. In cifre, Analysys Mason stima che fra il 2023 e il 2027 i carrier spenderanno 9,2 miliardi di dollari in infrastrutture AI per l’efficienza interna e 21,6 miliardi per i casi d’uso rivolti al mercato, mentre un forecast separato prevede 17 miliardi di dollari già entro la fine del 2025 .
Dalle reti per l’AI all’AI per le reti
Tim Hatt (GSMA Intelligence) ricorda che oltre il 90 per cento degli operatori è già “in produzione o in trial” con l’intelligenza artificiale, concentrandosi su customer experience, nuovi ricavi e pianificazione di rete. Ma il baricentro si sposta: non si tratta più solo di usare modelli predittivi per ridurre l’OPEX, bensì di trasformare la stessa rete in piattaforma di inferenza — un tessuto distribuito che esegue modelli vicino all’utente, garantendo latenza ridotta e sovranità del dato.
Questa inversione di prospettiva apre un ventaglio di scenari: applicazioni B2B collegate ai digital twin urbani, analytics in real-time per i veicoli connessi, persino servizi SaaS erogati dal bordo rete. In pratica, si passa dal tradizionale modello “connettività + traffico” a “connettività + capacità di calcolo on-demand”.
Tre anime: predittiva, generativa, agentica
AI predittiva per l’efficienza (fault management, energy saving), AI generativa per semplificare l’interfaccia uomo-rete (assistenti per tecnici, chatbot per clienti) e AI agentica per chiudere il loop decisionale, cioè processi che rilevano l’anomalia, elaborano la risposta e la mettono in atto senza passaggi manuali.
L’esperienza di Red Hat conferma che questi livelli non sono lineari ma intersecati: spesso si inizia con predittivo per poi “accendere” capacità generative sulla stessa pipeline dati, mantenendo il controllo in locale per ragioni di sicurezza.
Il grande tema GPU-as-a-Service
Quando si parla di edge-inference la domanda che scotta è: chi paga le GPU? Alex Choi (AI-RAN Alliance) prevede un’architettura ibrida CPU + GPU, indispensabile nelle aree urbane a forte densità e traffico variabile. SoftBank e altri 75 membri dell’alleanza stanno spingendo questa visione anche sul piano della standardizzazione .
Sul fronte business, SK Telecom ha appena vinto un bando governativo per affittare capacità GPU a terzi, un esperimento che ufficializza il modello GPU-as-a-Service come nuovo filone di ricavi . Dal canto suo, SoftBank dimostra al Mobile World Congress come integrerà Nokia e Nvidia per scaricare il Layer 1 su SmartNIC e riservare la GPU all’inferenza AI . In mezzo arriva l’avvertimento di Fujitsu: monetizzare la capacità in eccesso è l’assicurazione sul capitale immobilizzato, ma solo se l’orchestrazione garantisce che il traffico RAN resti sempre prioritario.
Cultura, change management, fiducia
Sandro Tavares (Dell) paragona l’operazione a cambiare le ruote di un’auto in corsa: ogni innovazione va integrata senza fermare il network, altrimenti il rischio di blackout invalida il ROI. In pratica, AIops, CI/CD e DevSecOps devono diventare pane quotidiano, sostenuti da programmi di formazione massiva e da una governance dei dati che bilanci valore e privacy.

6G nascerà AI-native
Guardando oltre il 5G-Advanced, 6G metterà l’intelligenza al centro della definizione stessa di rete. 3GPP e O-RAN Alliance stanno già lavorando a una data plane dedicata ai modelli, a dataset sintetici federati e a criteri energetici rigorosi. Il tema energia, infatti, è doppio: l’AI può ridurre i consumi di rete, ma i suoi modelli affamati di calcolo rischiano di vanificare il guadagno se non ottimizzati.
Un pensiero personale
Nel panorama europeo noto due velocità: da un lato grandi gruppi — Telefónica, Deutsche Telekom — che abbracciano il modello “tech-co”, dall’altro operatori medio-piccoli che restano cauti per budget e competenze. Se l’UE non vuole replicare la frammentazione vista nel 4G, dovrà sostenere incentivi mirati a piattaforme aperte, evitando lock-in proprietari e promuovendo l’interoperabilità come fa Gaia-X sui dati. Solo così possiamo convertire l’hype in vantaggio competitivo duraturo.
Il 2025 si candida a spartiacque: chi riuscirà a trasformare la rete in un motore cognitivo — con architetture cloud-native, dati orchestrati e una cultura del “continous learning” — andrà oltre la semplice vendita di banda, aprendo la strada al 6G AI-native e a nuovi modelli di business che oggi intravediamo appena