
Venerdì 19 settembre 2025 in Australia è emerso un fatto gravissimo: durante un aggiornamento di rete, un guasto tecnico in casa Optus ha impedito a centinaia di utenti di mettersi in contatto con il 000, l’equivalente del nostro 112. Il CEO Stephen Rue ha confermato che circa 600 clienti sono stati “potenzialmente coinvolti” e che tre chiamate d’emergenza riconducibili a famiglie in cui una persona è poi deceduta non sono andate a buon fine. Le aree impattate: South Australia, Northern Territory e Western Australia. L’azienda ha chiesto scusa e ha dichiarato di aver risolto l’anomalia, avviando un’indagine interna e offrendo piena collaborazione alle autorità.
Secondo diverse ricostruzioni giornalistiche, l’interruzione si è verificata durante un aggiornamento effettuato giovedì (ora locale), con effetti circoscritti alle chiamate verso il 000: il traffico voce “normale” risultava altrimenti funzionante. La dinamica è stata ribadita in più passaggi dal management di Optus e ripresa da varie testate nazionali.
Per dare il contesto: non è la prima volta che Optus inciampa sulla continuità del servizio d’emergenza. Nel grande blackout dell’8 novembre 2023, l’ACMA (l’Autorità australiana per le comunicazioni) ha accertato che oltre 2.100 chiamate al 000 non erano state completate, comminando a novembre 2024 una sanzione record da 12 milioni di dollari australiani. Quei fatti hanno già innescato una revisione normativa sul funzionamento e la resilienza dell’ecosistema 000, compreso il tema del reindirizzamento su altre reti in caso di problemi.
Il punto critico, anche alla luce di quanto successo stavolta, è il “perché” sia fallito proprio il percorso di emergenza. Nella catena che porta una chiamata mobile al 000 intervengono più elementi: la rete d’accesso e di core dell’operatore dell’utente, i meccanismi di instradamento verso l’“Emergency Call Person” (in Australia il ruolo è storicamente svolto da Telstra) e le regole di fallback/roaming d’emergenza disegnate dai regolatori. Se un aggiornamento di rete blocca il ramo che instrada le chiamate d’emergenza (per esempio a livello IMS/VoLTE o di segnalazione), ma non lo fa per le chiamate ordinarie, siamo davanti a una vulnerabilità architetturale che non dovrebbe esistere in un servizio “safety critical”. Le prime cronache convergono proprio su questa anomalia mirata al 000, in attesa di un rapporto tecnico completo da Optus e dalle autorità. (Questa è un’analisi tecnica alla luce delle informazioni disponibili; i dettagli definitivi arriveranno con l’indagine ufficiale).
L’impatto umano, purtroppo, è quello che più pesa: tre decessi collegati a chiamate d’emergenza fallite. Le autorità e la stampa locale hanno riportato che due dei casi sono avvenuti in South Australia e uno in Western Australia. Optus ha promesso “piena trasparenza” e un’indagine approfondita; il caso, per natura, è destinato a finire sotto la lente dell’ACMA e, ragionevolmente, anche del governo federale.
Sul fronte regolatorio, ricordiamo che già nel 2024 il governo aveva chiesto un rafforzamento delle norme sul 000, compresa la capacità di accedere ai servizi d’emergenza da reti alternative durante un blackout o un fault di un singolo operatore (“emergency roaming” per le chiamate al 000). È un passaggio che, se pienamente implementato e testato end-to-end, riduce drasticamente la probabilità che il guasto di una rete precluda l’accesso all’emergenza. In parallelo, l’ACMA ha continuato a vigilare sull’intero settore: non solo Optus, ma anche Telstra (sanzione da 3 milioni di AUD per una discontinuità del servizio di relay del 000) e TPG sono finite sotto osservazione per diversi aspetti legati alle regole del 000.
Se allarghiamo l’obiettivo, l’Australia sta vivendo un passaggio infrastrutturale delicato: lo switch-off del 3G e la migrazione massiva del traffico voce su VoLTE e IMS rendono l’affidabilità dei flussi d’emergenza ancora più dipendente dal core IP e dai percorsi di segnalazione. Il white paper pubblicato a giugno 2025 dalla NECWG-A (gruppo di lavoro sulle comunicazioni d’emergenza) sottolinea proprio il tema della resilienza end-to-end e del rischio sistemico connesso a guasti, attacchi e blackout. In questo scenario, la separazione logica dei percorsi di emergenza, i test frequenti di failover inter-operatore e sistemi di monitoraggio proattivo diventano imprescindibili.
Cosa aspettarsi adesso
Optus ha detto di aver già risolto il problema e di star collaborando con le autorità per far luce sull’accaduto. In casi come questo è plausibile una doppia traccia: un’indagine interna per individuare esattamente il punto di failure (release software, finestra di upgrade, change management) e, in parallelo, verifiche dell’ACMA con possibili prescrizioni correttive e—se verranno riscontrate violazioni delle regole del 000—sanzioni. A livello politico, è realistico che torni al centro l’implementazione del reindirizzamento su rete alternativa per le chiamate al 000 e la richiesta di “prove di vita” periodiche dei percorsi d’emergenza.
Il mio punto di vista
Per un servizio critico come il 000, l’obiettivo non può limitarsi al “five nines” tradizionale. Serve un modello in cui il percorso d’emergenza sia disaccoppiato dai cicli di change della rete commerciale e testato in modo continuo, con “synthetic calls” e telemetria dedicata, oltre a un fallback inter-operatore automatizzato che non dipenda da procedure manuali o da filtri lato cliente. In altre parole: considerare il 000 come una “network slice” di massima priorità, con regole di change freeze e un piano di rollback lampo, e soprattutto con un design for failure che presuppone che il guasto, prima o poi, capiti. L’infrastruttura australiana ha già gli strumenti normativi per farlo; ora serve la loro applicazione coerente e verificabile lungo tutta la filiera—operatori mobili, ECP, e centrali d’emergenza. (Opinione dell’autore, su base delle fonti citate sopra).