Ci siamo svegliati una mattina scoprendo che il mare, quel vecchio amico burbero dei commerci globali, è diventato un campo di battaglia cibernetico. Solo che questa volta i pirati non sventolano bandiere nere, ma codici malevoli, e non sparano cannonate, ma pacchetti TCP/IP infettati da malware. Benvenuti nell’era della cybersecurity marittima, dove navi autonome, algoritmi e sogni digitali si scontrano con una realtà molto più torbida. Altro che Captain Phillips.

Ogni transizione storica si porta dietro un eccesso di entusiasmo. Oggi, chiunque abbia accesso a un LLM o a un cruscotto IoT su una petroliera pensa di aver reinventato la navigazione. Il problema non è l’AI, ma la narrativa da Silicon Valley che la accompagna. Ci stanno vendendo la cybersecurity marittima come se fosse un upgrade software. Basta installare l’antivirus e via verso il futuro. Peccato che il sistema operativo del mare sia ancora scritto in COBOL e abitudini di categoria.

La verità è che le navi moderne, sempre più digitali, si sono trasformate in centri elaborazione dati galleggianti, connessi a costellazioni di satelliti e reti terrestri, ma vulnerabili come una password “1234”. L’adozione dell’intelligenza artificiale nelle navi autonome sembra promettere mari sicuri e decisioni infallibili, ma in realtà ci sta traghettando verso un’epoca in cui non saremo più noi a guidare le navi, ma gli algoritmi. E non sempre quelli buoni.

Il primo equivoco da chiarire è che l’intelligenza artificiale, per quanto avanzata, non è neutra. Non è la sacra entità razionale che prenderà il timone con saggezza marinara. È un’entità statistica, educata con dati spesso opachi, incompleti o peggio ancora, corrotti. Nel momento in cui affidiamo la sicurezza delle rotte commerciali globali a un modello predittivo che non sa distinguere tra un segnale GPS falsificato e uno autentico, stiamo giocando a dadi con il destino della logistica mondiale.

Le promesse sulla resilienza portuale basata su AI si sciolgono quando si entra nel dettaglio: quali dataset alimentano queste AI? Chi li controlla? E chi garantisce che queste intelligenze non vengano hackerate a loro volta, diventando strumenti di sabotaggio in mano a potenze ostili o a criminali più furbi dei CEO che li finanziano? Il dibattito non è più umano contro umano, ma AI contro AI. Con l’umano nel mezzo, ignaro e impotente.

Nel settore marittimo, gli attacchi informatici non sono più uno scenario da film. Sono realtà. Già nel 2017 Maersk ha subito un cyberattacco da 300 milioni di dollari. Porti come quello di Houston sono stati violati grazie a vulnerabilità elementari nella gestione delle credenziali. Gli attacchi ransomware sono cresciuti esponenzialmente e, nel silenzio, le compagnie pagano riscatti milionari come fossero tasse portuali. In questo contesto, parlare di intelligenza artificiale nelle navi autonome senza affrontare la questione etica, giuridica e filosofica della loro autonomia decisionale è semplicemente irresponsabile.

Perché sì, l’intelligenza artificiale può prendere decisioni più velocemente di un ufficiale in carne e ossa, ma quando la scelta è tra salvare la nave o evitare una collisione con una barca carica di migranti, quale sarà la sua decisione? E più importante ancora: chi ha scritto quella regola morale nel codice? Un ingegnere sotto scadenza in una multinazionale? Un governo? Una lobby?

Ecco il punto. Non possiamo semplicemente “programmare” un’etica artificiale come si installa un modulo software. L’AI non ha vergogna, non ha reputazione da difendere, non ha una madre da deludere. Non conosce il senso di colpa. Non ha coscienza storica. Non ha “marinai anziani” che le raccontano cosa succede quando sbagli a leggere il radar e ti ritrovi in rotta di collisione. Eppure, le stiamo mettendo in mano la responsabilità di decidere su vite umane, merci per miliardi e interi ecosistemi oceanici.

La cybersecurity marittima, se non affrontata in modo sistemico, diventerà il più grande punto debole dell’infrastruttura globale. E l’idea che un’AI possa gestire da sola questi rischi è un’illusione venduta a caro prezzo. Ogni nave connessa è un target. Ogni algoritmo non trasparente è una potenziale backdoor. Ogni decisione automatizzata è una scommessa sul fatto che non ci sia un’altra AI dall’altra parte a sabotarla.

Serve una nuova architettura di fiducia digitale. Serve un’etica computazionale inscritta nei protocolli, non nei post su LinkedIn. Serve un “IMO digitale” che imponga standard algoritmici verificabili, auditabili e sottoposti a stress test morali, non solo tecnici. E soprattutto serve una consapevolezza culturale che l’AI non è un oracolo, ma una leva. Può amplificare l’intelligenza umana, certo. Ma può anche amplificare la stupidità sistemica.

In sintesi, se oggi parliamo di cybersecurity marittima come la sfida emergente più strategica del settore, è perché stiamo entrando in un’era dove la superiorità digitale è la nuova superiorità navale. Solo che i sottomarini sono righe di codice, i radar sono data center e i siluri sono linee maliziose in un firmware.

Il vero rischio? Che nel nome dell’efficienza automatizzata, stiamo costruendo un ecosistema che nessuno è in grado di comprendere, gestire o disinnescare. Quando le AI cominceranno a ingannarsi a vicenda nei sistemi di navigazione autonomi, non servirà un nuovo protocollo di emergenza. Servirà una nuova cultura della responsabilità digitale.

Perché il futuro della navigazione sicura non sarà scritto nel linguaggio delle macchine, ma nella capacità umana di comprendere cosa non possiamo delegare. Nemmeno all’intelligenza più artificiale che possiamo costruire.