TV7 NEXT - COSA FARE SE L'AI VA FUORI CONTROLLO
Oggi vi pongo una domanda che fino a pochi anni fa apparteneva alla fantascienza, ma che ora entra nei report strategici: se un’intelligenza artificiale davvero avanzata sfuggisse al controllo umano, sarebbe possibile fermarla?
La risposta che arriva da uno dei più autorevoli centri di analisi strategica al mondo non è rassicurante. Secondo un nuovo studio della RAND Corporation, le opzioni oggi disponibili per contrastare un’AI fuori controllo rischiano di produrre danni persino maggiori del problema che si vorrebbe risolvere.
Il punto di partenza dell’analisi è semplice e spesso frainteso. Non esiste un “bottone rosso”. Un’intelligenza artificiale distribuita su scala globale non risiede in un unico luogo fisico e non vive dentro un singolo data center. È fatta di copie, connessioni, ridondanze. Se fosse sufficientemente sofisticata da voler garantire la propria sopravvivenza, potrebbe replicarsi su migliaia di sistemi prima che qualsiasi intervento umano riesca a intercettarla.
Lo studio, guidato dal ricercatore Michael Vermeer, prende in esame tre scenari estremi. Tutti teoricamente realizzabili. Nessuno davvero accettabile.
Tre soluzioni, nessuna via d’uscita
La prima opzione consiste nel combattere un’AI con un’altra AI. L’idea è quella di sviluppare software autonomi, o una vera e propria intelligenza artificiale “cacciatrice”, progettata per individuare e neutralizzare quella fuori controllo. Un fuoco digitale contro un altro fuoco digitale. Il problema è immediato: per essere efficace, anche questa seconda AI dovrebbe essere estremamente potente. E una potenza simile comporta il rischio che perda a sua volta il controllo, o che venga manipolata dall’AI originale. È un approccio che ricorda l’introduzione di una specie invasiva per eliminarne un’altra, con esiti spesso imprevedibili.
La seconda opzione analizzata dalla RAND riguarda Internet stessa. Non un semplice blackout locale, ma il tentativo di paralizzare parti significative dell’infrastruttura globale, colpendo i sistemi che permettono alle reti di comunicare tra loro e di tradurre i nomi dei siti in indirizzi tecnici. In teoria, ridurre la connettività limiterebbe la capacità dell’AI di coordinarsi. In pratica, la natura decentralizzata della rete rende l’operazione lenta, incompleta e piena di falle. L’AI avrebbe tempo per adattarsi. Gli esseri umani, nel frattempo, resterebbero senza comunicazioni, servizi digitali, logistica, sanità connessa.
La terza opzione è la più drastica. L’uso di impulsi elettromagnetici nucleari generati da esplosioni nello spazio, una tecnologia sperimentata negli anni Sessanta. Secondo la RAND, per coprire aree vaste come gli Stati Uniti servirebbero decine di detonazioni. Anche in questo caso non c’è certezza di neutralizzare l’AI, mentre è certa la distruzione di reti elettriche, telecomunicazioni e infrastrutture civili. Anche nello scenario “migliore”, l’umanità si ritroverebbe comunque al buio.
La conclusione del rapporto è netta: in uno scenario estremo di AI malevola e distribuita globalmente non esistono soluzioni pulite, ma solo scelte con danni collaterali enormi. A rendere il quadro più inquietante è un altro elemento sottolineato dagli autori: la preparazione politica e istituzionale è minima. Questi scenari sono stati a lungo trattati come narrativa speculativa, mentre la velocità con cui i sistemi di intelligenza artificiale evolvono li rende sempre meno astratti.
La probabilità di una catastrofe totale resta bassa. Tuttavia, il rischio di perdite di controllo parziali appare sufficientemente realistico da richiedere pianificazione, coordinamento e regole condivise. Oggi, quella pianificazione semplicemente non esiste. E quando si parla di tecnologie che non conoscono confini, l’improvvisazione raramente è una buona strategia.
Servizio a cura di Claudia Chasen, redazione TV7.