Widgetized Section

Go to Admin » Appearance » Widgets » and move Gabfire Widget: Social into that MastheadOverlay zone

Pensare il Futuro

L’ALTRA EMERGENZA

MARIO AGOSTINELLI - 05/06/2020

armiForse, di fronte all’emergenza pandemia, stiamo dimenticando che il nostro è il tempo in cui tre altre emergenze si presentano purtroppo collegate: quella climatica, di cui ho spesso trattato su questo blog, quella dovuta all’ingiustizia sociale, così presente in tutta la predicazione di Francesco e quella della guerra con armi nucleari, tutt’altro che rimossa dalle grandi potenze, che investono le loro risorse in una perversa corsa al riarmo.

Spesso sottovalutiamo di avere in casa un enorme arsenale di bombe nucleari, perfino a meno di 200 Km da Varese – ad Aviano e Ghedi – e che in ogni istante nel mondo sono poste in stato di allerta permanente almeno 2.000 bombe, 40 volte più potenti di quelle sganciate su Hiroshima, pronte ad essere lanciate in meno di 15 minuti da sommergibili, bombardieri, postazioni mobili. E dimentichiamo che in piena emergenza sanitaria dell’intero pianeta ogni minuto nel mondo si sono continuati a spendere 138.699 dollari per le armi nucleari: 80 miliardi in un anno.

Ma ci conforta l’impressione che questa minaccia sia fuori portata, almeno nella strategia di grandi paesi democratici. Non è affatto così e la china su cui stiamo scivolando deve destare molta più preoccupazione di quanto mostriamo.

Cominciamo col domandarci: perché mai gli USA/NATO elaborano sempre di più nelle loro dottrine rispettive delle strategie complementari, o addirittura alternative alle loro forze di dissuasione? Cioè, perché pensano di doversi preparare a sferrare il “primo attacco nucleare di avvertimento, il famoso “first use” nella dottrina nucleare degli USA e, in prospettiva, un “preemptive automated strategic system based on artificial intelligence”, addirittura “un sistema strategico automatico basato sull’intelligenza artificiale per prevenire attacchi nemici? Un’enormità, a ben pensarci!

Oltre a dimostrare molto chiaramente la scarsa fiducia che questi Stati hanno nella pertinenza e nell’affidabilità delle loro forze di dissuasione, creano uno “stato di diritto” sottratto alla decisione umana, al processo democratico, che sarebbe al contrario istruito da una procedura fatta di algoritmi, sensori, riconoscimenti satellitari, valutazioni delle infrastrutture e modelli di rischio elaborati al computer. In effetti, persino un attacco preventivo pilotato da un’intelligenza artificiale non potrebbe impedire un contrattacco massivo a partire dai sottomarini, finché questi rimarranno invisibili e quindi inattaccabili. Tutto ciò, senza contare il rischio, per nulla trascurabile, di un errore fatale da parte di una “intelligenza artificiale”, come pure il carattere totalmente inaccettabile sul piano umanitario di un qualsiasi attacco nucleare.

E’ dunque più che urgente che i dirigenti degli stati nucleari prendano coscienza che la ricerca di una sicurezza per il loro Paese basata sulle armi nucleari li ha ormai condotti in una via senza uscita. Non c’è alternativa, se non in un disarmo nucleare totale, verificabile e irreversibile, su scala mondiale. Se si vuole fare un paragone con qualcosa di più vicino all’esperienza quotidiana, si pensi a come il problema energetico sia intrinsecamente legato allo stile di vita (agli stili: è sempre bene usare il plurale), delle persone: possiamo accettare che “coloro che sanno” dall’alto ci debbano prescrivere come vivere e come consumare? Oppure che un modello matematico decida chi come e quando consumare le risorse rimaste? La formula “ascoltate gli scienziati” o gli esperti è fuorviante, diseducativa e persino comica se rimanda ad una conoscenza assoluta e a indicazioni certe e non probabilistiche, con la predisposizione di vari scenari. Proviamo a tradurla oggi con “ascoltate i virologi” e già ora siamo in grado di capire, anche a livello del popolo più refrattario ai libri, in che babele ci ficcheremmo!

Dobbiamo in queste emergenze continuare a ragionare sul rapporto tra l’uomo e il pianeta. Ora in questa relazione, dobbiamo rendercene conto, sta subentrando un terzo incomodo: il robot, l’intelligenza artificiale programmata.

Per il pianeta, i robot che “animali” saranno? Quando questi animali artificiali “intelligenti” saranno diventati parte del sistema Terra, non essendo organici, saranno felici in modo molto diverso dal nostro ed accelereranno ancor di più sia le trasformazioni che la nostra stessa percezione del tempo. Potremmo andare alla distruzione senza averlo né deciso né percepito. In una forma di vita elettronica, dove le informazioni viaggiano a una velocità molto più alta di quella sopportabile dai neuroni animali, la vita, potrebbe durare un’eternità o consumarsi in un baleno.

Questioni di questo tipo sembrano riservate a pochi o, al massimo, ai registi di film di fantascienza. Invece sono oggetto di studi strategici al massimo livello. Ad esempio, Guido Noto La Diega dell’Università di Stirling (v. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3607035) afferma che esistono due tendenze intrecciate nel cyber-antiterrorismo. Da un lato, paesi come Israele, gli USA e la Russia annunciano il dispiegamento di armi autonome letali, come gli ordigni nucleari o gli agenti climatici. Tali armi costituiscono la terza rivoluzione in guerra, dopo polvere da sparo e armi nucleari. I ricercatori degli apparati militari hanno provato ad integrare l’etica nella progettazione di queste armi (la cosiddetta coscienza artificiale o “etica secondo la progettazione”). Ma hanno dovuto ammettere che la coscienza artificiale è solo un semplice stratagemma di marketing volto a rendere accettabile nella società l’uso di armi autonome letali o di robot progettati per la distruzione irreversibile. Non esiste, concludono gli specialisti, possibilità di sfuggire alle insidie dell’etica in base alla progettazione in un contesto militare, perché il cosiddetto approccio etico personalizzato è al massimo applicabile solo alle macchine commerciali e civili.

Ci si potrebbe domandare, per fare un esempio per niente fuori dalla realtà: quale gerarchia di valori dovrebbero risultare nei circuiti elettronici del robot al momento di decidere se uccidere 6000 civili pur di colpire sette leader di al-Qaeda? Rendiamoci conto delle poste in gioco, quando si tratta di affrontare e prevenire anziché subire emergenze che riguardano la vita o la morte di intere specie, comunità, popolazioni. Qualcosa di non tanto dissimile, anche se non parimenti drammatico, si è già presentato all’atto di decidere se ricoverare o meno in terapia intensiva i più anziani malati di Covid -19 … Bisogna pensarci prima, attrezzarci senza spezzare i legami di solidarietà, diritti, civiltà.

Siamo, in effetti, ad un punto discriminante della storia umana e, tra i leader mondiali, se ne è accorto quasi solo papa Francesco…

Facebooktwittergoogle_plusredditpinterestlinkedinmail

You must be logged in to post a comment Login