Le opinioni

E quando in guerra le decisioni non le prenderanno i robot?

Scritto il

di Umberto Rapetto (Generale Gdf – già comandante Nucleo Speciale Frodi Telematiche)

Qualche anno fa si parlava poco di guerra e si vedevano i conflitti come qualcosa di lontano nello spazio e nel tempo. La bestia che è nell’essere umano (in qualcuno in particolare) ha poco alla volta ottenuto il dominio delle decisioni e delle iniziative. Tutto il resto è semplicemente cronaca, inspiegabile ma drammaticamente incombente.Quel che si è visto nell’invasione dell’Ucraina ha erroneamente dato l’impressione che si sia tornati alla violenza dell’età della pietra, quasi si fosse transitati dal silicio alla selce in uno scontro efferato e “materiale”. Il lato tecnologico degli eventi bellici non si presta a essere immortalato dalle telecamere o a essere narrato nemmeno dai più abili e coraggiosi reporter. Ci sono cose che non si vedono, che sono difficili da spiegare, che sono quasi impossibili da credere.

I russi alle manovre con i carrarmati hanno fatto precedere attacchi informatici, silenziosi ma tutt’altro che impercettibili, permanenti e per niente episodici, di difficile individuazione in ordine all’origine e all’entità. Ancor prima di paralizzare o danneggiare profondamente il tessuto connettivo virtuale, certi assalti digitali sono serviti a preparare il territorio da conquistare agevolati da disservizi e disagi determinati da malfunzionamenti dei sistemi di elaborazione dati e delle telecomunicazioni. Gli hacker hanno costituito una Forza Armata parallela a chi combatteva sul campo nella cruenta atmosfera che sta facendo lacrimare il mondo intero.

Queste “truppe”, però, potrebbero non essere la vera novità di quell’evoluzione bellica che tiene desti anche i più disinteressati alle sorti del Pianeta. Finora ordini e contrordini sono impartiti da esseri umani, magari aiutati da sistemi di supporto alle decisioni (DSS li chiamano i tecnici).

È stato qualcuno in carne e ossa a stabilire cosa, come e quando farlo. Chi è avvezzo a scrutare l’orizzonte e a immaginare il futuro senza bizzarre e infondate suggestioni comincia a preoccuparsi davvero di quel che potrebbe essere il destino nel momento in cui non saranno più leader e comandanti ad assumersi la responsabilità delle azioni da intraprendere.

Il timore dell’impiego di soluzioni di intelligenza artificiale ha portato il Dipartimento di Stato USA a pubblicare il documento Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy, in cui auspica uno sviluppo etico e responsabile della cosiddetta AI nelle operazioni militari.Etico e responsabile? Sono parole che stonano su un pentagramma internazionale di uno spartito in cui il «vincere a tutti i costi» è la terrificante melodia. Il testo in questione contiene – quasi fossero le Tavole delle Leggi – i comandamenti (dodici anziché dieci) da rispettare nel settore ed enfatizza il ruolo della correttezza e della responsabilità umana.

È un tassello importante ma rischia di rimanere un esercizio di stile, visto e considerato che nella catastrofe in corso non si sono risparmiate le armi chimiche e batteriologiche, alla faccia degli storici accordi multilaterali come il Protocollo concernente la proibizione di impiego in guerra di gas asfissianti, tossici o simili e di mezzi batteriologici (siglato a Ginevra quasi cento anni fa, il 17 giugno 1925) e le norme che si sono inutilmente susseguite. Si legge nel documento che l’uso dell’intelligenza artificiale nei conflitti armati dovrebbe essere conforme al diritto internazionale umanitario applicabile (compresi i suoi principi fondamentali) e basarsi su una catena umana responsabile di comando e controllo.

Dovrebbe includere un’attenta considerazione dei rischi e dei benefici e dovrebbe anche ridurre al minimo i pregiudizi e gli incidenti non intenzionali…

Dovrebbe. Già, dovrebbe.

Qualche giorno fa a L’Aja, 60 Nazioni (tra queste la Cina) avrebbero sottoscritto a questo proposito una modesta “call to action”, ovvero un patto preliminare ad occuparsi del tema. La strada è lunga. Troppo lunga. E la coscienza è rimasta a casa.