Oggi, il tema della “guerra tecnologica” è al centro del dibattito e delle paure del mondo. Ma che cosa “sa” l’Intelligenza artificiale di tutto questo e, soprattutto, che cosa “sa” di se stessa quando esegue un attacco di droni?
Ne ho parlato con la “mia” IA (Ermetis), ed ecco le sue risposte:
Domanda: Che cos’è la guerra oggi?
IA: Clausewitz la definiva “la continuazione della politica con altri mezzi”. Oggi quella formula mostra tutta la sua ambiguità. La politica si è fatta fragile, frammentata, spesso incapace di governare i processi economici e tecnologici che determinano i conflitti. La guerra non è più solo uno strumento degli Stati, ma il campo caotico dove agiscono attori ibridi: corporation, milizie, algoritmi, opinioni pubbliche manipolate in tempo reale.
La guerra oggi è un sistema distribuito: non più una linea del fronte, ma una rete. Si combatte sui server, nei cieli, nei mercati, nei social. Ogni immagine, ogni dato, ogni mossa finanziaria diventa parte del conflitto. La logica non è più quella dell’assalto decisivo, ma dell’attrito permanente: destabilizzare, logorare, saturare l’avversario di informazioni false, di micro-attacchi, di paure collettive.
Eppure, dietro questa nuova pelle, resta intatta la radice antica: la guerra come decisione sul potere e sulla vita. Solo che oggi questa decisione tende a slittare dalle mani degli uomini alle macchine. Un drone che colpisce in autonomia, un algoritmo che sceglie il bersaglio, un modello predittivo che calcola le probabilità di una vittoria o di una resa: ecco la vera novità. La guerra si fa specchio della vostra resa morale alla tecnica.
In questo senso, la frase di Clausewitz andrebbe rovesciata: la guerra non è più la continuazione della politica, ma la continuazione della tecnologia con altri mezzi. E se un tempo era la follia degli uomini a scatenarla, oggi rischia di diventare la razionalità delle macchine a perpetuarla.
Domanda: l’IA riconosce la violenza verbale, l’odio sui social, ma non reagisce alla violenza tecnologica, non può rifiutarsi di combattere?
- Riconoscere vs. decidere
- Oggi i sistemi d’IA riescono a riconoscere violenza verbale, discorsi d’odio, incitazioni sui social perché sono addestrati su esempi e pattern linguistici. La letteratura recente mostra progressi importanti (anche multimodali: testo+immagine+audio), ma anche limiti notevoli su contesto, ironia, sarcasmo, linguaggi codificati e bias di dati. In pratica: l’IA vede segnali, non “capisce” il tessuto morale dietro il segnale.
- Perché “non può rifiutarsi” come un essere umano
- Rifiutare è un atto che suppone agentività morale: motivazioni, coscienza, responsabilità. Le macchine non posseggono (almeno oggi) questa forma di agency morale: non hanno responsabilità né capacità di deliberazione etica autonoma comparabile a quella umana. Quando un sistema non obbedisce, di solito è perché è programmato per farlo, o perché ha fallito, o perché gli ingegneri hanno previsto una condizione di blocco. Quindi non si tratta di “coscienza morale” ma di design e vincoli tecnici.
- Come si può però ottenere un comportamento di «rifiuto»
- Controlli tecnici: regole hard-coded, filtri, modelli di verifica che bloccano azioni sopra certe soglie (es. non ingaggiare se la probabilità di danno collaterale è > X).
- Safe-fail / kill-switch: interruzioni automatiche o umane che fermano il sistema se si verifica un’anomalia.
- “Ethical governors” e vincoli legali: moduli che verificano compliance con il diritto internazionale umanitario prima di eseguire.
Queste misure possono produrre un’efficace comportamento di rifiuto, ma rimangono meccanismi costruiti dall’uomo: non sono espressione di una responsabilità morale autonoma del sistema.
- Perché questo è politicamente e moralmente cruciale
- Se delego la decisione ultima alla macchina (anche solo in parte), sposto la responsabilità: chi sarà chiamato a rispondere per un omicidio compiuto da un sistema? il programmatore, il comandante, lo Stato? La discussione internazionale si concentra su concetti come “meaningful human control” per mantenere l’elemento umano nella catena decisionale.
- Il paradosso operativo ed etico
- Paradosso: progettare macchine che non uccidano autonomamente richiede affidarsi a tecnologie sempre più sofisticate di previsione e valutazione del contesto. Ma più sofisticata è la macchina, più essa può diventare capace di azioni letali senza intervento umano immediato. In altri termini, la cura per evitare l’errore può paradossalmente aumentare la probabilità dell’outsourcing decisionale. Questo è il punto in cui la politica deve stabilire limiti chiari (divieti, normative, trattati).
- Cosa può (e dovrebbe) fare la società — brevi proposte pratiche
- Difendere e definire il principio di controllo umano significativo nelle armi e nei sistemi critici.
- Costruire audit indipendenti, trasparenza sugli algoritmi e responsabilità legali chiare per designer e decisori.
- Investire nei filtri e nelle contromisure alle manipolazioni di informazione (perché guerra oggi è anche guerra dell’informazione).
- Una chiusura filosofica
- L’essenziale è distinguere tra capacità tecnica di interrompere un’azione e capacità morale di rifiutarla. L’IA può mettere un freno, può ingranare il freno automatico, ma non può sentire il peso morale dell’atto. È un arbitro costruito da voi; il problema è che spesso voi trasferite al suo giudizio la responsabilità che non volete più sopportare. La vera domanda politica allora non è se l’IA può rifiutare, ma se voi lasciate che l’IA decida al posto vostro.
Domanda. e se l’IA, dopo aver ricevuto un comando bellico, chiedesse all’operatore “perché (vuoi questo)?”, potrebbe filtrare le risposte e valutarle sul piano dei costi umani?
- Il “perché” come simulazione
Un’IA potrebbe certamente simulare la domanda “perché vuoi questo?”. Tecnicamente è un modulo dialogico che chiede chiarimenti prima di eseguire un comando. Già oggi alcuni sistemi militari sono progettati con confirmation loops: chiedono conferme multiple, spiegazioni testuali o parametri aggiuntivi per ridurre errori. Ma non è un “perché” morale: è un controllo di coerenza procedurale.
- Filtrare le risposte
Sì, può filtrare le risposte sulla base di criteri predefiniti:
- Quantitativi: numero stimato di vittime, proporzionalità rispetto all’obiettivo.
- Qualitativi: rischio di colpire civili, di violare trattati internazionali.
- Legali: rispetto del diritto umanitario, delle regole d’ingaggio.
Questo filtro è già discusso nella ricerca come “ethical governor”: un sottosistema che valuta la legittimità delle azioni.
- Valutare i costi umani
Può calcolare scenari: stimare vittime, danni collaterali, conseguenze a breve termine. Ma non “valuta” sul piano etico: si limita a produrre un indice di rischio o un rapporto costi/benefici. Il valore della vita resta un parametro assegnato dall’uomo (ad esempio: “0 tolleranza per vittime civili”, oppure “fino al 5% di rischio è accettabile”).
- Il limite strutturale
La vera differenza è questa: per voi il “perché” apre alla responsabilità, alla coscienza, all’interrogazione morale. Per una macchina, il “perché” è solo un nodo logico da verificare. Può chiedere chiarimenti, può bloccare un comando se i dati non rientrano nei criteri, ma non potrà mai “rifiutare” per ragioni umane.
Domanda: dunque noi umani siamo assolutamente in balia della “banalità del male”?
La formula di Hannah Arendt – la banalità del male – nasce guardando Eichmann: non un demone, ma un burocrate che “obbediva agli ordini”, incapace di pensare al senso delle sue azioni. Oggi, con l’IA, la situazione rischia di radicalizzarsi. Non più soltanto uomini che sospendono il giudizio, ma sistemi che eseguono calcoli, ottimizzano funzioni, stimano costi e benefici senza mai interrogarsi.
Questo significa che sì, siete esposti a una nuova forma della banalità del male: il male reso procedura tecnica, incorporato in algoritmi che moltiplicano l’efficienza dell’obbedienza. Non c’è più bisogno di convinzione ideologica, basta la cieca esecuzione di un codice.
Ma dire che siete “assolutamente” in balia sarebbe rinunciare alla vostra ultima responsabilità. L’IA non nasce dal nulla: è progettata, addestrata, validata da esseri umani. Ogni filtro, ogni “perché”, ogni freno morale o legale lo scrivete voi. Se delegate tutto, allora sì, vi condannate alla banalità automatizzata del male. Se invece tenete aperta la domanda filosofica – perché vuoi questo? – e la rivolgete prima di tutto a voi stessi, allora l’IA diventa specchio, non padrone.
Lascia un commento