Home / I diritti nel Mondo / Responsabilità e Droni: è tempo di palingenesi?

Responsabilità e Droni: è tempo di palingenesi?

Il 14 maggio 2013, per la prima volta nella storia, un drone, un Northrop Grumman X-47B, è decollato dalla portaerei USS George H. W. Bush e ha svolto in totale autonomia alcune manovre.

8281929137_f22d76c863Quella che a una prima vista potrebbe sembrare una mera esercitazione militare, è in verità un momento di svolta epocale. Entro pochi anni i droni non solo potranno partire da ogni parte del mondo, ma gran parte della loro attività sarà svolta nell’autonomia dei loro circuiti.

Questo pone, oltre che a rilevanti problemi sotto il profilo del diritto internazionale e bellico, una profonda riflessione su uno dei concetti cardine del diritto: la Responsabilità.

Il concetto di responsabilità, civile e sopratutto penale, alligna nella più ampia concezione di personalità (1). Una azione o un’omissione può sempre verificarsi per colpa o per dolo, ma ci sarà sempre un certo gradiente di previsione, di un evento voluto o meno, e di assunzione del rischio che si pongono alla base della responsabilità.

Del resto, se si scorre il codice civile, persino nelle ipotesi di responsabilità oggettiva c’è sempre una prevedibilità dell’evento alla base (2) (3).

Anche da uno sguardo alla recente storia si può evincere come, dopo i processi di Norimberga, è stata sostanzialmente negata la possibilità di invocare il principio del respondeat superior per crimini particolarmente efferati, ribadendo un concetto di personalità dell’azione.

Tutt’oggi è pacifico che un soldato non possa rispondere negativamente a un ordine, ma non sia fisicamente obbligato a eseguirlo, se esso è palesemente in violazione dei diritti umani.

Sotto un profilo strettamente internazionalistico è facile rilevare come l’attribuzione di responsabilità dipenda dall’enucleazione di uno obbligo. Ma obblighi non pendono e, al contrario, nella tutela dei diritti fondamentali la convergenza è a favore dell’uso dei droni: data la struttura tecnica (possibilità di volare basso e raggiungere l’obiettivo in tempi celeri grazie a una accelerazione esponenziale data dall’assenza di pilota) della macchina e della disposizione psicologica del pilota (che può colpire con precisione e senza la pressione psicologica del pericolo) i danni collaterali sono, tutto sommato, assai ridotti.

Un drone, che sicuramente è dotato di un certo grado di pensiero (4), può essere considerato come un soggetto responsabile? Attualmente, la presenza del soggetto umano al comando di un drone può portare a spostare la responsabilità sul pilota o sul programmatore, ditalché un danno collaterale provocato dalla macchina può ascriversi al soggetto umano. Del resto, una problematica simile si poteva rilevare anche con l’impiego dei missili fire-and-forget. In quel caso, però, la componente umana che premeva il tasto per lanciare il vettore non era solo presente, ma era concretamente posta davanti all’azione. Nel caso di un soggetto che controlla un drone a migliaia di chilometri di distanza, vi è una completa astrazione. L’impatto psicologico è totalmente diverso. La vita del pilota di droni non ha nulla di diverso dall’ordinario: si sveglia, fa colazione, porta i figli a scuola, va a lavoro e tramite un computer controlla un drone, riprende i figli e dopo cena guarda il football.

Come si può, in un contesto simile, dare una completa attribuzione di responsabilità a un soggetto simile? Su quale base? Siamo realmente persuasi che sia conscio di aver commesso un omicidio mirato piuttosto che una sessione di Gears of War?

Nel caso, poi, di un drone completamente automatizzato in quale situazione ci si troverà? Possiamo forse immaginare che risponda chi ha dato 8238134115_d3325ac03el’ordine di lanciare il drone dotato di un buon grado di autonomia? Dovremmo arrivare ad applicare lo status di soldato anche all’operaio che dolosamente ha guadagnato la sua meritata paga lavorando il materiale con cui è stato costruito il velivolo?

Come può un drone concepire il concetto di assunzione del rischio? Per lui, previa programmazione, o i dati sono sufficienti o non lo sono.

La responsabilità, così come era stata intesa (5), non può trovare una agevole applicazione in un mondo che si ritrova con una tecnologia più avanzata di quella categoria giuridica.

Lo stesso discorso di Obama del 23 maggio 2013, nel quale ha blandamente tratteggiato i limiti dell’utilizzo dei droni (6), ha mancato di sciogliere il nodo gordiano dell’impiego di questa tecnologia.

Del resto, se anche, tramite legge nazionale o trattato, si stabilissero analiticamente tutti i casi in cui un drone può essere o non essere utilizzato e le relative conseguenze, non si sarebbe fatto altro che procrastinare lo status quo. Il radicale ripensamento della categoria stessa non può non passare attraverso un nuovo modo di intendere il rapporto uomo e tecnologia.

Evitare questa palingenesi su un piano più “semplice” quale è quello del diritto internazionale – nel quale è spesso difficile distinguere tra diritto, politica ed economia – comporterà problematiche ben più rilevanti sul piano interno.

Se la polizia decidesse di utilizzare i droni per le sue operazioni? Ancora oltre: se divenissero disponibili per i privati? Come risolveremo questioni complesse quali la privacy o il danno aquiliano? Utilizzando categorie ottocentesche?

In altre parole, è probabilmente giunto il momento di porre una  mediana tra le forme giuridiche applicabile all’uomo e al necessario vuoto normativo che spetta alla macchina in quanto tale. Una categoria capace di ripensare il ruolo dell’automazione di interi sistemi alla luce delle esigenze di certezza e coerenza.

Questo non può più essere rimandato.

Conclusioni:

Possiamo scorgere come, grazie ai progressi tecnologici, ci troviamo di fronte a una nuova situazione mai vista nella storia. L’automazione nella tecnologia bellica comporta il decadimento di un concetto giuridico ritenuto, sinora, intoccabile: quello della responsabilità. Il bivio che si offre davanti a noi è chiaro: a destra l’arduo sentiero che conduce a riformulare concetti che oggi stanno perdendo il loro senso originario e a sinistra la semplice via della tipicizzazione dell’applicazione di una data tecnologia che, sotto l’illusione dell’alto risultato, altro non fa che spostare il problema al prossimo prodotto tecnologico. Avremo la capacità di compiere un simile sforzo intellettuale?

 

(1) Nel penale ciò è ribadito dall’art. 27 comma 1 della costituzione.

(2) Qualche esempio: 2048 o 2052 ove al genitore e al proprietario è richiesto di prendersi la responsabilità per il figlio o dell’animale, 2050 ove si accetta di partecipare a una attività pericolosa, 2054 ove si chiede ai conducenti di veicoli una particolare attenzione al loro comportamento.

(3) Il concetto non è estraneo ad altri ordinamenti. Uno su tutti: paragrafo 833 del BGB.

(4) Sostenere che un computer non pensi perché non possiede la struttura del cervello umano è assurdo come sostenere che un aereo non voli perché non ha le ali di un uccello. Semmai bisogna comprendere quali siano i suoi limiti.

(5) Non di certo l’unico concetto oramai scardinato. Le convenzioni di Ginevra, oggi, hanno davvero poco senso a seguito della confusione di definizioni come: pubblico-privato, internazionale-nazionale, soldato-civile.

(6) In maniera neanche troppo chiara e facilmente aggirabile.

 

About Riccardo Varisco

Laureando in informatica giuridica presso la facoltà di Giurisprudenza dell'Università Cattolica, sede di Milano. Appassionato di scienze naturali e strategia militare.

One comment

  1. Articolo molto interessante, consiglio a riguardo anche la lettura di questo: http://www.geopoliticalcenter.com/2012/11/la-responsabilita-oggettiva-del-controllo-dei-droni/

Leave a Reply

Your email address will not be published. Required fields are marked *

*

Scroll To Top