martedì 11 dicembre 2018

Perché le armi autonome sono inevitabili - Andreas Kirsch

Perché le armi autonome sono inevitabili
E cosa possiamo ancora fare al riguardo

Andreas KirschSeguire
5 dic

Ad agosto, alla Convenzione delle Nazioni Unite sulle armi convenzionali, 80 paesi si sono incontrati per vietare le armi autonome. Stati Uniti, Russia, Australia, Israele e Corea del Sud hanno bloccato il tentativo . La scorsa settimana, la Russia ha ridotto la durata della prossima convention nel 2019 ad appena una settimana. Ciò renderà i negoziati più difficili.

A differenza della spinta contro le armi nucleari e chimiche, questi paesi affermano di voler esplorare i potenziali benefici dei sistemi di armi autonome letali. La maggior parte delle potenze globali, come Stati Uniti , India , Russiae Cina , le sta attivamente sviluppando.

Le armi autonome cambieranno la guerra più di ogni altra tecnologia. Possono agire e impegnarsi senza la supervisione umana. A differenza dei soldati umani, non possono essere uccisi o feriti - nel peggiore dei casi vengono distrutti o danneggiati. Sono più veloci e più precisi e possono operare al di fuori dei parametri in cui un essere umano sopravvive. Non impiegano anni di formazione e sono facilmente prodotti in serie.

Possono anche essere utilizzati per la polizia e la sorveglianza. Mentre gli umani possono diventare emotivi e ignorare le regole di ingaggio, questi sistemi d'arma possono essere monitorati e controllati. Sono programmati e possono essere testati. L'autodifesa non sarà una scusa valida per loro.


Illustrazione di xMx Luo


I governi possono giustificare più facilmente gli impegni militari al pubblico quando vengono utilizzate armi autonome. Nessuno piange un robot.

I recenti impegni militari da parte degli Stati Uniti e dell'UE in Libia, Siria e Yemen si sono già concentrati sull'uso di droni, bombardamenti e missili da crociera. Poiché le perdite umane da parte dell'attaccante sono state minime, queste guerre hanno mantenuto un basso profilo negli Stati Uniti e in Europa. Le armi autonome lo renderanno ancora più facile.

Allo stesso tempo, oltre 3000 importanti ricercatori si sono impegnati a non sviluppare armi autonome . Tra loro ci sono i fondatori di DeepMind e Elon Musk, il fondatore di OpenAI .

Molti ricercatori e ingegneri temono che il loro sviluppo possa dare il via a una corsa agli armamenti , o che tali armi potrebbero essere utilizzate per sopprimere la popolazione civile se cadessero nelle mani sbagliate.

Molte delle più promettenti tecnologie IA sono difficili da testare e capire. I ricercatori stanno lottando con la loro complessità e quando gli viene chiesto di spiegare perché funzionano così bene.

Vogliamo dare a una macchina l'ultima parola sull'infortunio, sulla vita o sulla morte? Dove disegniamo le linee?

Quando ero un ingegnere di ricerca presso DeepMind, eravamo tutti d'accordo sul fatto che nessuno avrebbe voluto che la loro ricerca fosse usata per la guerra. Non è qualcosa a cui volevamo essere associati.

Tuttavia, se non sviluppiamo armi autonome, saremo in svantaggio quando dovremo combattere un nemico che li impiega. Senza un divieto globale, quelli senza preoccupazioni morali li svilupperanno sicuramente. Ciò potrebbe portare a un futuro meno desiderabile.

Quindi, potremmo ancora vietarli a livello globale e fermare il loro sviluppo - proprio come abbiamo fermato la proliferazione delle armi nucleari?
Un divieto non funzionerà

Anche se tutti i paesi firmassero un trattato internazionale per vietare lo sviluppo di armi autonome, non impedirebbero la loro creazione. La non proliferazione nucleare ha funzionato perché è diversa in modi importanti.

Ci sono due proprietà che rendono il trattato di non proliferazione nucleare del 1958 un buon lavoro.

Primo, ci vuole molto tempo per dispiegare armi nucleari. Ciò consente ad altri firmatari di reagire alle violazioni e adottare sanzioni.

In realtà, ci vogliono molti anni per creare bombe nucleari. Avete bisogno di know-how e strumenti considerevoli e specializzati. Tutto questo deve essere sviluppato da zero perché i paesi mantengono questa conoscenza classificata. E poi, devi ancora sviluppare missili e altri mezzi per dispiegare il carico utile nucleare.

In secondo luogo, sono possibili ispezioni efficaci. è facile capire se un paese sta lavorando su armi nucleari. Avete bisogno di strutture per l'arricchimento e di plutonio per armi. È difficile nasconderlo e, anche se nascosto, è facile rilevare tracce di plutonio durante le ispezioni.

Ma è il contrario con le armi autonome.

Per iniziare, hanno un tempo di accelerazione molto breve: esistono già diverse tecnologie che possono essere utilizzate per creare armi autonome e che vengono sviluppate indipendentemente. La combinazione di queste tecnologie porterà ad armi autonome.

La maggior parte delle tecnologie e delle ricerche necessarie per le armi autonome non sono specifiche per loro.

Ad esempio, i carri armati e gli aerei da combattimento utilizzano già sensori e telecamere per registrare tutto ciò che sta accadendo. I piloti guidano i loro caccia a reazione attraverso un computer che reinterpreta i loro comandi di guida usando l'input dei sensori. I droni sono controllati da remoto da operatori lontani migliaia di chilometri.

Quando gli operatori remoti oi piloti vengono sostituiti da un'intelligenza artificiale che impartisce i comandi dello sterzo, questi sistemi d'arma diventano armi autonome.

In realtà, questo potrebbe già essere successo per i droni. Non ci sarebbe modo di dire al momento.

La ricerca AI sta anche progredendo più velocemente che mai. Sia i governi che gli enti privati ​​versano più denaro nello stesso momento.

OpenAI , un laboratorio di ricerca senza scopo di lucro fondato da Elon Musk, ha pubblicato una ricerca sul "trasferimento di apprendimento", che consente alle IA di essere trasferite da una simulazione al lavoro reale con poco sforzo .

Anche le società di videogiochi, specializzate nella guerra virtuale, si sono unite alla mischia. Vogliono creare l'avversario perfetto. La divisione SEED di EA ha iniziato a formare più IA per uso generico per giocare al suo gioco Battlefield 1 .

Insieme, queste compagnie preparano inconsapevolmente il terreno per una guerra autonoma.

Potremmo almeno determinare con certezza se qualcuno stesse lavorando su armi autonome?

Purtroppo, le ispezioni efficaci sono impossibili. L'hardware per le armi autonome non è diverso dai normali droni e sistemi d'arma. Le IA per le armi autonome potrebbero essere addestrate in qualsiasi datacenter perché la maggior parte del loro addestramento può avvenire all'interno di simulazioni. Eseguendo una simulazione del genere non sembrerebbe diverso agli ispettori esterni prevedere le previsioni del tempo di domani o addestrare un'IA per giocare l'ultimo Call of Duty.

Inoltre, il loro codice e i dati possono essere facilmente spostati in qualsiasi altro datacenter e nascosti senza lasciare traccia.

Senza un'efficace ispezione e un lungo periodo di accelerazione, un trattato di non proliferazione sarebbe inutile. I firmatari continuerebbero a ricercare le tecnologie generali allo scoperto e integrarle in armi autonome in segreto con basse possibilità di rilevamento. Saprebbero che gli altri probabilmente faranno lo stesso, e che l'astensione non è un'opzione.

Sarebbe necessaria un'incredibile quantità di fiducia e trasparenza all'interno della comunità internazionale, e sembra che siamo più lontani da questo momento rispetto a qualsiasi altra volta negli ultimi vent'anni. Potrebbe non esserci abbastanza tempo per ricostruire nuovamente la fiducia.
Quindi cosa possiamo fare?

Non possiamo sottrarci alla nostra responsabilità.

I responsabili politici non dovrebbero perdere tempo nel cercare di vietare le armi autonome. Dovrebbero agire per tenerli fuori dalla portata degli attori non statali, però.

Mentre ero un fellow residenziale alla Newspeak House di Londra, ho invitato Jack Clark di OpenAI a parlare delle sfide politiche al nostro incontro di IA & Politics. Ha mostrato un video del drone commerciale di Skydio e ha sottolineato la natura a duplice uso di qualsiasi tecnologia generale come l'intelligenza artificiale.

Il drone di Skydio può rintracciare indipendentemente le persone e tenerle in vista di una telecamera. Potrebbe essere facilmente abusato per la costruzione di armi autonome da parte di attori non statali.

L'hardware disponibile in commercio deve essere protetto contro la manomissione, gli acquisti devono essere registrati e l'attività sospetta deve essere investigata. Questo è già stato fatto per materiali che potrebbero essere usati per la fabbricazione di bombe e dovremmo adottare lo stesso approccio cautelativo con i droni commerciali autonomi.

La maggior parte dei ricercatori è cauta nel parlarne. Il sostegno a un divieto generale di armi autonome è spesso indicato come l'unica soluzione da parte dei ricercatori. Non perché potrebbe funzionare, ma perché affermare qualcos'altro potrebbe portare a una reazione pubblica alla ricerca di intelligenza artificiale.

Un tale contraccolpo peggiorerebbe le cose. Spingerebbe ulteriormente lo sviluppo in segreto. C'è molto di buono proveniente dalla ricerca di intelligenza artificiale, e regolamentazioni troppo zelanti potrebbero influire unilateralmente su questo.

Invece, gli organismi internazionali dovrebbero regolamentare lo sviluppo di armi autonome e sorvegliare il più possibile il loro uso. Sia gli usi offensivi che quelli difensivi devono essere ricercati in modo trasparente e dobbiamo sviluppare capacità deterrenti.

Anche se non possiamo evitare le armi autonome, possiamo ancora cercare di impedire che vengano utilizzate sui civili e limitino il loro uso anche nelle forze di polizia. Altrimenti, potrebbero essere usati per sopprimere la popolazione civile da regimi autoritari.

Come ricercatori, possiamo firmare molte promesse, ma siamo ancora in un vicolo cieco. Se possiamo fare del nostro meglio per sviluppare modelli migliori per mostrare alle persone gli annunci giusti e risolvere i giochi per computer, non dovremmo usare il nostro meglio anche dove è importante?

Dobbiamo evitare la "via di mezzo incompetente", in cui le armi autonome funzionano abbastanza bene da essere utilizzate, ma stanno fallendo e sono dannose in modi non necessari.

Gli organismi internazionali non devono andare in stallo perché vogliono vietare ciò che è inevitabile invece di compromettere la regolamentazione.

Ma finiremo lì se molti ricercatori voltano le spalle al problema.

Non può esserci un lieto fine, solo uno con cui possiamo convivere.



Puoi seguire Andreas su Twitter .

Nessun commento:

Posta un commento