Cover Image

Cosa pensano Elon Musk e Mark Zuckerberg dei robot?

3 Agosto 2017 - Tempo di lettura: 11 minuti

E se all’alba della rivoluzione industriale nel 1817 avessimo conosciuto i pericoli del riscaldamento globale? Avremmo creato istituzioni per studiare l’impatto dell’uomo sull’ambiente. Avremmo sanzionato le leggi nazionali e i trattati internazionali, accettando di limitare le attività dannose e di promuovere quelle sane – per il bene dell’umanità. Se avessimo potuto prevedere il nostro futuro, il mondo come esiste 200 anni dopo sarebbe stato molto diverso.

Nel 2017 siamo allo stesso punto critico nello sviluppo dell’intelligenza artificiale, solo che questa volta abbiamo la previsione per vedere i pericoli all’orizzonte.

“L’AI è l’unico caso in cui penso che dobbiamo essere proattivi nei regolamenti anziché reattivi”, ha recentemente accennato Elon Musk alla riunione annuale dell’Assemblea Nazionale dei Governatori degli Stati Uniti. “AI è un rischio esistenziale fondamentale per la civiltà umana… ma finché le persone non vedono che i robot scendono in strada uccidendo le persone, non sanno come reagire”.

Tuttavia, non tutti pensano che il futuro sia così terribile, o che sia così vicino. Mark Zuckerberg ha risposto alla dichiarazione bilaterale di Musk in un post di Facebook Live . “Penso che, le persone oppositrici che cercano di battere questi scenari di fine estate – io, non le capisco”, ha detto nel corso di una grigliata nel suo cortile. “È veramente negativo e in qualche modo credo che sia abbastanza irresponsabile” (Musk ha ripreso su Twitter il giorno successivo: “Ho parlato con Mark su questa materia. La sua comprensione dell’argomento è limitata”)

Quindi, quale dei due miliardari tecnologici ha ragione? In realtà, entrambi.

Musk è giusto che intraveda dei pericoli reali sui progressi dell’AI, ma le sue previsioni apocalittiche distraggono le questioni più mondane ma immediate che la tecnologia presenta. Zuckerberg allo stesso modo è corretto che sottolinei gli enormi vantaggi dell’AI, ma va troppo in termini di compiacenza, concentrandosi sulla tecnologia che esiste ora, piuttosto che su ciò che potrebbe esistere in 10 o 20 anni.

Dobbiamo regolare l’AI prima che diventi un problema, non dopo. Non si tratta solo di fermare le società o i governi che creano robot autonomi, “assassini” in laboratori sotterranei segreti: abbiamo bisogno anche di un organismo di governo globale per rispondere a tutte le domande, chi è responsabile quando l’AI provoca danni e se agli AI dovrebbero essere somministrate le leggi, proprio come le loro controparti umane.

Lo abbiamo fatto prima: nello spazio. Il Trattato sull’Outer Space del 1967 è un volume di diritto internazionale che limita la capacità dei paesi di colonizzare o armonizzare i corpi celesti. Durante la guerra fredda, e poco dopo il primo volo spaziale, gli Stati Uniti e l’URSS realizzarono un accordo auspicabile in considerazione dei rischi esistenziali condivisi dell’esplorazione spaziale. Dopo alcuni negoziati, il trattato è stato adottato dall’ONU prima di essere ratificato dai governi di tutto il mondo.

Questo trattato è stato creato molti anni prima di sviluppare la tecnologia per intraprendere le azioni in questione, come misura precauzionale, non come reazione per risolvere un problema già esistente. La governance AI deve essere la stessa.

Scrivere la legge

Alla metà del XX secolo, lo scrittore di fantascienza Isaac Asimov scrisse le quattro leggi della robotica.

  1. Un robot non può danneggiare un essere umano o, per reazione, consentire a un essere umano di danneggiarne un altro.
  2. Un robot deve obbedire agli ordini che gli sono stati dati dagli esseri umani, salvo quando tali ordini sarebbero in contrasto con la prima legge.
  3. Un robot deve proteggere la propria esistenza finché tale protezione non è in conflitto con la prima o la seconda legge.
  4. Un robot può non pregiudicare l’umanità o, per reazione, consentire all’umanità di danneggiare.

Le leggi fittizie di Asimov sarebbero probabilmente una buona base per un trattato di AI-etica, ma ha iniziato nel posto sbagliato. Dobbiamo cominciare chiedendo non le leggi, ma chi le scriverà.

Alcune organizzazioni federali e private stanno facendo primi tentativi di regolare più sistematicamente l’AI. Google, Facebook, Amazon, IBM e Microsoft hanno recentemente annunciato di aver formato il Orwellian-sounding ” Partnership on Intelligence Artificial to Benefit People e Society “, i cui obiettivi includono il sostegno delle migliori tecniche e la creazione di una piattaforma aperta per discutere. I suoi partner ora includono diverse ONG e onlus come UNICEF, Human Rights Watch e ACLU. Nel settembre del 2016, il governo degli Stati Uniti ha rilasciato la sua prima guida sulle autovetture senza pilota. Pochi mesi dopo, la Royal Society e l’Accademia britannica, due delle organizzazioni scientifiche più antiche e rispettate del mondo, hanno pubblicato un rapporto che ha richiesto la creazione di un nuovo organismo nazionale nel Regno Unito per “gestire l’evoluzione” della governance AI.

Questi rapporti mostrano che c’è un crescente consenso a favore della regolamentazione dell’AI, ma c’è ancora poco accordo su come questo dovrebbe effettivamente essere attuato oltre i giornali accademici che circolano nelle caselle di posta governative.

Per avere successo, la regolamentazione AI deve essere internazionale. Se non lo faremo, saremo lasciati con un patchwork disordinato di diverse regole in diversi paesi che saranno complicate (e costose) per i progettisti AI da rispettare. Se non esiste un approccio globale giuridicamente vincolante, alcune aziende tecnologiche cercheranno anche di metter in atto le proprie attività con qualunque legge sia la meno restrittiva, come già fanno con i paradisi fiscali.

La soluzione deve anche coinvolgere promotori sia del settore pubblico che privato. Sebbene il partenariato per l’intelligenza artificiale nel mondo tecnologico intenda invitare i collegamenti tra aziende, con i volontari e gli specialisti in materia di politica e di etica al tavolo delle decisioni, si beneficerebbe anche sulla partecipazione dei governi eletti. Mentre le aziende tecnologiche sono responsabili dei loro azionisti, i governi sono responsabili dei loro cittadini. Ad esempio, la Human Fertilization and Embryology Authority del Regno Unito è un grande esempio di organizzazione che riunisce avvocati, filosofi, scienziati, governi e operatori del settore per definire regole e linee guida per i settori in rapido sviluppo sul trattamento della fertilità e la clonazione biologica.

La polizia dell’AI

Creare istituzioni e formare leggi sono solo una parte della risposta: l’altro grande problema è decidere chi può e deve applicarli.

Ad esempio, anche se le organizzazioni e i governi possono decidere chi dovrebbe essere responsabile se l’AI provoca danni – la società, il codificatore o l’AI stessa – qual è l’istituzione che dovrebbe detenere il crimine, governare la polizia, dare un verdetto e lanciare una sentenza? Piuttosto che creare una nuova forza di polizia internazionale per l’AI, una soluzione migliore è che i paesi accettino di regolare se stessi sotto una stessa coperta etica.

L’UE gestisce la tensione tra la necessità di fissare le norme internazionali e il desiderio dei singoli paesi di stabilire le proprie leggi fissando direttive “vincolanti per il risultato da conseguire“, ma lasciano spazio ai governi nazionali di scegliere come ottenerle. Ciò può significare l’impostazione di piani regolatori, ad esempio un limite massimo di velocità, per cui gli stati membri possono quindi impostare un limite inferiore a quello del livello massimo.

Un’altra soluzione è quella di scrivere “modelli di legge” per l’AI, dove esperti di tutto il mondo raccolgono i propri talenti al fine di elaborare una serie di regolamenti che i paesi possano poi prendere e applicare per intero o tanto quanto basti loro. Ciò è utile a nazioni meno ricche, poiché si risparmia il costo di sviluppare una legislazione nuova, ma al tempo stesso rispetta la propria autonomia non obbligandoli ad adottare tutte le parti di una eventuale legge già istituita.

* * *

Il mondo ha bisogno di un trattato globale sull’AI, così come altri meccanismi per l’impostazione di norme e leggi comuni. Dobbiamo pensare meno a come sopravvivere a un’apocalisse di robot e più su come vivere di fianco a loro – e questo richiederà alcune regole che coinvolgano tutti.

intopic.it