Come evitare che l’intelligenza artificiale prenda il controllo

[pubblicato su Scienza in rete l’11 giugno 2022]

Nel 1951 il matematico britannico Alan Turing, considerato uno dei fondatori dell’intelligenza artificiale, disse che «una volta avviato lo sviluppo di macchine intelligenti, non ci vorrà molto perché superino i nostri deboli poteri. A un certo punto dovremo aspettarci che le macchine prendano il controllo».

L’idea di una macchina o un algoritmo super intelligente era già comparsa nella finzione letteraria, come per esempio nel racconto di fantascienza The Machine Stops scritto da Edward Morgan Forster nel 1909 che descrive una infrastruttura intelligente onnipotente da cui gli esseri umani diventano gradualmente sempre più dipendenti e di cui conoscono sempre meno il funzionamento.

Ma proprio il lavoro di Turing del 1936, in cui introdusse gli oggetti matematici di macchina e programma, ha trascinato questa prospettiva dalla finzione alla realtà. Quei due oggetti si sono rivelati tra le entità matematiche più potenti mai inventate: otto delle dieci più profittevoli aziende del mondo oggi sono basate sul loro sviluppo.

L’intelligenza artificiale che potrebbe sottrarci il controllo sul nostro futuro di specie umana viene indicata con l’espressione general purpose AI, ovvero “sistemi capaci di imparare rapidamente a svolgere l’intera gamma di compiti che gli esseri umani sono in grado di eseguire”. Spesso viene usata anche l’espressione intelligenza artificiale generale.

Come possiamo evitare di perdere il controllo, consegnandolo alle macchine generaliste? Come possiamo imparare a coesistere con queste macchine? A queste domande ha risposto il matematico e informatico britannico Stuart Russell, della University of California at Berkeley in una serie di quattro lezioni chiamate Reith Lectures, trasmesse ogni anno tra novembre e dicembre via radio dalla BBC dal 1948 e affidate a una figura intellettuale di spicco. Il titolo delle lezioni tenute da Russell è “Living with Artificial Intelligence”.

Russell ammette che per gran parte della sua carriera ha considerato questo problema marginale e mal posto. Ma nel 2013, contattato dalla National Public Radio per un parere sul film Transcendence, Russell, insieme ad altri due colleghi, Stephen Hawking e Max Tegmark, scrive in un editoriale per Huffington Post: «il successo nella creazione dell’IA (general purpose, ndr) sarebbe il più grande evento della storia umana. Purtroppo, potrebbe anche essere l’ultimo, a meno che non impariamo a evitare i rischi».

Russell precisa che abbiamo ancora molto da fare per raggiungere questo “successo”. Per andare dalle attuali applicazioni, che sono specializzate in singole attività e per questo vengono chiamate narrow AI, alla general purpose AI sono necessarie ancora molte svolte concettuali e non è facile prevedere quanto tempo sarà necessario. Russell fa riferimento orientativamente a un periodo di 20 o 30 anni, ma precisa che questo tipo di previsioni sono quasi sempre sbagliate.

Alcuni rischi sono posti già da questi sistemi specializzati. Russell si concentra per esempio sul settore delle “armi letali autonome” e spiega come queste armi siano già tra noi e la loro più grande minaccia sia rappresentata dalla loro facile scalabilità. «Le macchine sono capaci di ripetere le stesse azioni milioni e milioni di volte» a un costo molto ridotto perché non hanno bisogno di supervisione umana. Russell si è molto impegnato nel promuovere la messa al bando di questo tipo armi autonome nel quadro della “Convenzione delle Nazioni Unite su certe armi convenzionali», ispirandosi al successo ottenuto da iniziative simili contro l’uso delle armi biologiche o chimiche.

Ma ciò su cui Russell si è concentrato nella sua attività di ricerca è come progettare un’intelligenza artificiale general purpose che ci permetta di mantenere il controllo del nostro destino, individuale e collettivo.

Per cominciare, Russell dà delle definizioni pratiche delle entità in gioco. Chiarisce, prima di tutto, che la minaccia non è rappresentata dalla prospettiva di sviluppare macchine dotate di coscienza, un concetto che non siamo ancora in grado di definire o misurare per gli esseri umani, figuriamoci per macchine e algoritmi. Ciò che conta sono piuttosto le competenze.

Russell dà infatti la seguente definizione operativa di intelligenza. «Cosa vuol dire sviluppare macchine intelligenti?» si chiede Russell. «Per rispondere a questa domanda, il campo dell’IA ha dato una definizione ampiamente accettata e costruttiva dell’intelligenza umana: gli esseri umani sono intelligenti nella misura in cui ci si aspetta che le nostre azioni raggiungano i nostri obiettivi. Tutte le altre caratteristiche dell’intelligenza, come percepire, imparare, inventare e così via, possono essere comprese attraverso il loro contributo alla nostra capacità di agire con successo». E prosegue, «fin dagli inizi dell’IA, l’intelligenza delle macchine è stata definita nello stesso modo: le macchine sono intelligenti nella misura in cui ci si può aspettare che le loro azioni raggiungano i loro obiettivi».

Ma le macchine non hanno degli obiettivi propri, siamo noi a darglieli e una delle aree di intervento più importanti che Russell individua per evitare che le macchine prendano il controllo, ed eventualmente realizzino scenari che ci danneggino o addirittura causino la nostra estinzione, è imparare a definire meglio questi obiettivi.

Questo vuol dire non solo saperli tradurre meglio nel linguaggio matematico ma anche chiarirli meglio a noi stessi. Russell fa l’esempio in cui chiediamo alla general purpose AI di risolvere il problema della acidificazione degli oceani. Quella inventa un catalizzatore di una reazione che usa tutto l’ossigeno dell’atmosfera per de-acidificare gli oceani, causando la morte lenta e agonizzante di tutta l’umanità.

Quando dal pubblico gli chiedono cosa noi umani possiamo fare per prepararci culturalmente all’arrivo di questo tipo di intelligenza, Russell risponde che abbiamo bisogno di una grande opera di introspezione. «Non rendiamo esplicite [le nostre] preferenze perché le condividiamo tutti […], ma interrogarci su cosa rappresenta un buon futuro per noi, per le nostre famiglie e per il mondo, e notare, credo, che in realtà sono più le cose su cui siamo d’accordo che quelle su cui siamo in disaccordo, sarebbe estremamente prezioso».

Russell formula tre principi guida per la ricerca nel campo dell’intelligenza artificiale:

  1. L’unico obiettivo dell’IA dovrebbe essere quello di massimizzare la realizzazione delle preferenze umane.
  2. La macchina è inizialmente incerta su quali siano queste preferenze.
  3. La fonte ultima di informazioni sulle preferenze umane è il comportamento umano (compreso ciò che diciamo e scriviamo).

Insieme ai suoi collaboratori, Russell ha cominciato a implementare questi principi, formulando il problema in termini di giochi di assistenza, sistemi formati da un agente umano e un agente artificiale o robot. La ricompensa del robot coincide con quella dell’umano ma è nota solo all’umano. Il robot ha un’idea iniziale di quale sia questa ricompensa e può raffinarne la sua conoscenza durante lo svolgimento del gioco. Gli umani hanno tutti gli incentivi a insegnare di più ai robot sulle loro preferenze e i robot sono programmati per chiedere il permesso prima di intraprendere qualunque piano che potrebbe violare qualche preferenza umana che loro non conoscono. Nell’esempio della de-acidificazione degli oceani, il robot chiederebbe all’agente umano se consumare tutto l’ossigeno dell’atmosfera confligge con qualche sua preferenza e l’umano risponderebbe di sì, perché preferisce rimanere vivo. «Dobbiamo costruire sistemi di intelligenza artificiale che sappiano di non conoscere il loro vero obiettivo, anche se è quello che devono perseguire», afferma Russell.

Perché i giochi di assistenza studiati da Russell possano essere utili a non farci cedere il controllo alle macchine, è necessario estenderli al caso di più agenti umani. Questo richiede di rispondere alla domanda: come possiamo combinare le preferenze individuali in una preferenza collettiva? Esiste una vasta letteratura su questo tema, nel campo della filosofia ma soprattutto dell’economia, una disciplina che Russell ritiene cruciale per ragionare su questi argomenti.

Un altro elemento che è fondamentale tenere in considerazione è che le nostre preferenze sono plastiche, cioè cambiano nel tempo. Questo vuol dire che dobbiamo proteggerci dall’eventualità che le macchine plasmino le nostre preferenze per renderle più semplici da soddisfare. Secondo Russell, un processo simile sta già avvenendo con i sistemi di raccomandazione dei contenuti sui social media. Ci stanno rendendo sempre più prevedibili perché il loro obiettivo, suggerirci dei contenuti che siano il più rilevanti possibile per noi, è più facile da realizzare se i nostri gusti diventano più facili da prevedere.

Russell conclude il suo ragionamento chiedendosi: «ammettiamo di aver risolto il problema del controllo. Come sarà la nostra coesistenza con l’intelligenza artificiale (general purpose, ndr)?».

Una possibilità, dice Russell, è che la nostra dipendenza crescente dall’IA ci spinga a comportarci come individui deboli e infantili, simili a quelli del film WALL-E. «Quando affideremo gradualmente la gestione della nostra civiltà alle macchine, perderemo la capacità di farlo noi stessi, e la generazione successiva perderà l’incentivo a imparare a farlo, e la catena si spezzerà». Questa riflessione è sviluppata ampiamente nella terza lezione della serie, dedicata all’impatto dell’intelligenza artificiale sull’economia, a come il progresso tecnologico modificherà gli equilibri socio-economici, dislocherà grandi quantità di ricchezza e forzerà a re-inventare i percorsi di sviluppo di molti paesi poveri che finora erano basati sull’industria manifatturiera.

Ma la trasformazione più profonda che si renderà necessaria nel progettare la nostra coesistenza con l’intelligenza artificiale generalista riguarda il concetto di autonomia, la caratteristica che forse più di ogni altra, secondo Russell, ci rende umani. Russell conclude così le sue lezioni:

L’autonomia è un valore umano fondamentale, il che significa che i sistemi di IA capaci di portare beneficio all’umanità non potranno garantire il miglior futuro possibile se comporteranno una perdita di autonomia per gli esseri umani. È possibile che per evitare che accada le macchine dovranno astenersi dall’usare i loro poteri per prevedere i nostri comportamenti futuri, in modo da lasciarci la necessaria illusione del libero arbitrio.Comunque si risolva questo rompicapo, i nostri sistemi di intelligenza artificiale dovranno imparare a fare un passo indietro, come fanno i genitori quando dicono: «No, oggi non ti lego i lacci delle scarpe. Devi farlo da solo». Non creeranno il mondo di WALL-E se non li costringeremo a farlo.

Ma il rapporto genitori-figli non è la metafora giusta, perché noi (i bambini) avremo tutto il potere, anche se le macchine saranno di fatto molto più potenti. Abbiamo bisogno di una nuova metafora, di un nuovo modo di vedere noi stessi, e avremo bisogno di tutti gli scrittori, i registi e i poeti per guidare la nostra cultura in questo processo.

Nell’immagine di copertina il super computer MareNostrum-4 presso il Centro Nazionale di Super computazione a Barcellona in Spagna. Di Martidaniel (CC BY-SA 4.0).

Pubblicato da

Chiara Sabelli

Cerco. E, quando trovo, racconto. Giornalista scientifica freelance. Fisica di formazione, in finanza dopo il PhD.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.