I pericoli dell’intelligenza artificiale che verrà

Posted on 2 febbraio 2015

1



Il 2015 si è aperto accompagnato da un insolito appello di un gruppo di scienziati e personaggi molto noti, che ha invitato a cominciare a pensare, e possibilmente prevenire, i pericoli che di sicuro presenterà a breve l’ormai tumultuosa diffusione dell’automazione e dell’intelligenza artificiale. Un tema, secondo scienziati e protagonisti del panorama tecnologico, che dovrà essere affrontato prima che si ponga alla nostra attenzione a forza di disastri.

La conferenza «The Future of AI: Opportunities and Challenges» promossa dal Life Institute a Porto Rico, ha aperto l’anno lanciando un vero e proprio allarme sulla necessità di una profonda riflessione etica e pratica sulle più plausibili questioni che si porranno a breve con l’aumento geometrico dell’automazione e delle capacità computazionali. Quel «a breve» è da intendersi come un lasso di qualche decennio, durante il quale secondo tutte le previsioni i progressi della tecnica e il moltiplicarsi dei dispositivi connessi in rete, la famosa «internet delle cose» arriveranno a risultati tali da porre la questione della convivenza e della competizione tra uomo e macchine, fino alla questione finale posta dalla fantascientifica, ma teorizzabile e teorizzata, futura supremazia delle macchine sull’uomo.

L’appello, che ha preso le forme di una lettera aperta intitolata Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter, firmata tra i primi da personalità come l’astrofisico Stephen Hawking ed Elon Musk – il magnate che partendo da Paypal ora rifornisce la Stazione Spaziale Internazionale con i servizi di SpaceX, la prima impresa privata spaziale a raggiungere un traguardo del genere – ha forse un accento troppo catastrofista quando elenca tra gli esiti da evitare anche la soppressione del genere umano a opera delle macchine. Certo, l’ipotesi non può essere esclusa, ma è indubbiamente un testo sensato che avanza timori che appaiono più che fondati. Letto oggi può fare l’effetto del The Limits to Growth (o «Rapporto sui limiti dello sviluppo»), il tentativo un po’ più articolato con il quale all’inizio degli anni ’70 il Club di Roma mise sul piatto i conti del MIT (Massachussets Institute of Technology) che dimostravano come l’ipersfruttamento delle risorse del pianeta avrebbe presto portato a un generale impoverimento della biosfera e compromesso la sua capacità di supportare la vita. Previsioni puntualmente verificatesi, se non superate in peggio, nonostante per anni fossero indicate come una specie di Apocalisse in salsa ecologista da chi invece non voleva mettere limiti allo sviluppo.

La preoccupazione degli ormai numerosi firmatari della lettera, ai quali se ne sono aggiunti molti altri e di un certo peso, muove dall’osservazione dei progressi compiuti nel campo dell’intelligenza artificiale, dell’automazione e dell’interconnessione dei dispositivi tecnologici, tanto tumultuosa che ancora è difficile cogliere esattamente tutte le opportunità, e i pericoli, di cui è o sarà portatrice negli anni a venire. L’aumento esponenziale dell’automazione impatterà prevedibilmente sul piano sociale riducendo il numero degli occupati, ma ancora di più c’è da preoccuparsi di quello che potrebbe succedere se lo sviluppo procedesse pancia a terra senza alcuna riflessione etica preventiva.

Il problema della sorveglianza globale ad esempio è già d’estrema attualità, si è visto come nelle praterie poco regolamentate e nascoste all’interno delle maggiori server farm scorrazzano i bot del NSA e di chissà chi altri, che i cavi attraverso i quali la rete attraversa mari e oceani sono finestre aperte sull’internet di tutti per molti governi, per non parlare della presenza ubiqua delle telecamere di sorveglianza, che accoppiate con i sistemi di riconoscimento automatizzati rivestono ora un ruolo molto più inquietante di quanto non lo fosse già qualche anno fa. Poi ci sono gli smartphone, che tracciano i nostri spostamenti, custodiscono (male) la nostra corrispondenza e sono dotati di microfoni e telecamere. E ancora le auto che sono parimenti sempre più connesse, i contatori elettrici e i dispositivi di casa che possono raccontare quanti siamo e che facciamo persino dentro casa, dove molti possono buttare un’occhiata attraverso le telecamere ormai presenti anche su computer, televisori e sistemi di sorveglianza remota. Il fenomeno dei pervertiti che s’insinuano nelle baby-cam collegate in rete dai genitori ansiosi per sussurrare sconcezze ai bambini fin nelle loro camerette, è solo un incubo minore, ma rende perfettamente l’idea del tipo di sorprese che può procurare la tecnologia quando è usata senza conoscerne e padroneggiarne i limiti.

A inquietare c’è poi che negli Stati Uniti il 90% degli investimenti nella robotica e nella tecnologia avanzata sono destinati a programmi militari, che sicuramente avranno ricadute civili, ma che mirano ovviamente alla costruzione di macchine da mandare in battaglia al posto degli uomini, come già accade con i droni e che un giorno avranno totale o parziale autonomia. C’è persino chi arriva a sostenere che i robot in battaglia saranno più facilmente programmabili per attenersi a regole d’ingaggio più etiche di quanto non accada con gli umani, che spesso in battaglia perdono memoria delle stesse e si abbandonano alla barbarie.

Le forme e le capacità delle macchine per uccidere del futuro sono varie quanto la fantasia nell’immaginarle, robot antropomorfi o zoomorfi, sciami di mini-droni assassini o mandrie d’inarrestabili robottini corazzati, nessuno sa dire quali saranno le armi di moda nel 22° secolo, ma certo è che gli eserciti come le industrie cercheranno di trarre vantaggio dallo sviluppo dell’Intelligenza Artificiale e di dotarsi dei dispositivi più letali. E prima ancora di arrivare ai Terminator e alle macchine da battaglia autonome c’è da capire come difendersi da improvvisi black-out dei servizi essenziali, perché è vero che la rete ubiqua è e sarà incredibilmente robusta, ma è altrettanto vero che tutto questo funziona alimentato da energia elettrica e «ragiona» in gran parte grazie alla connessione a internet.

Di questioni etiche attorno alla costruzione di armi e sistemi che uccidono uomini in autonomia o quasi, ce ne sono parecchie che meriterebbero sicuramente di essere esplorate con attenzione, ma intanto si progettano e si mettono in produzione armi sempre più indipendenti che renderanno ancora più evidente lo squilibrio tra chi controlla la tecnologia e può lanciare una guerra sicuro di perdere un numero molto limitato di uomini e chi invece ha solo quelli da mettere in campo. Già l’impiego dei droni, che non sono altro che mezzi telecomandati, ha illuminato e fatto emergere grossi problemi etici, figuriamoci cosa accadrebbe se un domani i droni operassero in piena autonomia o quasi. Rappresenterebbero, ovviamente, una seria minaccia nei confronti dell’umanità, e non manca molto perché succeda, la tecnologia per renderlo possibile esiste già, così come già accade che questo genere di strumenti sia impiegato per il controllo sociale e non solo in guerra, ma nonostante tutto questo non c’è traccia di diffuse riflessioni in proposito nel dibattito pubblico.

Bart Selman, un professore della Cornell university che si occupa proprio di etica dell’IA (Intelligenza Artificiale) e che era presente a Porto Rico, ha spiegato che: «cose come la visione dei computer, il riconoscimento vocale, stanno cominciando a funzionare. C’è una certa accelerazione nello sviluppo dei sistemi d’Intelligenza Artificiale. E questo rende più urgente fare attenzione alla questione». Itamar Arel, il fondatore di Binatix, pensa che «è tempo di destinare più risorse per capire l’impatto sociale che possano avere i sistemi d’IA nell’eliminare ancora più lavoratori. Che per me è una certezza, che accadrà per una percentuale tale da non permettere alla società di di adattarsi abbastanza in fretta. È sicuramente una preoccupazione». L’avanzata dell’IA non è ovviamente vista come una disgrazia dai presenti alla conferenza, quello che i firmatari dell’appello cercano di trasmettere non è un allarme isterico, ma piuttosto un forte richiamo a prestare attenzione alla questione e a non aspettare passivamente che la tecnologia dilaghi e dispieghi i suoi effetti più sgradevoli. Perché potrebbero esserlo al punto di materializzare in futuro i peggiori incubi della fantascienza. E una soluzione elegante come scrivere le leggi della robotica ipotizzate da Asimov non potrà funzionare.

«Tutti i sistemi dotati d’IA devono fare quel che vogliamo che facciano» , recita l’appello e parrebbe il minimo, ma in prospettiva appare invece una pretesa difficile da esercitare quando saranno miliardi i dispositivi collegati in rete e quando molti di questi saranno abbastanza autonomi da poter prendere decisioni nocive per l’uomo, se non per l’umanità. I casi recenti di sabotaggi d’impianti atomici o le disavventure occorse ai sistemi automatizzati di borsa hanno offerto solo un assaggio di quanto diventerà possibile. Prima dell’annichilimento dell’umanità c’è tutta una serie di problemi che potrebbero emergere in un mondo che presto sarà popolato d’auto, navi e aerei senza pilota e che vedrà i servizi essenziali affidati alle cure di algoritmi e processori. Robot che guidano, che producono e consegnano cibo ed energia, che regolano le telecomunicazioni, robot che curano, che compiono operazioni chirurgiche. Problemi e questioni etiche che il piccolo gruppo di personalità riunite a Porto Rico ha cominciato a immaginare traendo dall’esercizio un evidente disagio e cattivi presagi. Presagi condivisi anche da Bill Gates, che in una sessione AMA (Ask Me Anything, chiedimi qualsiasi cosa) su Reddit ha rivelato quanti scienziati e addetti ai lavori siano preoccupati dell’avvento di una intelligenza artificiale superiore. Inquietudini da non sottovalutare anche se sono forse situate più avanti nel tempo: «al principio le macchine eseguiranno molti compiti per noi e non saranno super intelligenti. Il che dovrebbe essere positivo se le gestiremo bene. Qualche decennio dopo l’intelligenza artificiale sarà abbastanza forte da diventare soggetto di preoccupazione. Sono d’accordo con Elon Musk e molti altri sul punto, e non capisco quelli che non s’inquietano».

Non si deve pensare che si tratti di speculazioni troppo alte o specializzate da escludere dal dibattito la maggior parte delle persone, sarebbe anzi opportuno che il dibattito si allargasse quanto più possibile ai media, alla politica e al grande pubblico e fosse quanto più possibile multidisciplinare, perché il diffondersi di questa automazione e di robot troppo intelligenti pone problemi etici e pratici che finora sono stati affrontati solo nella letteratura e facendo riferimento a modelli di futuro non troppo aderenti a quelli che saremo presto chiamati ad affrontare. Discussione che è l’obbiettivo primario della lettera uscita dalla conferenza del Life Institute, un preoccupato e convinto invito alla riflessione, e che sia convinto lo provano i 10 milioni di dollari elargiti da Elon Musk all’istituto e altri tangibili contributi già annunciati da parte di protagonisti nel campo delle tecnologie avanzate, ma soprattutto lo provano le qualità e la reputazione dei firmatari, tutti studiosi o imprenditori nel settore delle tecnologie avanzate. Nessuno può dire come sarà la vita degli uomini nel mondo popolato dai robot e nessuno può garantire che tutto andrà bene semplicemente affidandosi al laisser faire, ma chi se ne intende sta cercando di dire ai media, ai politici e ai cittadini che bisognerebbe discutere per tempo e possibilmente adottare alcune cautele e regole condivise per evitare almeno gli inconvenienti più catastrofici e quelli più facilmente prevedibili.

Pubblicato in Giornalettismo

Annunci