di Simone Cosimi

È vero: le tre leggi della robotica formulate nel 1942 da Isaac Asimov, padre della narrativa fantascientifica, nel racconto Circolo vizioso, non trovano al momento una vera applicazione nella realtà. Seppur molto avanzati e a volte impressionanti (basti pensare alle ipertecnologiche “bestiole” della Boston Dynamics) i robot con cui abbiamo a che fare sono ancora ben lontani dal tramutarsi in creature pensanti. Eppure il provocatorio esperimento condotto di recente dal Media Lab del Mit di Boston ci riporta a quel genere di implicazioni, al confine con la roboetica.

In realtà, in questo caso si parla più strettamente di intelligenza artificiale, machine learning e deep learning. I ricercatori del prestigioso laboratorio di Cambridge hanno infatti programmato e battezzato Norman, dal nome dell’inquietante Norman Bates, l’Anthony Perkins di Psycho nonché, ancora prima, il protagonista dei romanzi di Robert Bloch. Un sistema automatizzato addestrato in modo da presentare le dinamiche tipiche della psicopatia. In altre parole hanno partorito un algoritmo psicopatico.

L’esperimento non è ovviamente fine a se stesso. Al contrario l’algoritmo Norman, allenato a suon di apprendimento automatico sulla base delle peggiori nefandezze individuabili sull’aggregatore statunitense Reddit, in particolare da un canale intitolato /watchpeoplediededito alla documentazione e all’osservazione dell'inquietante realtà della morte”, serve a far suonare l’allarme sul futuro prossimo. E a mettere in chiaro come uno dei fattori fondamentali per sperare di governare l’IA sarà proprio il punto di partenza: quali dati vengono forniti in pasto alle reti neurali artificiali, che genere di pregiudizi si portano dietro, chi li ha selezionati e prodotti, quali sono le fonti e gli obiettivi.

Le interpretazioni fornite da Norman al test di Rorschach, noto anche come test delle macchie di inchiostro ideato negli anni Venti dall’omonimo psicologo svizzero, non lasciano d’altronde spazio a dubbi. I suoi feedback sono stati confrontati con quelli di un’altra rete neurale addestrata invece con un dataset neutrale (l’MsCoco Dataset), vale a dire scevro di elementi oscuri, raggelanti e macabri come quelli usati per Norman. Al contrario, l’MsCoco Dataset è ricco di fiori, piante e animali. Ebbene, a quel test psicometrico, usato dagli specialisti per valutare la personalità e nel quale si domanda al paziente di interpretare una serie di macchie simmetriche d’inchiostro riferendo ciò che ci vedono, l’algoritmo psicopatico ha fornito risposte sconvolgenti.

Per esempio, dove la rete neurale di controllo immaginava degli uccelli appollaiati su un albero Norman vedeva un uomo sottoposto alla sedia elettrica. Ancora, dove l’AI allenata in modo neutrale immaginava un vaso di fiori l’altra riferiva di visualizzare un uomo ammazzato a colpi d’arma da fuoco. E così via: se la rete di controllo pensava a una certa macchia come a un ombrello bianco e rosso Norman individuava una persona uccisa da una scarica elettrica mentre cerca di attraversare una strada trafficata. Oppure, al posto di un gruppo di persone alla finestra, l’algoritmo psicopatico immaginava che quelle stesse persone stessero per gettarsi. Infine, solo per limitarci a pochi esempi, Norman vedeva un uomo ucciso davanti alla moglie che urla dove l’AI non psicopatica immaginava “una persona che tiene un ombrello in aria”. Sangue, distruzione, armi, violenza frutto di carenza di empatia, di paranoie, di inganno e di costruzioni fin troppo fantasiose al posto di interpretazioni invece lineari.

Esiti che danno il polso dell’importanza dei dataset di partenza. Proprio per fare in modo che quegli algoritmi manifestino il massimo dell’equidistanza e possano lavorare liberi da bias e pregiudizi. Quando un domani dovessero sovrintendere le scelte esiziali di un androide nei confronti di un essere umano ma anche oggi, applicati ai tanti servizi che già coordinano. Basti pensare ai sistemi di controllo dei contenuti pubblicati online, ai sistemi di navigazione, alle applicazioni sui social network, al riconoscimento facciale, alle assistenti virtuali che (vedi alla voce Duplex di Google) si spacciano per reali.

I dati, insomma, contano più degli algoritmi. Questa la sentenza di Iyad Rahwan, professore associato del Mit e componente del team che ha sviluppato Norman insieme a Pinar Yanardag e Manuel Cebrian: “Il test mette in evidenza l’idea che i dati che usiamo per addestrare le intelligenze artificiali si riflettano nel modo in cui quegli stessi sistemi percepiscono il mondo e decidono il modo in cui comportarsi” ha detto alla Bbc. Ecco perché, un po’ come i videogame si portano dietro le storture e gli stereotipi di chi li programma, anche il variegato mondo delle intelligenze artificiali possono assimilare quelle e altre strutture. Fino a sfiorare, lo ha provato Norman, i confini di un disagio mentale. Un altro studio, pubblicato nel maggio dello scorso anno, aveva in effetti scoperto come un sistema sfruttato da una corte statunitense per valutare i rischi collegati ai detenuti penalizzasse quelli di colore.

Molte delle responsabilità ricadono insomma su programmatori e ingegneri che, secondo Rahwan, devono trovare un modo per “bilanciare i dati”. Al contempo, come questi esempi di intelligenza artificiale dimostrano in modo lampante, non possono essere lasciati soli. Studiare l’intelligenza artificiale significa anche impegnarsi a stilare – come molti giganti hi-tech hanno provato a fare in questi ultimi mesi, basti ricordare le recenti dichiarazioni di Satya Nadella, Ceo di Microsoft, Mark Zuckerberg di Facebook e Sundar Pichai di Google – dei veri e propri protocolli. Delle regole che prendano anche atto di questi studi, che trattino cioè i comportamenti dell’AI “allo stesso modo di quelli degli esseri umani”. Forse, come si diceva, una roboethics, forse una psicologia dell’intelligenza artificiale che valuti i dati forniti in partenza e sottoponga le menti artificiali a verifiche periodiche.

Il nostro obiettivo era quello di rendere l’opinione pubblica consapevole di questa problematica. E di stimolare il dibattito su questo tema” hanno d’altronde spiegato gli autori, che lo scorso anno avevano lanciato Shelley, un esperimento altrettanto singolare di letteratura d’orrore condivisa fra esseri umani e macchine. Se nella comunità scientifica il tema è ben chiaro – lo è da tempo, già nel 2015 Frank Pasquale scriveva The Black Box Society in cui affrontava questi rischi – il fronte dei dati rimane piuttosto oscuro all’opinione pubblica. “Quando addestriamo le macchine attraverso la nostra cultura trasferiamo loro i nostri pregiudizi” ha spiegato Joanna Bryson dell’università di Bath, in Inghilterra. Supervisione e più trasparenza, ha aggiunto supportata da molti altri esperti del settore come l’ex Microsoft Dave Coplin, saranno le parole chiave del futuro.