Intervista con Nello Cristianini
2.4 Il conflitto delle paure
Nello Cristianini è professore di Intelligenza Artificiale presso l’Università di Bath, nel Regno Unito. Ha pubblicato quest’anno con Il Mulino “La Scorciatoia. Come le macchine sono diventate intelligenti senza pensare in modo umano”, un volume che ha il pregio di parlare a una vastissima platea di lettori facendo uso di un linguaggio accessibile e ricorrendo con ad argomentazioni chiare, ricche di esempi e di facile immedesimazione. Un grande pregio del volume è quello di costruire una “base comune” di fatti e terminologia dalla quale prendere le mosse per un dialogo a tutto campo sull’Intelligenza Artificiale.
In apertura de “La scorciatoia” ci aiuta ad abbandonare una certa visione antropocentrica dell’intelligenza e il mito “di una presunta superiorità del cervello umano in confronto a qualsiasi altro prodotto dell’evoluzione”. Sgombriamo quindi subito il campo da fraintendimenti: cosa intendiamo oggi quando parliamo di intelligenza artificiale?
L’intelligenza è l’abilità di affrontare situazioni mai incontrate prima, come una nuova configurazione della scacchiera o una frase mai pronunciata finora, e comportarsi in modo appropriato. Questo vale per gli animali, le organizzazioni, e anche le macchine. Youtube è in grado di comportarsi in modo molto efficiente anche quando ci sono video e utenti nuovi.
Se accettiamo che l’intelligenza non richiede la coscienza, o il linguaggio, e non conduce necessariamente all’arte e alla matematica, ma serve solo a sopravvivere, iniziamo presto a riconoscerla ovunque. Siamo circondati dall’intelligenza.
Il binomio dati-algoritmi di machine learning gioca un ruolo fondamentale nello sviluppo degli agenti intelligenti– non solo la quantità crescente di “tracce digitali” ma soprattutto la qualità dei dati reperiti. Come vengono raccolti questi dati di cui si serve l’AI? Abbiamo ad oggi strumenti efficaci di protezione di nostre informazioni sensibili online?
La prima scorciatoia consiste nel fare uso di relazioni statistiche, al posto di teorie esplicite, mentre la seconda nel fare uso di dati riciclati da risorse “preesistenti in natura”, come quelle delle vendite, o dei social media, o le traiettorie di un veicolo. È ovvio che a questo punto, raccogliendo dati di quel tipo, c’è il rischio di varcare dei confini, e arrivare in settori protetti dalla legge, come per esempio i dati personali. Questo è solo uno dei molti modi in cui l’AI ci mette di fronte a dilemmi etici, da cui non possiamo fuggire.
Abbiamo delegato le tecnologie a scegliere al posto nostro, compiendo scelte che si basano sulla regolarità nell’osservazione di nostri comportamenti. Il crinale che separa l’“algoritmo di raccomandazione” dalla manipolazione è davvero sottile. Tra le pagine del suo libro cogliamo un’attenzione e una preoccupazione a livello educativo rivolta ai più giovani. Può spiegarci da dove nasce questo sguardo? Quale soluzione intravede agli effetti collaterali che derivano dal loro uso dei social media?
Il potere dell’AI deriva dal luogo in cui l’abbiamo collocata, al centro della nostra infrastruttura globale, che usiamo per comunicare, fare transazioni, lavorare, imparare, intrattenerci. Delegando ad essa il potere di scegliere le notizie che leggiamo, le e-mail che filtriamo, i video che guardiamo, è chiaro che le diamo il potere di influenzarci, anche se non abbiamo ancora sufficienti conoscenze scientifiche per capire in quale modo siamo influenzati. Abbiamo l’obbligo di studiare gli effetti di queste pratiche, come raccomandare contenuti video ad adolescenti sulla base delle loro attività precedenti, per capire se questi possono avere effetti imprevisti, come la polarizzazione o la dipendenza comportamentale.
I rischi dell’AI generativa sono sotto gli occhi di tutti e forse non ancora ampiamente dibattuti. Nel suo testo scrive che “non possiamo realisticamente ritornare a un mondo senza Intelligenza Artificiale, così dobbiamo trovare un modo di convivere in sicurezza con questa tecnologia”. Da dove è necessario partire quindi a suo avviso per arginare gli scenari – talvolta apocalittici – che si affacciano ogniqualvolta si dibatte di AI? Timore e paura sono sentimenti motivati a suo giudizio?
La paura è utile se ci porta a studiare meglio la situazione, e a spingere leggi chiare e forti per regolamentare, ma non è utile quel tipo di paura che ci spinge a rigettare il progresso.
I benefici di queste tecnologie saranno sentiti da molti, e sarebbe irresponsabile oltre che impossibile rinunciarvi. Ma abbiamo l’obbligo di assicurarci che queste vengano sviluppate in un modo compatibile con i nostri valori, che in Italia sono quelli europei e anche quelli dell’umanesimo.
Nel prologo de “La scorciatoia” riporta un episodio legato a don Antonio, il prete del convento del suo paese che nella sua adolescenza lo aiutava con le ripetizioni di greco e che sentenziava di fronte alle abilità dei computer dell’epoca “queste cose non saranno mai migliori di noi”. Nell’epilogo invece riprende le parole dei redattori di Amazon che nel 1999 commentano “La gloriosa confusione della carne e del sangue prevarrà” sulle macchine. Da cosa deriva questa certezza che anche lei condivide proprio nelle battute finali del suo libro?
Sono convinto che stiamo vivendo un momento storico, e dobbiamo essere all’altezza del ruolo che ci troviamo ad avere. Le decisioni che prenderemo nei prossimi anni influenzeranno il futuro. Ma quando incontro i lettori giovani, e parlo con loro, vedo che si rifiutano di avere paura, e quindi anche noi dobbiamo fare lo stesso. Alla fine, troveremo il modo di convivere con le nostre creature, secondo i nostri valori, e lo faremo come sempre: studiando, capendo, facendo le leggi, creando nuove idee che al momento ancora non esistono. Nei momenti come questo, gli esseri umani danno il meglio di sé.
Nello Cristianini
Professore di Intelligenza Artificiale presso l’Università di Bath, nel Regno Unito. Nel corso della sua carriera accademica ha insegnato presso l’Università di Bristol e l’Università della California, Davis. La sua ricerca copre la teoria statistica dell’apprendimento nelle macchine, la comprensione del linguaggio naturale, l’analisi dei contenuti dei social media, e l’impatto etico e sociale delle tecnologie intelligenti.