Contemporanea

A cura della redazione

2.1 La bicicletta del XXI secolo

In “Memory & Imagination: New Pathways to the Library of Congress”, documentario del 1990, la biblioteca del Congresso americano aveva deciso di coinvolgere alcune personalità influenti del mondo della cultura di quegli anni in un racconto promozionale sui tesori contenuti tra le sue mura. Con l’avvento dei personal computer, la biblioteca più grande del mondo aveva iniziato così a sperimentare nuove opportunità di divulgazione e conoscenza sfruttando a proprio vantaggio le nuove tecnologie. All’interno del documentario un giovanissimo Steve Jobs commentava: “Penso che una delle cose che ci distingue davvero dai primati superiori è che siamo costruttori di strumenti. Ho letto uno studio che misurava l’efficienza della locomozione rispetto a varie specie del pianeta. Il condor ha utilizzato meno energia per percorrere un chilometro, gli umani invece hanno ottenuto un risultato piuttosto insignificante, classificandosi abbastanza in fondo nella lista. Ma poi qualcuno allo Scientific American ha avuto l’intuizione di testare l’efficienza della locomozione di un uomo in bicicletta. E un uomo in bicicletta, un essere umano in bicicletta, ha spazzato via il primato del condor, completamente. E questo è ciò che un computer è per me: è lo strumento più straordinario che abbiamo mai inventato ed è l’equivalente di una bicicletta per le nostre menti”.

Certamente dagli anni Novanta ad oggi quella “bicicletta” di cui parlava Jobs ha compiuto tanta, tantissima strada. Progressi tecnologici si sono susseguiti ad un ritmo impressionante fino ad arrivare ai giorni nostri: la tecnologia è ormai parte integrante delle nostre vite, permea la quotidianità e ha stravolto per sempre le nostre abitudini, a tutte le latitudini. Con una chiarezza però inedita prende campo oggi una riflessione ampia sul futuro del nostro rapporto con le innovazioni tecnologiche. È percepito a più livelli il desiderio di comprendere le conseguenze di uno sviluppo non controllato di questi strumenti, di cui oggi avvertiamo insieme i limiti e il potenziale davvero straordinario, non senza una vena di inquietudine. Con quale sguardo affrontare questi cambiamenti tecnologici? Quando hanno ragione ad essere percepiti come minacce?  Quali impatti sul mondo del lavoro, sulle relazioni sociali dobbiamo a tutti i costi prevenire?

L’espressione “artificial intelligence” fu coniata a metà degli anni Cinquanta dal celebre informatico statunitense John McCarthy, rielaborata nel corso degli anni a più riprese (non da ultimo in un suo prezioso testo del 2007, in cui sotto forma di domande e risposte guida il “laico” nella comprensione delle basi di questa disciplina). Nelle parole di McCarthy, l’AI “è la scienza e l’ingegneria per creare macchine intelligenti, in particolare programmi intelligenti per il computer. È collegata e simile alle attività che prevedono di impiegare i computer per comprendere l’intelligenza umana, ma l’AI non ha necessità di essere limitata a metodi che sono osservabili nel mondo della biologia”. Il termine AI a ben vedere è un macro-contenitore: comprende sia una accezione generativa (la possibilità di attingere a dati per produrre analisi e opere di pensiero) sia tutti quei processi di automazione industriale utilizzati ormai su vasta scala da parecchi anni, sia i vasti progressi nel campo medico e scientifico che hanno rivoluzionato in positivo la quotidianità di tanti.

“L’intelligenza artificiale sta già arricchendo le nostre vite, spesso in modi che potremmo non notare. L’AI alimenta i nostri sistemi di navigazione, è sfruttata in migliaia di screening medici quotidiani, mette in ordine miliardi di lettere dei nostri servizi postali. Negli ultimi due anni, l’AI ha rivelato la struttura di centinaia di migliaia di proteine e viene utilizzata per migliorare la qualità delle cure negli ospedali, per eseguire previsioni meteo sofisticate, per guidare lo sviluppo di nuovi materiali e per fornire agli ingegneri idee per il potenziamento della loro creatività. Crediamo che l’AI sarà sempre più centrale nei campi della sanità, clima, istruzione, ingegneria”. Con queste parole l’Association for the Advancement of Artificial Intelligence ricordava nell’aprile di quest’anno alcuni degli ambiti di utilizzo dell’AI per i quali il progresso scientifico ha contribuito in maniera determinante a cambiare la vita di milioni di persone. Nessuno desidera tornare indietro rispetto a queste conquiste, per le quali la tecnologia ci consente di fare cose importanti, utili, risparmiando risorse e tempo.

Sono gli sviluppi dell’accezione generativa dell’AI che incutono oggi più timore, generano allarmismo e aprono scenari inesplorati. Nel marzo di quest’anno ha avuto una certa risonanza la pubblicazione di una lettera aperta sottoscritta da più di mille tra ricercatori e leader del settore della tecnologia (tra i firmatari Elon Musk, Steve Wozniak, co-fondatore di Apple, Andrew Yang, imprenditore e candidato alle elezioni presidenziali Usa del 2020). Nel testo si affermava che i sistemi di intelligenza artificiale rappresentano “profondi rischi per la società e l’umanità” e si metteva in guardia dal fatto che gli sviluppatori di AI stanno gareggiando per creare tecnologie sempre più potenti senza comprenderne completamente gli effetti o essere in grado di prevedere o controllare in modo affidabile il loro comportamento. La richiesta principale dei firmatari era quindi una pausa nello sviluppo di sistemi di AI più avanzati, in particolare GPT-4, la chatbot introdotta da OpenAI, co-fondata proprio da Elon Musk. La pausa avrebbe consentito il tempo necessario per stabilire “protocolli di sicurezza condivisi” per questi sistemi, e se ciò non fosse avvenuto allora i governi sarebbero dovuti intervenire ed istituire una moratoria sullo sviluppo di tali sistemi. La lettera ha generato un discreto clamore mediatico ma non ha prodotto il risultato auspicato.

Il controverso movimento di pensiero “Effective altruism” (EA) in questi anni ha contribuito a propagandare un dibattito dai toni sempre più cupi rispetto ai rischi dettati dallo sviluppo dell’AI e dai margini della discussione è riuscito a consolidare questa visione come mainstream. Ricchi filantropi e imprenditori hanno così coinvolto nella discussione studenti delle più prestigiose università del mondo, aggiungendo voci e riflessioni al loro coro di catastrofe. Riprendendo le parole del Washington Post, “i college sono stati fondamentali per questa strategia di crescita del movimento EA (…) Nell’ultimo anno e mezzo, gruppi per una gestione in sicurezza dell’intelligenza artificiale sono sorti in circa 20 campus negli Stati Uniti e in Europa, tra cui Harvard, Georgia Tech, MIT, Columbia e New York University (…) Molti di questi nuovi leader studenteschi percepiscono l’intelligenza artificiale “canaglia”, come una minaccia urgente e trascurata, che potenzialmente si contende il primato con il cambiamento climatico nella sua capacità di porre fine alla vita umana. Molti vedono l’AI come il Manhattan Project della loro generazione”.

Sicuramente controverso è il rapporto tra sviluppo dell’AI e i rischi dettati dall’espandersi di fenomeni di disinformazione e manipolazione. Un avanzamento delle tecnologie non regolamentato può condurre – a detta di tanti – a una pericolosa alterazione di fenomeni politici e sociali. “Internet sarà inondato di foto, video e testi falsi: la persona media non sarà più in grado di sapere cosa è vero”, commenta uno dei padri dell’AI moderna, l’informatico Geoffrey Hinton. C’è una linea di demarcazione tra informazione e manipolazione che l’AI ha reso più sottile e sbiadita. La “fame di dati” di cui si servono queste tecnologie, l’osservazione costante dell’utente, le tracce digitali che ognuno di noi lascia anche non consapevolmente, la registrazione delle nostre abitudini online, le preferenze espresse, tutto ciò alimenta il cosiddetto “microtargeting comportamentale”. Campagne di marketing mirate e personalizzate, creazione di echo chambers tramite la ricezione di idee e informazioni che sostengono il proprio punto di vista silenziando il confronto e polarizzando le idee: la tecnologia ha consegnato agli algoritmi una posizione di controllo sulle nostre vite iperconnesse dalla quale è difficile fuggire. Il caso Cambridge Analytica ha mostrato le conseguenze concrete e opache di questa manipolazione silenziosa dell’utente – ne ha parlato brillantemente la giornalista inglese Carole Cadwalladr a proposito del referendum sulla Brexit del 2016: “Non esiste un archivio degli annunci che le persone vedono o di ciò che è stato inserito nei loro feed di notizie. Nessuna traccia di nulla… L’intero referendum si è svolto nell’oscurità, si è svolto interamente online”. 

I risvolti geopolitici dell’utilizzo dell’AI sono allo stesso modo interessanti da analizzare. Come prevenire le interferenze di agenti esterni nello svolgimento di elezioni libere? Come coinvolgere le grandi compagnie tecnologiche nelle decisioni prese dagli attori statali? Non secondarie sono le ripercussioni in termini di salute mentale (specialmente sui più giovani) e in termini di impatto sui processi creativi nella produzione di contenuti musicali, notizie, libri. In quest’ultimo caso gli analisti parlano di “tragedia dei beni comuni”, quando i contribuiti originali (audio, video, testi) condivisi in rete vengono utilizzati per allenare i sistemi di intelligenza artificiale senza nessun tipo di autorizzazione a riguardo, alimentando la “fame di dati” delle tecnologie.

Appare evidente come questa materia sia ad oggi ancora una sorta di territorio inesplorato, di cui si percepiscono le potenzialità e allo stesso tempo i pericoli incombenti. Nello Cristianini lo sintetizza efficacemente nel suo ultimo volume “La Scorciatoia”: la chiave per convivere con queste trasformazioni incredibilmente rapide sta nel “regolare, non spegnere”. Non è realisticamente possibile e nemmeno augurabile poter tornare indietro, riavvolgere il nastro e “staccare” l’interruttore, come suggerì ironicamente il Presidente Obama nel 2016 nel corso di una intervista sull’AI. La strada da percorrere è quindi quella di cercare di regolamentare il settore. Osserva il professor Giorgio Parisi, premio Nobel per la Fisica 2021: “Insomma, stiamo certamente aumentando la capacità dell’uomo. E come le macchine ci permettono di aumentare la nostra capacità manuale, così l’AI ci consente di aumentare quella intellettuale. Ma ci sono comunque dei pericoli (…) Anche l’AI ha assolutamente bisogno di essere regolata. Le persone che vedono una foto hanno il diritto di sapere se è vera o artificiale per non perdere la certezza, che attualmente abbiamo, di dire che un fatto è realmente avvenuto. I cambiamenti devono essere controllati e regolati, altrimenti tendono a portare al disastro”.

La chiave per convivere con queste trasformazioni incredibilmente rapide sta nel “regolare, non spegnere.

Un primo tentativo è stato messo in campo dall’Unione Europea: il Parlamento ha infatti approvato lo scorso 14 giugno la proposta di legge denominata Artificial Intelligence Act (per la sua entrata in vigore definitiva avrà poi bisogno dell’approvazione anche da parte del Consiglio dell’UE). Si tratta di una legge particolarmente attesa a livello internazionale, un primo tentativo per l’istituzione di un quadro normativo uniforme all’interno dell’UE sulla materia. In sintesi, l’atto richiede che i sistemi di AI siano trasparenti e in grado di spiegare il loro funzionamento in modo comprensibile agli utenti. È stata inoltre regolamentata la raccolta e l’utilizzo di dati per addestrare sistemi di AI, inclusi i divieti sulla raccolta di dati sensibili o discriminatori.

Lo scorso 30 ottobre il Presidente Biden ha firmato un ordine esecutivo per regolamentare il modo in cui il governo federale statunitense utilizza l’intelligenza artificiale, riconoscendo tuttavia la necessità che il Congresso adotti una legislazione bipartisan in materia andando a regolamentare più incisivamente il settore privato – in un Congresso particolarmente diviso diversi progetti di legge su questo tema sono di fatto arenati. L’ordine esecutivo è diretto alle agenzie federali USA e costringe quindi in seconda battuta le aziende private a rispettare gli standard stabiliti dai “clienti” governativi. Le norme prevedono obblighi di rendicontazione delle società circa le misure di sicurezza informatica adottate e l’addestramento di nuovi modelli, ma anche disposizioni per attrarre talenti stranieri nel campo verso centri di ricerca e laboratori americani. L’ordine esecutivo riguarda chiaramente solo aziende statunitensi, quando sappiamo benissimo che lo sviluppo di queste tecnologie non conosce confini. Per questo gli USA hanno intenzione di portare avanti un lavoro diplomatico mirato, nella speranza che altri Paesi alleati adottino legislazioni simili. La cooperazione tra aziende e governi in questo ambito riveste una importanza fondamentale, e la via da seguire potrebbe non essere limitata ai soli canali legislativi e dovrebbe veder coinvolte organizzazioni, mondo accademico, società civile. Per modellare la traiettoria di sviluppo dell’AI “occorre una governance globale, non si può pensare che la sviluppi un solo Paese con proprie regole. Con la comunità internazionale bisogna condividere i principi etici e le misure di sicurezza per evitare che lo strumento ci sfugga di mano”, ricorda Bruno Frattasi, direttore dell’Agenzia per la cybersicurezza nazionale italiana. Un tentativo in questa direzione è stato fatto dal governo conservatore inglese, che ha indetto un summit sul tema a Londra a inizio novembre 2023. L’evento ha coinvolto delegati di 28 Paesi (tra gli altri, Cina, USA e i governi della UE), in dialogo con dirigenti di aziende leader del settore tecnologico (Google DeepMind, Ibm, Microsoft, Nvidia, OpenAI tra le altre). La dichiarazione firmata a conclusione del summit rappresenta un primo passo per una gestione condivisa delle sfide poste dall’AI e prevede in estrema sintesi la collaborazione delle parti a garantire sicurezza nello sviluppo dei modelli di AI, “per garantire che i vantaggi della tecnologia possano essere sfruttati in modo responsabile per il bene e per tutti”.

Il dibattito sul tema ha bisogno di essere affrontato secondo un approccio pragmatico, sostiene Jaron Lanier, informatico, filosofo e saggista. L’AI dovrebbe essere essenzialmente pensata come uno strumento e non come una “creatura” di per sé. Nell’analisi di Lanier un ruolo centrale è rivestito dal concetto di “data dignity”. In un mondo in cui sempre più dati personali vengono raccolti, elaborati e utilizzati da aziende e organizzazioni per gli scopi più disparati, Lanier sostiene che i singoli individui dovrebbero avere il diritto di esercitare un controllo significativo sui propri dati. Il concetto di “dignità dei dati” si oppone a pratiche in cui le aziende raccolgono dati personali senza il pieno consenso degli utenti o li utilizzano per obiettivi che possono ledere la privacy o influire negativamente sulla vita delle persone. Lanier sostiene che, se le persone avessero il controllo dei propri dati, potrebbero essere in grado di negoziare in modo più equo l’uso delle proprie informazioni e ricevere una compensazione adeguata quando i propri dati vengono utilizzati per scopi commerciali.

Le nuove tecnologie allargano il panorama delle informazioni, ma ne riducono la verificabilità”, sostiene il filosofo Adriano Pessina. Le implicazioni sociali ed antropologiche derivanti da questo rapidissimo sviluppo tecnologico sono complesse e intricate da decifrare. Dalla foto del finto arresto di Donald Trump a quella che ritrae Papa Francesco con un piumino oversize, possiamo aspettarci che le immagini e i video generati dall’intelligenza artificiale saranno sempre più difficili da distinguere dalla realtà. Dato atto che alcuni tentativi in campo normativo sono stati messi in campo, cultura critica, giudizio, educazione, memoria, sembrano essere i migliori strumenti per distinguere il vero dal falso e le tante ambiguità reperite online che influenzano i nostri comportamenti ed abitudini. Riprendendo le parole di Pessina, è cruciale “far riflettere le persone sull’esperienza che stanno facendo (…) Ci troviamo di fronte a nuove forme di solitudine. Nella pandemia le tecnologie ci hanno permesso di superare l’isolamento, ma hanno evocato il desiderio dell’incontro fisico, reale, manifestando il senso della solitudine. I nuovi software di dialogo sono dei surrogati relazionali. Ma resta la nostalgia dell’origine”.

Da semplice “bicicletta per le nostre menti”, la rivoluzione digitale e gli sviluppi degli ultimi anni hanno sprigionato un incredibile potenziale. Abbiamo tra le mani strumenti davvero efficaci, da cui ormai dipendiamo e per i quali dobbiamo introdurre regole per una convivenza futura. Il dibattito attuale ha il pregio di aver gettato una luce sul presente e di aver rimesso al centro il rapporto dell’individuo con la realtà virtuale, la vita vissuta. Lanier coglie questa sfumatura con attenzione: “Se lavori con la realtà virtuale, finisci per chiederti prima di tutto cosa sia la realtà. Nel corso degli anni ho tentato una possibile definizione di realtà: è la cosa che non può essere perfettamente simulata, perché non può essere misurata fino in fondo. Le informazioni digitali, i dati, possono essere perfettamente misurati, perché questa è la loro stessa definizione. Questo li rende irreali. Ma la realtà è irrefrenabile, irreprimibile”.

Se lavori con la realtà virtuale, finisci per chiederti prima di tutto cosa sia la realtà.