Contemporanea

Giuseppe Riva

2.3 Previsione, ragione, decisione

Nei media esistono due principali narrazioni associate all’intelligenza artificiale, spesso con valutazioni contrastanti. Da un lato, c’è la narrazione “positiva”, che vede l’AI come il trionfo della mente umana, che è in grado di imitare sé stessa e perfino di superarsi. In questa prospettiva, l’AI conquista territori che erano tradizionalmente riservati all’intuito, all’ispirazione e al pensiero umano, aprendo nuove possibilità. Dall’altro lato, c’è una narrazione più centrata sull’essere umano, che si preoccupa dell’impatto di questa tecnologia nelle varie sfaccettature della nostra vita, inclusi il lavoro e le relazioni interpersonali.

Queste due narrazioni spesso si presentano come concetti separati e offrono visioni contrastanti della rivoluzione digitale. Per questo, c’è un urgente bisogno di riflettere in modo integrato sull’intelligenza artificiale e sulle sue implicazioni, considerando entrambi questi punti di vista.

Tuttavia, raggiungere questo obiettivo non è affatto semplice a causa del livello di autonomia e indipendenza senza precedenti con cui l’Intelligenza Artificiale agisce. Questa nuova forma di intelligenza ha infatti introdotto una categoria completamente nuova di attori – gli “agenti artificiali” – che elaborano informazioni per poi prendere decisioni in maniera completamente autonoma. Ad esempio, nell’ambito sanitario, vengono impiegati per decidere quale terapia proporre a un paziente, nell’ambito bancario per determinare se concedere un mutuo o un prestito, e nell’ambito giudiziario per valutare il rischio di recidiva e decidere se rilasciare o trattenere un sospetto.

Questi nuovi contesti riflettono la crescente complessità dell’interazione tra esseri umani e intelligenza artificiale, e richiedono un’analisi più approfondita delle implicazioni e delle conseguenze dell’uso dell’AI.

A spingere verso l’uso dell’AI come sistema di decisione è la sua capacità di fare previsioni corrette. L’AI è infatti in grado di apprendere dalle esperienze passate identificando pattern ricorrenti presenti all’interno di grandi quantità di dati, riuscendo a prevedere se il soggetto pagherà il proprio prestito o se reagirà alla terapia.

Tuttavia, prevedere è molto diverso da spiegare. La previsione si riferisce alla capacità di predire o anticipare un evento futuro basandosi su dati passati o presenti. In altre parole, è l’abilità di fare stime o predizioni sugli eventi che non sono ancora accaduti. Per riuscirci l’AI utilizza modelli matematici e algoritmi per identificare schemi e tendenze nei dati esistenti, al fine di fare previsioni sugli eventi futuri. Per esempio, prevedere il prezzo delle azioni in base alle loro prestazioni passate o prevedere il tempo in base ai dati meteorologici storici.

Tuttavia, prevedere è molto diverso da spiegare.

La spiegazione è invece un processo completamente differente. La spiegazione cerca di comprendere il motivo o la causa di un determinato fenomeno analizzando le relazioni causa-effetto tra variabili o eventi. In pratica, nella spiegazione, l’attenzione è rivolta a identificare le cause sottostanti di un evento o di un comportamento osservato. Questo di solito richiede l’analisi dettagliata delle variabili coinvolte e la comprensione delle interazioni complesse tra di esse.

Quello che potrebbe non essere immediatamente chiaro è che è possibile fare ottime previsioni senza necessariamente comprendere e spiegare il fenomeno sottostante. Un esempio semplice è quello di un bambino che, vedendo la luce che filtra dalla sua finestra, può prevedere che prima della fine della giornata sarà buio. Questa previsione è intuitiva e quasi istintiva, anche se il bambino potrebbe non essere in grado di spiegare il complesso meccanismo che causa il passaggio dal giorno alla notte: la rotazione della Terra attorno al proprio asse. In altre parole, la capacità di fare previsioni può esistere anche senza una comprensione completa delle ragioni scientifiche o delle spiegazioni dietro un fenomeno.

È importante sottolineare anche come la differenza tra previsione e spiegazione si riflette nelle due modalità di pensiero che operano nel nostro cervello. Come spiegato da Daniel Kahneman, che ha vinto il premio Nobel in economia per le sue ricerche, il processo decisionale è governato da due sistemi di pensiero distinti: il Sistema 1, che è intuitivo, e il Sistema 2, che è basato sul ragionamento.

Ognuno di questi sistemi ha i propri vantaggi e svantaggi specifici. Mentre il Sistema 1 guida il comportamento quotidiano attraverso previsioni immediate, il Sistema 2 eccelle nella comprensione delle relazioni causa-effetto, nella capacità di ritardare la gratificazione e nel pianificare scenari futuri.

Non solo. Il processo di ragionamento (Sistema 2) è deliberato, controllato, lento e richiede sforzo, producendo giudizi espliciti e intenzionali, ossia spiegazioni chiare e dettagliate. D’altra parte, la modalità intuitiva (Sistema 1) è automatica, veloce e difficile da controllare o modificare. Questa modalità produce previsioni istantanee basate su impressioni relative alle caratteristiche degli oggetti che percepiamo e pensiamo.

L’esistenza di due diversi sistemi cognitivi mette in luce una relazione essenziale tra previsione e spiegazione nel contesto dell’intelligenza umana. Le previsioni accurate consentono un certo grado di controllo sui processi naturali: ci permettono di anticipare gli eventi e prepararci di conseguenza. D’altra parte, le spiegazioni forniscono le basi per generare nuove previsioni quando quelle esistenti si rivelano insufficienti. Sono come mattoni fondamentali nel costruire la nostra comprensione del mondo, fornendo una struttura concettuale su cui possiamo sviluppare teorie e fare previsioni più precise.

Tuttavia, quando si tratta di intelligenza artificiale, c’è una lacuna significativa. Le previsioni generate dall’AI non sono ancora accompagnate da una modalità di ragionamento che sia in grado di correggere ed espandere queste previsioni esistenti. Mentre l’intelligenza artificiale può apprendere dai dati storici e fare previsioni basate su tali informazioni, manca spesso la capacità di concepire scenari del tutto nuovi. Questo limite deriva dal fatto che queste previsioni sono ancorate esclusivamente nelle nostre esperienze passate e nei dati utilizzati per l’addestramento.

Mentre l’intelligenza artificiale può apprendere dai dati storici e fare previsioni basate su tali informazioni, manca spesso la capacità di concepire scenari del tutto nuovi.

Quindi, mentre il nostro cervello umano è in grado di trarre spiegazioni complesse e immaginare possibilità al di là delle esperienze passate, l’intelligenza artificiale, almeno al momento attuale, è confinata a previsioni basate esclusivamente su dati storici. Questo divario sottolinea l’importanza di sviluppare nuove metodologie e approcci nell’intelligenza artificiale, affinché possa non solo fare previsioni accurate ma anche generare spiegazioni e concepire scenari innovativi, simili a quelli che il nostro cervello umano è in grado di immaginare.

C’è anche un altro problema. Sia l’intelligenza artificiale che gli esseri umani possono commettere errori. Tuttavia, esistono differenze sostanziali tra i due casi. La differenza più significativa riguarda la capacità di spiegare le decisioni prese. Noi, esseri umani, siamo in grado di spiegare le nostre scelte, ma questo non è possibile per la maggior parte dei sistemi di intelligenza artificiale. Le reti neurali, utilizzate nell’intelligenza artificiale, prendono decisioni basate su ciò che hanno imparato e non su ragionamenti razionali e condivisibili. In altre parole, gli utenti dei sistemi di intelligenza artificiale non hanno accesso alle ragioni che hanno portato a una specifica decisione. Inoltre, gli errori nell’intelligenza artificiale non sono rari: se i dati utilizzati per l’addestramento non sono completi o se la configurazione della rete non è corretta, il risultato finale può essere errato, senza che gli utenti possano facilmente individuare gli errori.

È evidente che questi limiti evidenzino una serie di problemi etici non banali: è eticamente corretto far effettuare scelte critiche come quelle che riguardano la salute di una persona in base a previsioni che non sono basate su meccanismi causali evidenti e comprensibili?

Come abbiamo menzionato all’inizio, nel dibattito pubblico e, in parte, anche nell’agenda politica, troviamo spesso narrazioni episodiche. Queste storie toccanti possono riguardare una diagnosi medica salvata grazie a un’intelligenza artificiale o, in contrasto o in concomitanza, un incidente coinvolgente un’auto a guida autonoma. Tuttavia, ciò di cui la rivoluzione digitale e l’avvento dell’AI necessitano non sono solo racconti, bensì una prospettiva razionale e integrata sul mondo. Questa prospettiva dovrebbe essere basata su un approccio “umano” che comprenda una vasta gamma di conoscenze, combinando la comprensione dei dettagli tecnologici con quella dei processi e dei contesti in cui l’AI verrà applicata.

Senza questa visione comprensiva, c’è un rischio significativo di perdere la sfida etica che accomuna l’utilizzo dell’intelligenza artificiale. Per affrontare le complessità etiche che emergono da queste tecnologie, è fondamentale abbracciare una prospettiva multidisciplinare. Solo attraverso una comprensione profonda dei risvolti tecnologici e delle implicazioni sociali, culturali ed etiche legate all’AI, saremo in grado di sviluppare politiche e regolamentazioni che proteggano i diritti umani, promuovano l’equità e garantiscano un utilizzo responsabile di queste tecnologie avanzate.

Giuseppe Riva

Docente di Psicologia della Comunicazione all’Università Cattolica del Sacro Cuore di Milano dove dirige lo Human Technology Lab. Autore di numerosi volumi e di articoli scientifici, è Presidente dell’Associazione Internazionale di CyberPsychology.