Incontri ravvicinati del Terzo settore – parliamo di intelligenza artificiale.

-

Presentando “Le Giornate di Bertinoro” del 2018, l’allora presidente del comitato scientifico Stefano Zamagni indicò nell’intelligenza artificiale la sfida per lo sviluppo del Terzo settore. Precisando successivamente il suo pensiero, è sembrato adottare un approccio più problematico, forse più prudente. Oggi si parla di AI un po’ in ogni settore, grazie anche all’impatto mediatico suscitato da chatGPT. Ma fino a che punto comprendiamo i termini della discussione? Noi confessiamo di non essere abbastanza preparati. Per questo abbiamo proposto ad Andrea di rispondere a qualche provocazione (nota per il lettore: la sintesi è nostra, nostra quindi è anche la responsabilità per le inevitabili semplificazioni e gli eventuali errori in cui inccorreremo).

A cura del Centro Nazionale per il Volontariato.

CNV: prima di tutto, ci spieghi cosa accade quando facciamo una domanda all’AI?

Andrea: “intelligenza artificiale” è un modo un po’ infelice di chiamare questo tipo di cose perché ovviamente di intelligenza non hanno nulla, non è il loro compito. La loro capacità, per la prima volta nella storia, è di comprendere una domanda e di andare a cercare la risposta giusta all’interno di una base di dati. Il vero punto è la capacità di analisi di un costrutto verbale: estrarne un significato e in base a quel significato andare a cercare una risposta, ed articolare questa risposta in un modo per così dire “originale”. Google o altri strumenti di questo genere si limitano a restituire qualche risposta selezionata da un sistema di risposte preconfezionato; i sistemi come chatGPT riescono ad elaborare in qualche modo queste risposte per fornire una forma di esperienza nuova. Perché questa roba non si basa solo sulle risposte, anzi nemmeno prevalentemente sulle risposte che vengono date dagli utenti: si basa prevalentemente su sistemi di apprendimento. Questi sistemi tipicamente utilizzano dei meccanismi detti di retoazione: in pratica le AI vengono addestrate inizialmente tramite dei set di domande e risposte, che in qualche modo acquisiscono. Questo processo si basa su valutazione umana: la risposta è preparata, rivista e ricontrollata da persone senzienti, che di fatto “addestrano la rete”. Dopodiché tramite sistemi più o meno sofisticati (nel caso di chatGPT molto sofisticati) le AI proseguono questo percorso per conto proprio. Alla base c’è dunque un primo “addestramento umano”, che permette poi al sistema di proseguire l’addestramento con domande man mano più estese e con risposte meno controllate e meno supervisionate.

CNV: l’intelligenza artificiale dunque può elaborare una “sua” risposta, che sarà esatta se la rete è stata impostata correttamente. Il discorso fila se stiamo parlando del dominio dei numeri, regolato da leggi perfette e sempre valide. Ma questo come può applicarsi ai domini più tipicamente umani che interessano a noi, in cui le regole, le ricorrenze e le leggi non valgono sempre? In questi casi per dare la risposta giusta non resta necessario fare come Google, cioè trovare “in archivio” la stessa domanda e una risposta data da qualcuno in precedenza?

Andrea: chatCPT è il primo esperimento veramente efficace che consente di intavolare una specie di discorso, cioè di non limitarsi a una domanda e una sola risposta come avviene oggi con tutti i sistemi domestici come Alexa o Siri. Nelle relazioni umane, che sono a mio avviso il punto di contatto con il Terzo settore, il concetto di risposta giusta/risposta sbagliata è molto sfumato. Alla domanda “Come ti senti oggi?” ci sono varietà di possibili risposte che possono essere tutte considerate egualmente corrette e ugualmente accettabili, non negative. Effettivamente i sistemi come chatGPT riescono ad essere molto verbosi, gli puoi chiedere per esempio di scrivere una storia e via via di aggiungerci dei dettagli: il sistema continua a lavorarci, che è una cosa in qualche modo scontata ma anche innovativa rispetto a tutto quello che abbiamo visto fino a oggi. Anche in questo caso alla base c’è un set di istruzione che è fatto da una serie di racconti che sono stati classificati, ai quali in qualche modo l’AI attinge, alterandoli e ibridandoli e quindi costruendo poi qualche cosa di “semi originale”.

CNV: sui social forniamo quotidianamente una gran quantità di informazioni personali su noi stessi. Se per esempio l’intelligenza artificiale accedesse ai tuoi profili per usarli come “base di dati”, potrebbe raccontarti la storia che volevi sentire o entrare in empatia con te in una conversazione su un tuo problema?

Andrea: beh indubbiamente sarebbe possibile, nel senso di creare qualche cosa di gradevole, o almeno vicino al concetto di piacevole. Intendiamoci: le relazioni umane sono caratterizzate da un livello di capacità di espressione che è nettamente superiore a quello di cui stiamo parlando. Almeno per quello che conosciamo fino a oggi, i sistemi riescono a costruire piccoli discorsi, non una capacità di interazione profonda, però anche vero che stiamo facendo progressi molto significativi.

CNV: facciamo della fantascienza, o forse dell’horror. Nel settore della cura della persona si potrebbe in futuro pensare ad un “computer di compagnia”? Non è una cosa alienante?

Andrea: molti dicono che non possono accettare l’esistenza di Dio se un bambino muore, ma pochi sostengono che Dio non può non esistere se ci sono i bambini. Si potrebbe concludere che probabilmente le persone finirebbero per affezionarsi ad una macchina che dà delle risposte anche solo vagamente simili all’uomo, senza interrogarsi troppo su cosa c’è dell’altra parte (dello schermo). Ma potrebbe generare un isolamento, un’alienazione per certi versi anche peggiore nel senso che un sistema fondamentalmente programmato per essere condiscendente potrebbe portare le persone a preferire una relazione non reale. Per ora questo tipo di contesto mi sembra ancora lontano, anche perché non abbiamo possibilità di costruire strumenti che siano poi in grado di avere una cura materiale: abbiamo scoperto che far muovere un oggetto è questione assai complicata, per esempio una quota molto rilevante delle nostre capacità cerebrali è dedicata al coordinamento motorio. Inoltre la cura della persona presuppone l’interazione con una persona reale: difficilmente un’AI sarà in grado di interagire in modo profondo, particolarmente a livello emotivo, con le persone e dubito che un’intelligenza non emotiva sia in grado di soddisfare le necessità relazionali che hanno le persone. Quindi magari i “robot di compagnia” potranno aiutare a riempire un po’ di tempo, come si fa guardando un film, magari in modo più interessante e più sofisticato, ma tutto ciò rientra più nel contesto dell’intrattenimento che non in quello della prossimità. Più interessante è notare come tutto quello che stiamo dicendo richiede enormi quantità di informazioni, al momento per vari motivi un appannaggio esclusivo di poche grandi aziende che possono anche disporre di grossi investimenti. Il vero punto è che la sorgente primitiva di tante informazioni, che è la base di tutti questi addestramenti, è nelle mani di pochissime aziende nel mondo e quasi tutte sono americane e questo è un aspetto che sta creando non pochi problemi.

CNV: qui tocchi due punti importanti. Da una parte il tema della democrazia digitale e il problema di chi ha i dati e i mezzi; dall’altra il fatto che questi dati “primitivi” sono stati creati in ultima analisi dall’uomo che è, come dire, “l’ingrediente speciale”.

Andrea: al momento è così, l’AI ad oggi non è in grado di fare un una creazione originale e autonoma.

CNV:secondo alcuni la dipendenza dalle tecnologie impoverisce progressivamente la nostra creatività. Portando il ragionamento all’estremo quindi, l’intelligenza artificiale non rischia di essere un parassita che uccide l’ospite? Se io comincio a dipendere troppo dall’intelligenza artificiale sarò meno creativo e l’AI di domani avrà materiale più scadente su cui lavorare, così impoverirà ulteriormente l’utente umano..

Andrea: noi siamo nani sulle spalle di giganti che ci hanno preceduto e l’intelligenza artificiale non cambierà questo aspetto. Continueremo a disporre di tutto il record esistente di informazioni al quale eventualmente l’AI aggiungerà poco o nulla: potrebbe rallentare la sua evoluzione ma non avrà un’involuzione. La vera questione riguarda l’uso che intendiamo fare di queste intelligenze artificiali: di per sé è poco probabile che l’AI sia in grado di incrementare la nostra conoscenza risolvendo problemi a cui non abbiamo trovato la risposta, ma è possibile che possa essere utilizzata per fare delle analisi che ad un uomo richiederebbero tempi impossibili. Le reti neurali, che sono uno degli strumenti più tradizionali con i quali si fanno quelle cose che poi vengono chiamate “intelligenze artificiali”, sono molto interessanti perché spesso hanno mostrato una insospettabile capacità di individuare comportamenti malevoli, situazioni particolari, raggruppamenti di dati significativi dentro enormi quantità di informazioni all’apparenza senza schema. Questo è un tipo di analisi che potrebbe ancora essere fatto umanamente ma richiederebbe enormi quantità di tempo senza un riscontro economico ragionevole.

CNV: questa capacità potrebbe essere applicata ad esempio alle indagini sociologiche, per creare cruscotti di indicatori dei fenomeni sociali al servizio di policy maker o per fare valutazioni di impatto delle azioni e degli interventi sociali?

Andrea: assolutamente sì, è anzi uno dei modi migliori di pensarne l’utilità. Questo è un tipo di strumento che ha a che fare più con la capacità di conoscere che non con la capacità di agire. In generale al momento nessuna intelligenza artificiale è effettivamente un granché in termini di capacità decisionali, basta pensare alla poca strada che ancora stanno facendo i sistemi di guida autonoma, nonostante gli enormi investimenti fatti.

CNV: questa capacità di lavorare con i sistemi è importante, pensiamo alla protezione civile ed alla previsione di piani per la gestione dell’emergenza o dell’incidente. Da questo punto di vista l’intelligenza artificiale potrebbe essere utile, ma l’emergenza – per definizione – “rompe gli schemi” perché stravolge il contesto così come lo si conosce, e a quanto pare l’AI fatica a gestire questa cosa..

Andrea: è sicuramente vero, nel senso che il sistema descritto finora fondamentalmente si regge su di una base di analisi statistica di un grande numero di dati. Se il numero di dati non è grande le statistiche per loro definizione sono carenti. Va anche detto però che c’è un’alternativa a tutto questo e qualcosa abbiamo fatto anche noi in passato con la mia società, creando dei modelli fisici o semi fisici per la simulazione di eventi calamitosi. Un simile sistema può diventare uno strumento nelle mani dell’intelligenza artificiale per poter costruire un numero elevatissimo di scenari e quindi estrarre un’informazione statistica dove questa informazione nella realtà non esiste. In pratica è come ricreare molte volte quell’evento che ancora non si è verificato, cambiando qualche parametro per vedere come evolve e quindi ipotizzare i modi migliori per gestire la cosa. Noi per esempio ce ne siamo occupati in termini di contenimento di colate di lava o di frane. Anche in questo caso, la scelta di come agire è poi una decisione dell’uomo.

CNV: in conclusione, la buona notizia è che almeno per ora l’AI non ci sostituirà. La cattiva è che potrebbe essere questione di tempo (e di convenienza da parte delle Big Tech). Nel frattempo dobbiamo imparare a sviluppare una relazione funzionale con questi strumenti, perché possono aiutarci o nuocerci a seconda del modo di impiego?

Andrea: c’è un problema di sistema che va oltre il tema degli sviluppi dell’intelligenza artificiale, un tema di cui vorrei parlare più in generale perché credo che sia una questione esistenziale. Sta entrando in crisi il meccanismo, lo stimolo stesso che sta alla base forse di tutta la nostra storia. Credo che il problema sia la crescita della conoscenza, che mette in difficoltà il sistema: non è l’intelligenza artificiale ma proprio il modo in cui si stanno evolvendo le conoscenze. Il sapere si sta parcellizzando. Esso si sta espandendo, e con ciò sta rendendo la parcellizzazione in qualche modo figlia naturale di questa espansione. Perché se all’inizio dell’Ottocento potevo sapere tutto lo scibile matematico, oggi tutto lo scibile matematico semplicemente non è più conoscibile, ed esso rappresenta solo di una parte di tutto lo scibile umano. In altre parole, i meccanismi di aumento della conoscenza pongono un problema di limitazione delle nostre menti nell’acquisire questa conoscenza, che è un tema piuttosto rilevante con riflessi diretti sulla qualità e sulla capacità di crearne di nuova. Qual è il limite della produzione, se esiste un limite, e quali sono le strategie per ridurre questo limite nella capacità dell’uomo di generare conoscenza nuova? E anche se vuoi nella capacità che hanno le macchine di poterci supportare su determinate progressioni? Da questo punto di vista, l’AI potrebbe essere uno strumento di conoscenza nell’ottica che stavamo dicendo prima, e donarci tempo, liberandoci per esempio da calcoli, osservazioni e analisi complesse. Allo stesso tempo potrebbe essere un sistema che limita la nostra crescita. In definitiva l’AI può rappresentare un freno alla nostra abilità nel capire e nel crescere, e potrebbe essere parimenti lo strumento che ci consente invece di superare dei limiti altrimenti quasi invalicabili della nostra mente.

CNV: grazie Andrea.

Centro Nazionale per il Volontariato

Foto di Pixabay da Pexels

Share this article

Recent posts

Popular categories

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

Recent comments