C’è un problema, con le “intelligenze artificiali”, che mi pare venga prima di tutti gli altri problemi con le “intelligenze artificiali” di cui stiamo parlando intensamente da quando è arrivato ChatGPT in poi, tre anni fa. Lo descrivo sbrigativamente così: la maggior parte di noi non sa di cosa sta parlando.
Quello che mi pare sia successo è un fenomeno linguistico/culturale ricorrente in questi anni di accelerazioni improvvise nei dibattiti più diversi: ovvero che ci troviamo a parlare tantissimo di qualcosa di nuovo prima ancora che ci sia stato il tempo di convenire sul significato delle parole e sui concetti che usiamo (è successa una cosa simile, perdonate il paragone apparentemente distante, con le “questioni di genere”, per esempio).
In questo caso, la dimostrazione di quello che sto dicendo è semplicissima: chiedete in giro a chi volete una definizione di “intelligenza artificiale”.
Io tendo a usare il meno possibile l’espressione “intelligenza artificiale” e di solito la metto tra virgolette, o mi costringo a dire “software di intelligenza artificiale”. Ce ne sono diverse ragioni, tra cui:
1) l’impressione che venga usata per indicare cose diversissime tra loro, che vanno da singoli e limitati software di diversissime applicazioni ad astratti concetti filosofici, a umanizzazioni suggestive, a calderoni di un po’ di tutto. Tu dici “intelligenza artificiale” e non si sa a cosa ti stia riferendo (spesso neanche tu).
2) l’impressione che sia “tutto quanto in movimento”, per dirla con Jovanotti, e che le cose stiano cambiando con maggiore velocità della lingua, costretta a usare parole vecchie e generiche per cose nuove e differenti.
3) il timore di un ingannevole effetto (ormai concretizzato) di raffigurazione senziente di una tecnologia, col risultato di dirottare la comprensione dell’argomento. Un po’ come il “cloud”, geniale trovata di marketing per definire dei computer e dei serbatoi di dati molto comuni e terreni, piazzati in certi edifici, e che molti immaginano invece siano una cosa eterea e fluttuante da qualche parte inimmaginabile.
4) l’impressione che non esistano proprio dei criteri anche un po’ condivisi su cosa voglia dire “intelligenza artificiale”. Provate appunto senza googlare a darne una definizione che soddisfi tutte le occasioni in cui l’espressione viene usata quotidianamente (Treccani dice prima che è una “disciplina”, poi un “sistema”, poi procede a una ulteriore spiegazione da far girare la testa).
Ho chiesto a ChatGPT e mi ha risposto: “L’intelligenza artificiale è l’insieme di tecniche e sistemi informatici progettati per svolgere compiti che, se eseguiti da esseri umani, richiederebbero intelligenza”. Che possiamo prendere per buona, salvo che si attaglia anche alle app di solitari di carte, agli orologi Casio e agli SMS.
Come se non bastasse questa mia diffidenza linguistica, aggiungo alcune cose che mi sembrano assai confuse nel modo in cui noi maggioranze stiamo parlando di “intelligenza artificiale”.
La prima è la sfuggente distinzione tra quello che abbiamo sempre chiamato “software” e che in molti casi da due anni chiamiamo “intelligenza artificiale”. In alcune conversazioni che ho avuto mi è stato detto che chiameremmo “intelligenza artificiale” un software che “impara” autonomamente dal proprio funzionamento e dalle interazioni. Questo, mi pare, escluderebbe dalla definizione molti software che ci siamo messi a chiamare “intelligenza artificiale” e che si limitano a replicare con grande efficacia delle indicazioni di programmazione, per quanto articolate: ma in più includerebbe dei software con cui abbiamo antiche consuetudini, che registrano le nostre interazioni e cambiano i loro comportamenti. Un esempio semplice e familiare che mi viene in mente sono i correttori automatici di Word o simili, gli algoritmi dei social network, le autocompilazioni dei criteri di ricerca o di altro. «Ma infatti sono intelligenze artificiali anche quelli», mi hanno detto diversi esperti che se ne occupano, pur faticando anche loro con una definizione chiara e delimitata. Un’indicazione che ho ricevuto mi è sembrata interessante, anche se parziale: ma riguarda la forma piuttosto che la pratica. Ed è che ci troviamo a che fare con software che hanno adottato il linguaggio degli umani, piuttosto che la loro intelligenza. Quello che fanno ChatGPT e altri – rispetto ai software tradizionali – è eseguire dei compiti comunicando con noi nella nostra lingua e non con comandi da imparare, per quanto semplificati possano diventare.
Attenzione: non sto sottostimando la pazzesca efficienza di alcuni di questi software, e la dimensione ricchissima delle loro applicazioni. Sto affrontando il problema di cosa ne sappiamo, cosa ne capiamo, come ne parliamo (che determina cosa ne capiamo).
Un inciso lungo.
Un giovane molto esperto e molto coinvolto nelle cose delle “intelligenze artificiali” mi ha messo le cose in una prospettiva interessante, pochi giorni fa: secondo lui esistono “intelligenze artificiali cattive” in quanto fanno cose al posto nostro atrofizzando in prospettiva la nostra capacità di farle e rincoglionendoci ancora di più (che le trasformazioni digitali degli scorsi decenni ci abbiano in parte rincoglionito è ormai dato per condiviso); ed esistono “intelligenze artificiali buone” che invece possiamo usare per migliorarle, le nostre capacità, e aumentare le nostre conoscenze e competenze. Mi è sembrata fin qui una lettura convincente: se ci pensate, è successo anche con la storia dell’umanità pre-digitale che i progressi tecnici e i nuovi strumenti ci sollevassero dal saper fare delle cose grazie al fatto che quelle cose le sapeva fare qualcun altro (parliamo di competenze e capacità, qui, non di rapporti di forza). E che nel frattempo i progressi civili e tecnici venissero sfruttati anche per aumentare altre conoscenze di tutti: attraverso la scuola, l’informazione giornalistica, la divulgazione, i libri, eccetera. La differenza adesso sarebbe che non avverrebbe più la seconda cosa, perché la conoscenza verrà tutta indirizzata verso i software (poi forse, dicono in molti, non ci sarà più conoscenza da indirizzare): la distribuzione di sapere tra gli umani si azzererà (la nuova serie su Apple che si chiama Pluribus è terribilmente lenta, ma l’allegoria è interessante: e inizia con una spietata presa in giro delle lettrici di libri romantasy).
Ma c’è un’altra distinzione che mi pare non stiamo facendo, quando parliamo di “intelligenza artificiale”, soprattutto nei giornali e nell’informazione del pubblico. Molti dei prodotti delle “intelligenze artificiali” di cui parliamo quotidianamente mi sembra siano finora prodotti già esistenti, che queste tecnologie ci stanno aiutando a ottenere con minor impegno e a volte con maggiore qualità di quelli che avremmo ottenuto senza quelle tecnologie (tutte le immagini che vediamo prodotte da “intelligenze artificiali” possono essere realizzate con Photoshop; dei testi celebriamo proprio quanto siano simili a quelli umani, non diversi, impensati o eccezionali; eccetera). Non vedo – in questa gran parte di esempi protagonisti delle esperienze e conversazioni quotidiane della maggioranza delle persone – produzioni di cose o funzioni nuove e prima inesistenti, né effetti nuovi di quelle produzioni che trasformino le vite degli umani (salvo che nel tempo che liberano, o nel lavoro che sottraggono). In gran parte parliamo di “contenuti”: testi, immagini, suggerimenti, insegnamenti. Insomma, al momento niente sembra paragonabile alle trasformazioni indotte nelle nostre vite, nelle nostre società, persino nelle nostre teste, dalle innovazioni degli scorsi decenni. Al momento.
E intanto io intuisco e vedo – per quello che leggo, per quello che mi faccio raccontare e spiegare – che ci siano ambiti meno visibili e quotidiani, più tecnici, in cui invece stanno probabilmente avvenendo cambiamenti più sostanziosi e di maggiori conseguenze. Ma la discussione pubblica mi pare riguardi quasi soltanto risultati “umani” prodotti con l’aiuto di una tecnologia, che attenuano il nostro impegno e il nostro bisogno di saper fare quelle cose da soli.
E qui c’è il mio scetticismo principale: che è uno scetticismo nei confronti di ogni lettura delle cose che preveda separazioni nette e binarie tra ambiti che invece si confondono molto. Non direi che esistano infatti cose prodotte “dall’intelligenza artificiale”, ma solo cose prodotte “usando come strumento” dei software che chiamiamo “intelligenze artificiali”. E che gli umani producano delle cose usando degli strumenti non è certo una cosa nuova, malgrado le capacità di quegli strumenti possano variare tantissimo, e di certo ChatGPT ha maggiori versatilità ed efficienze di un cacciavite. Ma al momento il risultato viene generato dalla scelta di un umano di creare un risultato, usando ChatGPT o un cacciavite. E soprattutto, pur vedendo bene la distanza tra i due estremi del cacciavite e di ChatGPT, non vedo il punto sulla linea in cui lo strumento, la tecnologia, diventa “intelligenza artificiale”. Mi pare che stiamo parlando di un processo in corso da millenni e che ancora procederà – pur con cambi di velocità – e invece lo stiamo considerando una rottura, una sovversione improvvisa, dandogli persino un nome nuovo per costruire una “narrazione” in questo senso. (Cory Doctorow dice che il nome e la narrazione sull’eccezionalità servono a nobilitare il licenziamento delle persone: non credo questa sia la genesi della confusione linguistica, ma di certo ci sono abusi strumentali dell’espressione: per esempio nel generare attenzione e curiosità, da parte dei giornali).
In relazione a questo, c’è poi la questione della “trasparenza sull’uso delle intelligenze artificiali”, che mi ricorda un po’ la confusione nei dibattiti sul doping, che tra poco spiego. Ora mi terrò come esempio solo sulle cose che frequento: e se da una parte sono consapevole della limitatezza di questo campo, dall’altra vedo che le cose che frequento (soprattutto la produzione di testi) sono finora probabilmente l’applicazione più estesa, quotidiana e familiare delle “intelligenze artificiali” da parte di noi che non siamo ingegneri cibernetici (mi piaceva dire cibernetici).
Per via del correttore, alcune parole del testo che sto scrivendo mi vengono indicate come errate o modificabili: alcune quindi le correggo, di alcune accolgo i suggerimenti ricevuti, in altri casi cerco su Google dei sinonimi o delle espressioni a cui non avevo pensato. Dovrei segnalarlo, alla fine di questo post, che il correttore mi ha aiutato a perfezionarlo? Immagino pensiate di no, e comunque non lo fa nessuno: né nessuno segnala di avere usato pratiche ricerche su Google per raccogliere parte delle informazioni contenute in un articolo e far sì che siano accurate, senza dover fare esperimenti scientifici in proprio o osservazioni della realtà. O di avere “copincollato” una citazione con pochi clic invece che riscriverla parola per parola. O di avere usato un apparecchio evolutissimo – computer – che scongiura macchie di inchiostro e cancellature nel testo che produce.
Bene: adesso immaginate che il post che state leggendo sia stato originariamente scritto da ChatGPT, a cui io avrei chiesto «mi scrivi per favore [cerco sempre di usare formule cortesi e amichevoli, parlando con ChatGPT, hai visto mai] un articolo come lo scriverebbe l’autore del blog Wittgenstein.it, che rifletta sulle sfuggenti definizioni di “intelligenza artificiale” e sulle differenze tra questa e altre tecnologie?». E immaginate che questa mia richiesta, accuratamente formulata e proveniente da una mia intuizione e da una mia riflessione – più o meno elaborata e personale – su quale “prompt” dare a ChatGPT, sia stata trasformata in un testo: che io avrei riletto, trovandoci cose che mi convincono e altre no, espressioni che non userei, errori veri e propri, passaggi che invertirei, e aggiungendo e modificando dove ritengo opportuno.
Ecco: quel post sarebbe quindi prodotto “dall’intelligenza artificiale”? (io non direi: l’ho scritto io usando ChatGPT, e anche Word, e Google, e il sito di Treccani, e un computer, e una sedia, e il riscaldamento centralizzato: in assenza di quest’ultimo sarei stato più sbrigativo e avrei usato altre parole e saltato passaggi). Certo, l’equilibrio tra quello che ho fatto senza usare quello strumento e quello che ho fatto usandolo può variare molto: ma fino a che sono io quello che decide anche solo di pubblicarlo perché mi convince e mi corrisponde, c’è una cospicua parte di responsabilità e di scelta mia e non “dell’intelligenza artificiale”. Quello che ottengo è quello che voglio ottenere, quello che dico a mio nome è quello che voglio dire.
Se metto latte, mele, banane e zucchero nel frullatore e premo il tasto, chi avrà fatto quel frullato? Io o il frullatore? E se metto gli ingredienti indicati dalla ricetta di Giallo Zafferano dentro il Bimby e premo il tasto? Io, Giallo Zafferano o il Bimby?
Attenzione, ripeto: non sto sottostimando la pazzesca efficienza di alcuni di questi software, e la dimensione ricchissima delle loro applicazioni. Sto affrontando il problema di cosa ne sappiamo, cosa ne capiamo, come ne parliamo (che determina cosa ne capiamo).
Non che voglia attribuirmi gran meriti nei confronti di questa disordinata successione di pensieri, che condivido proprio perché è un disordine che voglio dimostrare tale, e dissentire anche nei fatti dalle precipitose sintesi schematiche e conclusive che circolano. Ma dai dubbi appena esposti segue, ai miei occhi, che l’allarmata e perentoria richiesta di “trasparenza” nell’uso delle “intelligenze artificiali”, e la sua implicazione che l’uso non dichiarato di questi strumenti sia un inganno, siano anch’esse un po’ fragili nella loro fondatezza. Se il testo che ho pubblicato mi corrisponde, ed è ai miei occhi corretto, e trasmette le idee che voglio trasmettere o riferisce i fatti che voglio riferire, che importanza ha con quale strumento l’abbia prodotto? Ha importanza, dite, che ChatGPT abbia risposto a un mio prompt con un testo e io lo abbia incollato? Ok, facciamo che rispondiate di sì, la domanda successiva allora è: e se ho cambiato una parola? Sempre sì? Ok, e se ne ho cambiate due? So che avete già capito dove vi sto portando, ma non correrò rischi di equivoci: e se le ho cambiate tutte fuorché una? E se quell’una era il mio nome in una frase, che avrei comunque scritto uguale anche senza usare ChatGPT?
C’è una quota che stabilisce che l’uso di ChatGPT debba essere indicato? Qual è?
Due giorni fa ho ascoltato Alex Kantrovitz dire, a un convegno di giornalisti: «Se la missione del giornalismo è informare accuratamente le persone e concorrere al miglior funzionamento delle comunità e delle democrazie – se è “trasmettere delle informazioni” – allora quello che conta è il risultato, e quindi che importanza ha quale strumento abbia prodotto quel risultato?». Sono molto d’accordo, e penso persino che sia realisticamente possibile che alcuni testi prodotti da ChatGPT e compagnia possano essere giornalisticamente e linguisticamente migliori di alcuni testi prodotti da giornalisti di professione. Che possano ottenere il risultato di cui il giornalismo è investito con maggiore riuscita.
Certo, non finisce così: il problema è – col giornalismo, ma non solo – chi poi valuta la qualità del risultato. Se continuiamo ad abbassare – come stiamo facendo da prima di ChatGPT – i livelli di conoscenza e informazione delle persone, e la loro capacità di giudizio sulla qualità e sull’accuratezza, lo scadimento prodotto da un’offerta mediocre genera una domanda mediocre, e una domanda mediocre genera un’offerta mediocre, e così via. Siamo in questo percorso già da qualche decennio, e questo è il vero problema dei problemi.
Già, avevo detto che spiegavo meglio la citazione del doping: è qui, se volete, ma in sostanza è che non esiste il doping, se non per convenzione arbitraria, ed è una convenzione continuamente modificata. Ci sono sostanze che un ente ha stabilito siano permesse e sostanze che no: anzi, ci sono quantità di sostanze permesse, e quantità che non lo sono. Cose che chiamiamo doping oggi, non lo saranno domani. Non esiste giusto o sbagliato in termini morali assoluti, ma solo rispetto alle regole fissate oggi. Non parliamo poi delle inesistenti distinzioni assolute tra farmaci e droghe.
Ci sono convenzioni che dipendono dalle nostre abitudini culturali: che cambiano, e cambiamo le convenzioni. Presto il rigore sul trasparente uso di software come questi sarà assai attenuato, vedrete.
Torniamo alle cose, lì, le “intelligenze artificiali”. Come avrete capito, la mia sola conclusione certa è che per giudicare il valore di un prodotto conta il risultato – ovvero la corrispondenza di quel prodotto alle intenzioni e agli obiettivi per cui viene prodotto – non gli strumenti usati per produrlo (non ho detto “per giudicare il valore di chi lo produce”: è chiaro che tu sei più ammirevole se vinci in dieci contro undici piuttosto che in undici contro dieci, ma in classifica vale tre punti comunque).
E quindi l’obiettivo non è – in qualunque produzione – la trasparenza sugli strumenti usati (sempre che, naturalmente, quell’uso non abbia effetti collaterali importanti: però non mi fate spiegare le cose ovvie) ma la qualità del risultato. Le obiezioni e i timori che circolano rispetto all’uso delle intelligenze artificiali sono fondate per un aspetto, importantissimo ma limitato ma importantissimo ma limitato: ovvero il rischio che il risultato sia inadeguato.
Teniamo sempre conto che questo avviene anche con gli umani, ogni giorno (la differenza, saliente, è che gli umani sono accountable, per questo: qualcuno deve prendersi la responsabilità, e se i software di “intelligenza artificiale” sono strumenti, il responsabile è chi decide l’uso di quello strumento).
Ho un altro inciso, appena fuori tema. Molti di noi si lamentano delle noiose accondiscendenze di ChatGPT e simili. Quella tendenza a darti sempre ragione, ad ammettere “ho sbagliato”, a chiederti se hai bisogno di qualcos’altro (“no! se ho bisogno te lo chiedo!”), che è difficile sradicare per quanto tu lavori sulle impostazioni. Nel frattempo, tra gli allarmi che circolano c’è anche quello che dice che finiremo a essere plagiati nei nostri linguaggi e nei nostri comportamenti dai linguaggi e dai comportamenti delle “intelligenze artificiali”.
Bene: avete presente di quanto ci disperiamo e critichiamo in questi anni i livelli di aggressività generati dall’uso dei social network, e di come questa rabbia e aggressività siano traboccati nelle vite reali, e ne abbiamo dimostrazioni ogni giorno? E allora, sarebbe così male se i nostri linguaggi e comportamenti venissero invece indirizzati verso chiedere scusa, ammettere di avere sbagliato, chiedere al prossimo se ha bisogno di qualcosa?
Aggiungo un’ultima cosa, a questa successione incompleta di considerazioni: è ovvio che le trasformazioni quantitative si traducono in trasformazioni qualitative. Non intendo sostenere che la potenza di calcolo di nuovi strumenti non si tradurrà in possibili “cambi di paradigma” e in nuove rivoluzioni: vedo cose impressionanti ed eccitanti fatte con questi strumenti (ma vedo anche sovreccitazioni e possibili bolle: succede). E il p.s. qui sotto ne è una dimostrazione.
Ma in realtà non intendo sostenere niente: se non che la conversazione pubblica intorno alle “intelligenze artificiali” sia molto superficiale e ignorante, e abbia bisogno di fare un po’ d’ordine e di rispondere intanto alla domanda “di cosa stiamo parlando?”.
p.s. ho chiesto a ChatGPT che cosa ne pensasse di quello che ho scritto qui.