Intelligenze artificiali | Gen AI, una seconda alfabetizzazione7 min read
Reading Time: 6 minutesE se avessimo sbagliato tutto nel guardare e raccontare le Intelligenze Artificiali generative, come ChatGPT o Midjourney? E se non servissero a chi, di lavoro, scrive testi o codice, disegna fumetti o fotografa, ma a chi non riesce a farlo, pur avendo ottime idee?
Intelligenze artificiali, questa storia inizia nel 1950
Facciamo un passo indietro per collocare le IA generative, basate su modelli linguistici, nella storia dell’intelligenza artificiale, una storia che inizia decenni fa, praticamente insieme ai computer. Nasce come riflessione filosofica prima di diventare un progetto di sviluppo: il primo a chiedersi se i computer possono o potranno pensare è Alan Turing, il matematico inglese che, secondo Churchill, ha accorciato di due anni la seconda guerra mondiale, con un articolo del 1950 intitolato Computing machinery and intelligence. La storia delle intelligenze artificiali vere e proprie inizia con la conferenza Dartmouth Summer Research Project on Artificial Intelligence del 1956.
Oggi sappiamo molto di più sull’intelligenza umana, ma ancora non sappiamo precisamente come funzioni: la scelta di questo termine e dell’aggettivo artificiale complica parecchio la comprensione di questi software e del loro ruolo nelle nostre vite. Forse sarebbe intelligente abbandonarlo e il perché è più chiaro con un esempio: vi siete mai chiesti se un libro capisce quello che c’è scritto dentro? No, appunto. E vi siete mai chiesti se i calcoli di Excel sono artificiali? Se Excel capisce quello che calcola? No, appunto. È irrilevante, a meno che tu non la definisca “intelligenza”.
Se dare nomi è un’arte, “intelligenza artificiale” non è esattamente un capolavoro. I software di generazione testi, immagini e video non sono (ancora) autonomi e non capiscono quello che dicono, né pensano a quello che dicono. Senza scomodare le sedute spiritiche possiamo paragonare la loro produzione alla scrittura automatica surrealista. E forse la parola automatica ci aiuta a capire più della parola artificiale. In genere, se invece di Intelligenze Artificiali parlassimo di software che scrivono, evoluzione dei software per scrivere, saremmo tutti più lucidi. Ma non è andata così.
Quante intelligenze!
Nel quotidiano noi consideriamo intelligente una persona che capisce e agisce di conseguenza, spesso in campi limitati: la lettura e scrittura, la soluzione di problemi logico-matematici, la capacità di sintesi e di spiegarsi. Il test originale del QI, poi integrato, misurava solo l’intelligenza logico-matematica. Con una teoria mai del tutto dimostrata scientificamente, ma utile per il nostro ragionamento, lo psicologo statunitense Howard Gardner ha distinto diversi tipi fondamentali d’intelligenza: linguistica, logico-matematica, musicale, corporeo-cinestetica, spaziale, interpersonale, intrapersonale, naturalistica, spirituale, morale. È una teoria efficace perché ci permette di vedere qualcosa che è sotto i nostri occhi e cioè le diverse forme che può prendere la nostra comprensione del mondo e la nostra capacità di agire. Ci aiuta anche a capire che, a volte, siamo intelligenti senza saperlo, senza capirlo, senza scegliere di farlo: lo chiamiamo talento ed è centrale nella nostra società.
Altrettanto utile per mettere in discussione l’idea superficiale che abbiamo dell’intelligenza umana è la nozione di neurodiversità, cioè, nella definizione della psichiatra Cristina Selvi
“la variabilità tra i sistemi nervosi di ogni essere umano, ovvero l’insieme delle differenti caratteristiche che costituiscono la neurologia di ciascun individuo (sviluppo neurologico tipico incluso)”.
Via via che la capacità di diagnosticare neurodivergenze anche negli adulti aumenta, la stessa nozione di neurotipicità perde di senso: siamo tutti molto diversi tra di noi, l’intelligenza umana, in quanto tale, è un’astrazione.
ANI, AGI, ASI
Anche le intelligenze artificiali sono tante e per ora sono quasi tutte del tipo più limitato, le ANI, che sta per Artificial Narrow Intelligence, cioè ristrette e dette anche weak, deboli. In realtà non sono deboli per niente, la loro caratteristica è di essere specializzate. Fanno bene quello per cui hanno studiato, un po’ come si pensa debbano funzionare i percorsi di carriera umani. ChatGPT è una ANI con sprazzi di AGI, acronimo che sta per Artificial General Intelligence, cioè un software capace di imparare da esperienze diverse per fare qualsiasi cosa desideri, come un umano. Infine ci sono le ASI, le Artificial Super Intelligence, super intelligenze che possono imparare a fare qualunque cosa, con capacità molto superiori a quelle umane. Una specie di supereroe disincarnato.
Ora, di solito, quando pensiamo a un software che pensa ci riferiamo a un software delle ultime due categorie, di cui è umano avere paura (e umano non vuol dire giusto). Peccato però che ancora siano solo costrutti teorici, o quasi, soprattutto nella parte più difficile da comprendere anche per noi, il libero arbitrio. Se sentite parlare di software che sterminano l’umanità per produrre più graffette possibile o per eliminare chi porta polvere in casa (esempi non inventati) sappiate che si parla di AGI o ASI a cui, tra l’altro, vengono attribuiti desideri e comportamenti umani: il desiderio di produrre un bene (le graffette) o di eliminare un male (la polvere). Nello stesso tempo, però, consideriamo disumani questi software perché non hanno emozioni o sentimenti. Da qualche parte c’è una falla nel ragionamento. Oppure una volontà di disinformare.
Allucinazioni
Provate a pensare al termine scelto dalla comunità scientifica per descrivere gli errori fattuali e di relazione di ChatGPT(& co): allucinazioni. Anche qui c’è una falla nel ragionamento, anzi, due. Un software di IA generativa – tecnicamente un LLM, un modello linguistico – produce contenuti a partire da quello che ha imparato, come farebbe uno scrittore o un pittore. Il suo compito ristretto(ricordate l’ANI?) non è darci informazioni corrette: è scrivere testi o creare immagini a partire da un’istruzione, il prompt, che può prendere anche forma di una domanda.
Per complicare un pochino le cose in alcuni contesti specifici dare informazioni corrette e precise rientra nella sfera ristretta dei compiti di un LLM: un esempio illuminante è quello della scrittura del software, perché è un linguaggio preciso e codificato, con molte meno ambiguità del linguaggio naturale. Ambiguità di cui abbiamo pochissima consapevolezza, tra l’altro, perché ci viene naturale capire quando una mela è un frutto e quando è una marca di computer. Prima falla del ragionamento: ci aspettiamo informazioni precise da un software di scrittura. Un po’ come lamentarsi con il professore perché Dante non ha dato le coordinate dell’ingresso nell’Inferno. Questo vuol dire non potersi fidare di Dante? No, ma non avrei cercato la ricetta della carbonara nella Divina Commedia.
Seconda falla del ragionamento: definiamo questi errori allucinazioni, cioè una parola che richiama una patologia, strettamente legata agli esseri umani che perdono lucidità. Provate a pensare come cambia il tutto se cambio la parola: gli errori di ChatGPT. Le allucinazioni di ChatGPT. E se le chiamassimo invenzioni? Ancora un altro film. Eppure è sempre la stessa cosa: un software il cui compito è scrivere, quando non sa, genera testi a partire dalla probabilità statistica di quell’insieme di lettere.
IA Generative, cioè co-autrici
Torniamo alla domanda iniziale, e se avessimo sbagliato tutto? Abbiamo dei software per creare contenuti partendo da istruzioni, che devono prevedere anche informazioni corrette, per evitare errori. A chi servono questi software? Una risposta alternativa a quanto normalmente si pensa, soprattutto quando si teme che verranno usati per sostituire dei professionisti, è: servono a chi ha idee, intuizioni, informazioni, ma non la capacità per creare gli artefatti necessari per condividerli. Che siano un testo, un’immagine, musica, un video, un’illustrazione. Questo punto di vista ci risulta difficile perché tendiamo a considerare il risultato come parte integrante dell’intelligenza: sapere cosa scrivere per poter scrivere.
E se ci fossero migliaia di persone che saprebbero cosa scrivere ma non lo sapessero fare? Perché disgrafiche o semplicemente perché la scrittura è un’attività profondamente innaturale? E se ci fossero fotografi ciechi ma con visioni potentissime? Illustratori senza la manualità per disegnare? È per loro che le GenAI sono state create, magari non nelle intenzioni degli sviluppatori, ma come possibilità impensabile fino a pochissimo tempo fa. Io personalmente considero le GenAI una seconda alfabetizzazione, ricordando che la piena alfabetizzazione, in Italia, è stata raggiunta da poco tempo: gli analfabeti erano il 74,1% nel 1861, il 12,9% nel 1950, l’1,06% nel 2011.
Una volta raggiunta la piena alfabetizzazione abbiamo dovuto ammettere che non tutto era andato come previsto, introducendo il concetto di funzionale”, cioè chi, pur sapendo tecnicamente leggere, scrivere e far di conto, non è in grado di farlo a un livello sufficiente per approfittarne davvero. Noi oggi guardiamo gli analfabeti funzionali come un tempo si guardavano i neurodiversi, forse dovremmo davvero cambiare sguardo ed essere felici per l’arrivo di software che permettono a chi è a disagio con tecnologie come la lettura, la scrittura, il calcolo, l’illustrazione di esprimere comunque idee, pensieri, a volte creando arte impossibile da realizzare altrimenti. E, ultimo ma non per minore importanza: permettendo a chi ha una formazione umanistica di scrivere codice, un aspetto di cui si parla davvero troppo poco.
Elena
molto interessante, grazie!
Francesco Tomaello
Non ci siamo mai chiesti il contrario: quanti dei nostri processi mentali sono il prodotto di routine ripetitive che si attivano in automatico? E in cosa differiscono dagli algoritmi della c.d. AI?