Intelligenze artificiali | Gen AI, una seconda alfabetizzazione7 min read

28 Marzo 2024 Società -

Intelligenze artificiali | Gen AI, una seconda alfabetizzazione7 min read

Reading Time: 6 minutes

E se avessimo sbagliato tutto nel guardare e raccontare le Intelligenze Artificiali generative, come ChatGPT o Midjourney? E se non servissero a chi, di lavoro, scrive testi o codice, disegna fumetti o fotografa, ma a chi non riesce a farlo, pur avendo ottime idee?

Intelligenze artificiali, questa storia inizia nel 1950

Facciamo un passo indietro per collocare le IA generative, basate su modelli linguistici, nella storia dell’intelligenza artificiale, una storia che inizia decenni fa, praticamente insieme ai computer. Nasce come riflessione filosofica prima di diventare un progetto di sviluppo: il primo a chiedersi se i computer possono o potranno pensare è Alan Turing, il matematico inglese che, secondo Churchill, ha accorciato di due anni la seconda guerra mondiale, con un articolo del 1950 intitolato Computing machinery and intelligence. La storia delle intelligenze artificiali vere e proprie inizia con la conferenza Dartmouth Summer Research Project on Artificial Intelligence del 1956.

Oggi sappiamo molto di più sull’intelligenza umana, ma ancora non sappiamo precisamente come funzioni: la scelta di questo termine e dell’aggettivo artificiale complica parecchio la comprensione di questi software e del loro ruolo nelle nostre vite. Forse sarebbe intelligente abbandonarlo e il perché è più chiaro con un esempio: vi siete mai chiesti se un libro capisce quello che c’è scritto dentro? No, appunto. E vi siete mai chiesti se i calcoli di Excel sono artificiali? Se Excel capisce quello che calcola? No, appunto. È irrilevante, a meno che tu non la definisca “intelligenza”.

Se dare nomi è un’arte, “intelligenza artificiale” non è esattamente un capolavoro. I software di generazione testi, immagini e video non sono (ancora) autonomi e non capiscono quello che dicono, né pensano a quello che dicono. Senza scomodare le sedute spiritiche possiamo paragonare la loro produzione alla scrittura automatica surrealista. E forse la parola automatica ci aiuta a capire più della parola artificiale. In genere, se invece di Intelligenze Artificiali parlassimo di software che scrivono, evoluzione dei software per scrivere, saremmo tutti più lucidi. Ma non è andata così.

Quante intelligenze!

Nel quotidiano noi consideriamo intelligente una persona che capisce e agisce di conseguenza, spesso in campi limitati: la lettura e scrittura, la soluzione di problemi logico-matematici, la capacità di sintesi e di spiegarsi. Il test originale del QI, poi integrato, misurava solo l’intelligenza logico-matematica. Con una teoria mai del tutto dimostrata scientificamente, ma utile per il nostro ragionamento, lo psicologo statunitense Howard Gardner ha distinto diversi tipi fondamentali d’intelligenza: linguistica, logico-matematica, musicale, corporeo-cinestetica, spaziale, interpersonale, intrapersonale, naturalistica, spirituale, morale. È una teoria efficace perché ci permette di vedere qualcosa che è sotto i nostri occhi e cioè le diverse forme che può prendere la nostra comprensione del mondo e la nostra capacità di agire. Ci aiuta anche a capire che, a volte, siamo intelligenti senza saperlo, senza capirlo, senza scegliere di farlo: lo chiamiamo talento ed è centrale nella nostra società.

Altrettanto utile per mettere in discussione l’idea superficiale che abbiamo dell’intelligenza umana è la nozione di neurodiversità, cioè, nella definizione della psichiatra Cristina Selvi

“la variabilità tra i sistemi nervosi di ogni essere umano, ovvero l’insieme delle differenti caratteristiche che costituiscono la neurologia di ciascun individuo (sviluppo neurologico tipico incluso)”.

Via via che la capacità di diagnosticare neurodivergenze anche negli adulti aumenta, la stessa nozione di neurotipicità perde di senso: siamo tutti molto diversi tra di noi, l’intelligenza umana, in quanto tale, è un’astrazione.

Intelligenze artificiali | Gen AI, una seconda alfabetizzazione
@immagine realizzata con Chat Gpt dopo averle fatto leggere questo articolo

ANI, AGI, ASI

Anche le intelligenze artificiali sono tante e per ora sono quasi tutte del tipo più limitato, le ANI, che sta per Artificial Narrow Intelligence, cioè ristrette e dette anche weak, deboli. In realtà non sono deboli per niente, la loro caratteristica è di essere specializzate. Fanno bene quello per cui hanno studiato, un po’ come si pensa debbano funzionare i percorsi di carriera umani. ChatGPT è una ANI con sprazzi di AGI, acronimo che sta per Artificial General Intelligence, cioè un software capace di imparare da esperienze diverse per fare qualsiasi cosa desideri, come un umano. Infine ci sono le ASI, le Artificial Super Intelligence, super intelligenze che possono imparare a fare qualunque cosa, con capacità molto superiori a quelle umane. Una specie di supereroe disincarnato.

Ora, di solito, quando pensiamo a un software che pensa ci riferiamo a un software delle ultime due categorie, di cui è umano avere paura (e umano non vuol dire giusto). Peccato però che ancora siano solo costrutti teorici, o quasi, soprattutto nella parte più difficile da comprendere anche per noi, il libero arbitrio. Se sentite parlare di software che sterminano l’umanità per produrre più graffette possibile o per eliminare chi porta polvere in casa (esempi non inventati) sappiate che si parla di AGI o ASI a cui, tra l’altro, vengono attribuiti desideri e comportamenti umani: il desiderio di produrre un bene (le graffette) o di eliminare un male (la polvere). Nello stesso tempo, però, consideriamo disumani questi software perché non hanno emozioni o sentimenti. Da qualche parte c’è una falla nel ragionamento. Oppure una volontà di disinformare.

Allucinazioni

Provate a pensare al termine scelto dalla comunità scientifica per descrivere gli errori fattuali e di relazione di ChatGPT(& co): allucinazioni. Anche qui c’è una falla nel ragionamento, anzi, due. Un software di IA generativa – tecnicamente un LLM, un modello linguistico – produce contenuti a partire da quello che ha imparato, come farebbe uno scrittore o un pittore. Il suo compito ristretto(ricordate l’ANI?) non è darci informazioni corrette: è scrivere testi o creare immagini a partire da un’istruzione, il prompt, che può prendere anche forma di una domanda.

Per complicare un pochino le cose in alcuni contesti specifici dare informazioni corrette e precise rientra nella sfera ristretta dei compiti di un LLM: un esempio illuminante è quello della scrittura del software, perché è un linguaggio preciso e codificato, con molte meno ambiguità del linguaggio naturale. Ambiguità di cui abbiamo pochissima consapevolezza, tra l’altro, perché ci viene naturale capire quando una mela è un frutto e quando è una marca di computer. Prima falla del ragionamento: ci aspettiamo informazioni precise da un software di scrittura. Un po’ come lamentarsi con il professore perché Dante non ha dato le coordinate dell’ingresso nell’Inferno. Questo vuol dire non potersi fidare di Dante? No, ma non avrei cercato la ricetta della carbonara nella Divina Commedia.

Seconda falla del ragionamento: definiamo questi errori allucinazioni, cioè una parola che richiama una patologia, strettamente legata agli esseri umani che perdono lucidità. Provate a pensare come cambia il tutto se cambio la parola: gli errori di ChatGPT. Le allucinazioni di ChatGPT. E se le chiamassimo invenzioni? Ancora un altro film. Eppure è sempre la stessa cosa: un software il cui compito è scrivere, quando non sa, genera testi a partire dalla probabilità statistica di quell’insieme di lettere.

Intelligenze artificiali | Gen AI, una seconda alfabetizzazione
@immagine realizzata con Chat Gpt dopo averle fatto leggere questo articolo

IA Generative, cioè co-autrici

Torniamo alla domanda iniziale, e se avessimo sbagliato tutto? Abbiamo dei software per creare contenuti partendo da istruzioni, che devono prevedere anche informazioni corrette, per evitare errori. A chi servono questi software? Una risposta alternativa a quanto normalmente si pensa, soprattutto quando si teme che verranno usati per sostituire dei professionisti, è: servono a chi ha idee, intuizioni, informazioni, ma non la capacità per creare gli artefatti necessari per condividerli. Che siano un testo, un’immagine, musica, un video, un’illustrazione. Questo punto di vista ci risulta difficile perché tendiamo a considerare il risultato come parte integrante dell’intelligenza: sapere cosa scrivere per poter scrivere.

E se ci fossero migliaia di persone che saprebbero cosa scrivere ma non lo sapessero fare? Perché disgrafiche o semplicemente perché la scrittura è un’attività profondamente innaturale? E se ci fossero fotografi ciechi ma con visioni potentissime? Illustratori senza la manualità per disegnare? È per loro che le GenAI sono state create, magari non nelle intenzioni degli sviluppatori, ma come possibilità impensabile fino a pochissimo tempo fa. Io personalmente considero le GenAI una seconda alfabetizzazione, ricordando che la piena alfabetizzazione, in Italia, è stata raggiunta da poco tempo: gli analfabeti erano il 74,1% nel 1861, il 12,9% nel 1950, l’1,06% nel 2011.

Una volta raggiunta la piena alfabetizzazione abbiamo dovuto ammettere che non tutto era andato come previsto, introducendo il concetto di funzionale”, cioè chi, pur sapendo tecnicamente leggere, scrivere e far di conto, non è in grado di farlo a un livello sufficiente per approfittarne davvero. Noi oggi guardiamo gli analfabeti funzionali come un tempo si guardavano i neurodiversi, forse dovremmo davvero cambiare sguardo ed essere felici per l’arrivo di software che permettono a chi è a disagio con tecnologie come la lettura, la scrittura, il calcolo, l’illustrazione di esprimere comunque idee, pensieri, a volte creando arte impossibile da realizzare altrimenti. E, ultimo ma non per minore importanza: permettendo a chi ha una formazione umanistica di scrivere codice, un aspetto di cui si parla davvero troppo poco.

CONDIVIDI

Lavoro e faccio ricerca per aiutare le persone, le aziende, le istituzioni a entrare in relazione con i loro destinatari nel modo meno invasivo, manipolatorio e opprimente possibile. Il mio ultimo libro è In principio era ChatGTP, scritto con Alberto Puliafito per Apogeo.
2 Commenti
  1. Elena

    molto interessante, grazie!

  2. Francesco Tomaello

    Non ci siamo mai chiesti il contrario: quanti dei nostri processi mentali sono il prodotto di routine ripetitive che si attivano in automatico? E in cosa differiscono dagli algoritmi della c.d. AI?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Iscriviti alla niusletter e resta aggiornato

Lascia la tua email qui sotto e rimani aggiornato con le ultime novità dal Blog di Le Nius
Puoi annullare l’iscrizione in qualsiasi momento facendo clic sul collegamento nel footer delle nostre e-mail. Per informazioni sulle nostre pratiche sulla privacy, trovi il link qui sotto.

Su cosa Vuoi Rimanere Aggiornat*?

Scegli lo scopo per cui vuoi ricevere le nostre Niusletter. Scegli almeno un’opzione per permetterci di comunicare con te

TORNA
SU