Site icon Le Nius

Convivere con gli algoritmi. Perché cedere i nostri dati non deve farci paura

Reading Time: 9 minutes
Photo credit: CommScope on VisualHunt / CC BY-NC-ND

Il dibattito sugli algoritmi e sull’utilizzo dei dati personali da parte delle web corporation è più che mai acceso. La rivista Internazionale ha dedicato la copertina del numero di settembre 2017 a Facebook, con un articolo – tradotto per la versione italiana – di John Lancaster dal titolo La merce sei tu. Facebook è il male, si diceva, perché dietro la sua mission umanista (“mettere in contatto le persone”) si nasconde un grande fratello che rivende i nostri dati agli inserzionisti.

7, il settimanale del Corriere della Sera, ha parlato di “Algoritmo Canaglia” gettando ombra sui meccanismi tecnologici che governano le piattaforme web dove trascorriamo la maggior parte del nostro tempo.

A leggere queste cose, in effetti, qualche dubbio può venire. Gli algoritmi e chi li governa, ossia le grandi corporation digitali come Facebook, Google, Apple, Amazon, conoscerebbero tutto di noi. Sanno cosa desideriamo, decidono cosa leggiamo, influenzano ciò che mangiamo, dove viaggiamo e, addirittura, come votiamo. In altre parole, non saremmo noi a scegliere. È davvero così?

Pocket Nius: da sapere in breve

  1. Sì, gli algoritmi ci propongono informazioni basate sui nostri comportamenti precedenti, il che limita la nostra visione del mondo ma ci permette di accedere rapidamente a contenuti di nostro interesse.
  2. Sì, l’autorevolezza perde valore, e c’è il rischio che una fake news abbia più diffusione di una notizia “vera”. Tuttavia, c’è anche molta più possibilità di accedere a punti di vista diversi.

  3. Per funzionare gli algoritmi hanno bisogno di dati. I dati che forniamo sono utilizzati per proporci contenuti di nostro interesse, ma anche a fini commerciali e pubblicitari.

  4. L’utilizzo commerciale dei dati è al centro di un grande dibattito, tra chi difende la possibilità di avere prodotti e servizi personalizzati e chi accusa le web corporation di raccogliere dati per poi venderli, rendendo le persone merci.

  5. Una soluzione che ci metta al completo riparo da questi meccanismi non c’è. La cosa migliore è usare l’intelligenza, scegliere con consapevolezza quali dati cedere e imparare a convivere al meglio con algoritmi sempre più raffinati.

Gli algoritmi limitano la nostra visione del mondo?

Gli algoritmi sono i procedimenti di calcolo che determinano il modo in cui i moderni software leggono, ordinano e mostrano le risposte alle nostre richieste.

Google, ad esempio, ha un algoritmo, che si chiama PageRank, che determina il posizionamento dei contenuti di tutti i siti web nel relativo motore di ricerca. Facebook, invece, ha il suo EdgeRank che regola la visibilità dei post all’interno del nostro newsfeed.

Ogni piattaforma digitale che mette in fila contenuti per noi ha un suo algoritmo, dai video su YouTube, alla musica su Spotify, agli hotel su Booking. Queste macchine decidono per noi? In parte sì, perchè la risposta fornita dagli algoritmi alle nostre risposte è personalizzata.

Claudio Paolucci, allievo di Umberto Eco, in una recente intervista parla a tal proposito di algocrazia.

Ad esempio, l’algoritmo di Google gerarchizza per noi le fonti di informazione, mostrandoci prima i risultati che a) sono basati sulle nostre consultazioni passate; b) vengono considerati più autorevoli, cioè degni di risultare ai primi posti. I contenuti autorevoli sono quelli che hanno maggiori connessioni che puntano ad essi, indipendentemente dall’autorevolezza intrinseca dell’autore del contenuto.

La prima critica mossa all’algocrazia è quella di limitare la nostra visione del mondo: vediamo solo ciò che ci è familiare, perché ciò che ci viene proposto si basa su ciò che abbiamo visto in precedenza. La gerarchizzazione basata sui nostri comportamenti porterebbe a mantenerci in una bolla informativa digitale, dove i contenuti che leggiamo tendono ad essere simili al nostro modo di pensare, di vedere le cose, di leggere la realtà. In pratica, l’intelligenza artificiale degli algoritmi ci allontanerebbe da quella “neutralità” che inventori e pionieri di internet declamavano come sommo princìpio.

È davvero così? Sì. Le informazioni di cui fruiamo sono “viziate” dalle tracce digitali che abbiamo lasciato, ma questo non è sempre negativo. Spesso è utile accedere rapidamente ai contenuti di cui abbiamo bisogno e gli algoritmi ci aiutano in questo.

La seconda critica è sulle fonti: quello che leggiamo non è il contenuto più autorevole in assoluto, ma quello più popolare nella rete. Gli algoritmi ci porterebbero ad accedere a contenuti e informazioni la cui reputazione è calcolata su parametri parziali.

Anche questo può essere distorsivo? Sì, perché quello che in tanti leggono e condividono non è necessariamente il contenuto più “vicino” alla verità.

La diffusione delle cosiddette fake news, ad esempio, ne è una conseguenza. C’è anche da dire, però, che in passato le fonti di informazione consultabili erano molte meno di adesso e incappare in notizie poco attendibili comportava un rischio maggiore, per mancanza di contro-opinioni. Oggi, grazie alla rete, possiamo accedere a punti di vista differenti sullo stesso argomento in pochi click.

Per funzionare bene gli algoritmi hanno bisogno di dati. I nostri.

Photo credit: luckey_sun on Visual Hunt / CC BY-SA

Gli algoritmi organizzano e mettono in fila per noi molti tipi di contenuti: gli hotel in una piattaforma di prenotazione, i prodotti nello shopping di un e-commerce, i post sui social network, i film sulle piattaforme di streaming. Buona parte dei comportamenti digitali viene orientata dagli algoritmi, sulla base dei dati che ci riguardano.

Da un lato, dunque, i dati sono le fondamenta di una buona “piattaforma”. Nir Eyal, nel suo libro Hooked parla di come costruire prodotti e servizi che generino dipendenza nelle persone (il contenuto del libro è riassunto bene in questo articolo). Eyal sostiene che il vantaggio competitivo nel mercato è in mano alle aziende che hanno saputo creare abitudini nei clienti.

Facciamo un esempio. Se Facebook fosse rimasto al funzionamento dei primi anni, quando i contenuti di amici e pagine erano consultabili solo in ordine cronologico, gran parte di noi, con molta probabilità, si sarebbe con il tempo disaffezionato alla piattaforma.

Mostrando, invece, contenuti sempre più rilevanti per ognuno noi – grazie all’algoritmo – ha generato quell’effetto calamita che ci fa accedere all’app, in maniera quasi del tutto inconsapevole, più e più volte al giorno.

Facebook ha creato l’abitudine perfetta, grazie ai dati che noi stessi abbiamo fornito e che continuiamo a rendere disponibili ogni giorno all’azienda di Zuckerberg.

Gli stessi dati, però, possono essere usati anche per offrire contenuti promozionali o pubblicitari, e quindi, nella nostra ottica, più invasivi e fastidiosi.

I sistemi di tracciamento in rete, infatti, permettono agli inserzionisti – le aziende che acquistano spazi sulle piattaforme – di arrivare ai propri pubblici potenziali, già segmentati. Gli inserzionisti possono inviare comunicazioni e contenuti personalizzati per il singolo individuo (o meglio, per tanti blocchi di individui con caratteristiche simili), a partire dalle azioni compiute in rete.

Questo, nel marketing, si chiama targeting comportamentale.

La controversia del targeting comportamentale

Il targeting comportamentale, ossia l’individuazione di pubblici sulla base dei comportamenti reali, non è un’invenzione recente. Già nel lontano 2006, infatti, Microsoft introdusse l’uso dei cookies, i file di dati che memorizzano il comportamento sul web.

L’obiettivo era quello di consentire alle aziende di profilare in maniera più accurata i clienti, andando oltre le caratteristiche demografiche, per arrivare ad una segmentazione basata sui comportamenti dei navigatori della rete.

La controversia del targeting comportamentale è accesa da più di un decennio: i suoi sostenitori, tra cui ovviamente corporation, uomini di azienda e professionisti della comunicazione, sostengono che in questo modo le persone possono visualizzare annunci e campagne pubblicitarie per loro più rilevanti, superando così la comunicazione indistinta e massificata che faceva da padrona nell’era televisiva.

Insomma, la buona comunicazione passerebbe per il buon targeting. Cosa che non è del tutto sbagliata. Chi lavora nel marketing sa bene che i messaggi che funzionano – e che sono anche apprezzati dai clienti – sono quelli contestuali, ossia inviati al momento giusto, alla persona giusta, con il giusto contenuto.

I suoi detrattori, invece, vedono il lato opposto della medaglia, che è esattamente quello che leggiamo negli articoli citati in apertura: i monopolisti della rete ci osservano e usano le nostre informazioni per vendere la pubblicità, o peggio ancora, per convincerci a votare un partito politico piuttosto che un altro alle prossime elezioni.

Il tema ha generato una polarizzazione. Da un lato, si urla: “i nostri dati sono in vendita! Difendiamo la privacy!”. Dall’altro, però, si dice: “vogliamo avere prodotti e servizi che fanno al caso nostro! Che bello Spotify che mi suggerisce la musica che amo davvero!”.

Se però vogliamo avere contenuti allineati con i nostri gusti e che anticipino ciò che desideriamo (un film, una serie televisiva, un libro, un articolo, un prodotto che ci farebbe comodo) dobbiamo rassegnarci al fatto che i nostri dati vanno a finire nelle mani di alcune aziende.

Una questione di consapevolezza

Il punto cruciale della questione è la consapevolezza. Quando concediamo i nostri dati a) siamo consapevoli di farlo; b) non sappiamo che lo stiamo facendo; c) lo sappiamo ma non ci importa?

Affermare che i monopolisti della rete tracciano le informazioni a nostra insaputa è ingiusto. I player del digitale sono abbastanza chiari sul modo in cui raccolgono e utilizzano i dati.

Un esempio è la normativa sui dati di Facebook in cui si spiega chiaramente cosa l’azienda prende da noi e in che modo concede le nostre informazioni su gusti, attività ed interessi agli inserzionisti.

Un’interessante ricerca di Kaspersky Lab ha dimostrato che le persone tengono molto ai propri dati, in particolare a foto e ricordi, ma che sarebbero disposte a cederli in cambio di somme di denaro. Da questo desumiamo che se fossimo pienamente consapevoli dell’importanza, anche affettiva, dei dati che forniamo, dovremmo essere ricambiati per ogni pezzettino di noi che mettiamo in rete.

Perchè questo non avviene? La risposta è semplice. L’azione di “concedere dati” è l’atto stesso di “compiere azioni digitali” che ormai fanno parte della nostra quotidianità (vedi sopra, Nir Eyal e le abitudini).

Quando pubblichiamo una foto, postiamo un pensiero o condividiamo un articolo sui social network, la nostra mente non associa quell’azione al fatto di concedere un dato. Tutt’altro. I meccanismi psicologici legati alla condivisione sono legati alle ricompense che ci aspettiamo di ricevere (una notifica, un commento). Questi feedback di ritorno innescano il rilascio di dopamina nel nostro cervello, che è lo stimolatore dell’azione.

Allo stesso modo, quando diamo il consenso alla cookie policy di un qualsiasi sito web, o quando spuntiamo “accetto” sulle condizioni di vendita di un e-commerce, stiamo accettando di lasciare le nostre tracce. Perchè in quel momento, vogliamo portare a compimento un’azione e soddisfare il nostro bisogno informativo, di acquisto o di intrattenimento.

Anche se razionalmente sappiamo che stiamo concedendo informazioni personali, non ci importa. Non è il timore dell’uso dei dati da parte di qualcun altro che plasma e determina i nostri comportamenti. È il nostro innato bisogno di ricompensa, di informazione, di chiudere il cerchio tra pensiero ed azione.

Questo atteggiamento, dunque, è come una “consapevole spensieratezza”, alla stregua di quando mangiamo un gelato con la panna pur sapendo dell’apporto calorico per il nostro organismo.

Soluzioni impossibili

Photo credit: espaciosparaelarte on VisualHunt.com / CC BY-NC-SA

In linea teorica sarebbe possibile ingannare un pò gli algoritmi per tentare di “uscire dalla bolla”. Si potrebbe, ad esempio, utilizzare like e condivisioni verso articoli con cui non siamo d’accordo su Facebook, per portarlo a mostrarci notizie diverse dal solito. Possiamo anche usare motori di ricerca alternativi a Google oppure effettuare ricerche e navigazione da browser in modalità anonima.

Per assurdo, potremmo anche limitare la condivisione e la fruizione di informazioni digitali. Ad esempio, nulla ci vieta di leggere le notizie solo sui quotidiani cartacei. L’unico, a quel punto, che potrebbe tracciare dati su ciò che consultiamo, è il giornalaio. Potremmo pubblicare una foto in meno su Facebook, una storia in meno su Instagram. Potremmo usare meno Whatsapp, e così via.

Questo comporta una doppia riflessione. La tecnologia avanza e l’Intelligenza Artificiale potrebbe rivelarsi presto più furba di noi nel comprendere ed anticipare gusti e preferenze. Aggirare gli algoritmi è una tattica di durata breve. Tantomeno è logico riavvolgere il nastro della storia.

Come sostiene Antonio Garcia Martinez, ex dipendente di Facebook, in un’intervista per l’Espresso:

“Sbaglia chi pensa che si tratti di un optional, che potremmo tutti smettere di usare Facebook se in qualche modo decidessimo di farlo. Se anche domani scomparisse, verrebbe rimpiazzato da un altro social network per definire la nostra identità online, e sarebbe il nuovo Facebook. È così che siamo stati condizionati a vivere, e questo non si cambia. È come avere l’acqua corrente: potrà essere questo o quel soggetto a fornirla, ma ormai è una caratteristica delle società umane.”

Se sostituiamo Facebook con qualsiasi altra piattaforma di massa, il risultato non cambia.

In sostanza, i dati costituiscono il flusso di sangue che scorre nelle vene degli ecosistemi digitali e che ne permette la sopravvivenza. Se li tagliassimo fuori e, con essi, la possibilità di raccoglierli da parte di piattaforme ed aziende, limitando quello che possono vedere o sapere di noi, le stesse reti sociali verrebbero a cadere. Non soltanto le campagne pubblicitarie “mirate”, ma l’intero network di azioni e relazioni che formano i contesti digitalizzati che siamo abituati ad usare.

Allora, mi accorgo che algoritmi e abitudini, corporation digitali e ambienti a noi familiari, raccogliere dati per dare un miglior servizio e raccoglierli per fare marketing, sono lati della stessa medaglia che vengono, al bisogno, osannati o demonizzati per sostenere questa o quella tesi. E che per quanto cerchiamo di uscire da un recinto, ci troveremo sempre in un recinto più grande, o al massimo in un altro recinto.

Non ci resta che tenere acceso il cervello e la nostra capacità di giudizio. I dati? Come i pensieri, vanno e vengono. Scegliamo quali dare e quali usare, con consapevolezza. L’antidoto all’Intelligenza Artificiale è la nostra Intelligenza Naturale. Usiamola più che possiamo.


5 link per saperne di +

1. Il + onnivoro

Uno spiegone di Valigia Blu su termini come profilazione, big data, data mining, bias degli algoritmi, data surveillance.

2. Il + deep

Questo articolo de Il Tascabile fa il punto della situazione sul deep learning, la tecnica alla base delle recenti evoluzioni dell’Intelligenza Artificiale.

3. Il + fake

Alberto Puliafito sul suo blog spiega in modo breve e incisivo cosa sono le fake news.

4. Il + bubble

Questa puntata di Digital World, programma di Rai Scuola, si occupa di filter bubble, la bolla informativa digitale in cui gli algoritmi ci farebbero vivere.

5. Il + google

Cosa fa l’algoritmo di Google quando facciamo una ricerca? Lo spiega Matt Cutts, ingegnere di Google, in questo video.

CONDIVIDI
Exit mobile version