Pubblichiamo questa discussione, scritta da Stefano Maschietti, riguardante lʼultimo libro…
Guido Seddone, Internet è una grande risorsa, ma per non inciampare nei pregiudizi, richiede la capacità di fare la critica delle fonti. Quello che gli studi umanistici dovrebbero insegnare
Internet e il progressivo sviluppo dell’intelligenza artificiale rappresentano ormai un fenomeno ampiamente affermato nell’uso quotidiano, ma anche per lo più sconosciuto da parte dei suoi fruitori. Questo è l’elemento che dovrebbe far suonare un campanello d’allarme a qualsiasi filosofo che si rispetti perché come affermava Mark Twain se è vero che ciò che non conosciamo ci può arrecare problemi, è altrettanto vero che ciò che crediamo di conoscere ce ne può arrecare molti di più. La storia di internet è breve quanto veloce e di sicuro la navigazione oggi è molto differente da quello che era negli anni ’90 del secolo scorso. Con il nuovo millennio molte cose sono cambiate perché i motori di ricerca ed i social hanno iniziato ad inserire degli algoritmi finalizzati a personalizzare la nostra esperienza in rete e conseguentemente le informazioni a cui accediamo. Mentre negli anni ’90 internet era visto come un grande strumento di emancipazione di massa in quanto rendeva possibile la partecipazione attiva di ciascun utente alla costituzione dell’informazione e quindi della coscienza pubblica attraverso forum, chats, emails e costituzione di giornali tenuti dagli stessi utenti, oggi le cose sono radicalmente cambiate sulla base del principio della rilevanza. Infatti, la grande mole di dati a disposizione non consente più una fruizione diretta degli stessi, per poterne fruire in maniera adeguata dobbiamo utilizzare un filtro che ci proponga le informazioni più adatte al nostro profilo.
In questo modo entra in gioco l’intelligenza artificiale che altro non è che un algoritmo in grado di personalizzare le ricerche degli utenti sulla base del principio di rilevanza: di conseguenza le informazioni che avranno maggior rilievo saranno quelle che maggiormente corrispondono alle precedenti navigazioni dell’utente. Questo metodo è stato ampiamente sperimentato nei primi anni del nuovo millennio dai motori di ricerca e dai negozi di shopping online che, all’epoca, vendevano prevalentemente libri. Quest’ultimo caso è molto significativo perché i motori di ricerca di questi negozi online erano in grado di mostrare un alto livello di corrispondenza anche utilizzando le informazioni provenenti dagli acquisti e dalle visualizzazione di altri clienti. A partire da queste prime sperimentazioni nel corso degli ultimi anni l’utilizzo di queste forme di filtro sono diventate progressivamente più assidue e pervasive come descrive bene Elly Pariser nel suo illuminante libro Il Filtro (2012). Social networks, negozi online, motori di ricerca, giornali online, campagne elettorali etc. fanno sempre più uso di internet e sempre più risulta necessario filtrare e selezionare le informazioni a cui l’utente può attingere. Se da un lato questo sistema si rende necessario per consentire all’utente di avere dell’informazioni già filtrate e per evitare il caos derivato da una mole di dati umanamente non gestibile, dall’altro questi algoritmi funzionano attraverso il semplice principio della conferma di schemi già dati e non prevedono la possibilità di una revisione degli stessi. Ciò produce un fenomeno cognitivo noto ai filosofi da molto tempo e che F. Bacon aveva stigmatizzato con l’idea che il comprendere umano tenda erroneamente a basarsi più sulle affermazioni che sulle negazioni, producendo così un confirmation biaso pregiudizio cognitivo di confermasecondo cui il pensiero umano tenda ad optare per opzioni ed informazioni che confermino il proprio schema piuttosto che valutare opzioni che lo mettano in crisi. Questo pregiudizio, che si oppone anche al principio epistemologico di Popper sulla falsicabilità delle teorie scientifiche, è l’esito del fatto che la coscienza umana è intrisa di emotività che spesso sconfina, come osservavano positivisti logici come Carnap e Schlick, negli ambiti oggettivi della conoscenza mettendo così a rischio una neutrale elaborazione del dato. La lezione di Carnap e Schlick si basa sull’assunto che il pensiero oggettivante dovrebbe essere scevro di tutte quelle componenti emotive che lo potrebbero pericolosamente avvicinare alla sfera del soggettivo, ma perché questo avvenga è necessario educare la mente ad una rigorosa distinzione tra l’elemento fattuale e quello meramente personale. Il pregiudizio cognitivo di conferma, come dimostra la psicologia cognitiva, è uno di quei fattori scatenanti l’erronea valutazione del dato da parte del singolo individuo e l’edificazione di una consapevolezza distorta rispetto al reale. Come avviene che l’intelligenza artificiale [IA] possa contribuire a promuoverlo?
Il fenomeno è semplice quanto subdolo: i fornitori di servizi online allo scopo di commercializzare meglio i propri prodotti puntano a personalizzare la navigazione degli utenti attraverso il principio di rilevanza. In questo modo i nostri acquisti, come i social networks e le ricerche online vengono pre-organizzate e nei social networks saremo indotti a interagire con un numero limitato di contatti, i motori di ricerca daranno rilievo a siti sulla base di precedenti ricerche e precedenti click, i prodotti offerti dai negozi online verranno circoscritti. A partire da questo sistema base, il potere degli algoritmi si sta dimostrando in ampia crescita: i cookies per esempio non sono altro che cartellini virtuali che restano attaccati al nostro ID per un certo periodo consentendo ad altri siti di raggiungerci. Se abbiamo cercato un paio di scarpe, allora sarà probabile incontrare proposte di scarpe simili per un certo periodo di tempo. Questo funziona anche nel regno dell’informazione, ormai non più gestita dalle redazioni dei giornali che stabilivano la priorità delle notizie dei quotidiani, che attraverso i social raggiunge gli utenti in maniera sempre più selettiva: l’interesse verso un certo tipo di notizie mostrato attraverso queries, likes e visualizzazioni determina la tipologia di notizie e articoli di giornali che appaiono nei social e nelle varie app di notizie dei nostri dispositivi. Il restringimento delle notizie raggiunte rappresenta un grave rischio per lo sviluppo della coscienza civica di ciascuno nonché della natura pubblica del dibattito politico, relegando ciascun cittadino all’interno della propria bolla informativa. Il fenomeno è connesso alla crisi della stampa e dell’informazione tradizionali (McIntyre 2019) che vede il declino del modello basato sulla redazione del giornale che di fatto centralizzava e monopolizzava la rilevanza delle notizie attraverso la scelta di come impaginarle. Se questo modello tradizionale poteva essere accusato di essere troppo autocratico e di, di fatto, decidere il rilievo di ciascuna notizie, l’attuale modello basato sulla personalizzazione di ciascun profilo web porta ciascun utente a raggiungere notizie che precedenti navigazioni mostrano che lui gradisce, venendo meno al principio del carattere fattuale dell’informazione (è necessario, cioè, essere informato sui fatti in quanto tali e non in quanto apprezzati).
Il fenomeno della personalizzazione della navigazione web contribuisce, inoltre, ad accrescere il valore economico dei dati di navigazione di ciascun utente in quanto essi diventano utili a raffinare sempre più il principio di rilevanza e di correlare i dati di utenti differenti. Ecco che le nostre navigazioni vengono anche determinate associando il nostro profilo a quelli di altri utenti per età, sesso, provenienza geografica, professione, reddito, etc. In altre parole gli algoritmi vengono programmati (sovente anche ri-programmati come avviene in Facebook dove i criteri di rilevanza pare che vengano modificati quotidianamente) allo scopo di determinare le nostre varie esperienze online e renderle commercialmente proficue per chi accumula dati. Ciò inverte radicalmente il modo di essere utente: non tanto fruitore autonomo di notizie e dati con la possibilità lui stesso di caricare contenuti e metterli a disposizione degli altri utenti come avveniva negli anni ’90, bensì contenuto lui stesso perché attraverso le sue navigazioni fornisce dati utili per creare ulteriori correlazioni con sue precedenti navigazioni e con quelle di altri utenti. Come conseguenza di ciò, gli algoritmi forniscono il servizio ciclopico di produrre correlazioni attraverso l’analisi dei cosiddetti Big Data(Schönberger/Cukier 2013) e di ritagliare la navigazione di ciascun utente. Non c’è dubbio che il potere di creare correlazioni da parte dell’IA è enormemente più vasto di quello umano, per cui in futuro sulla base dei nostri profili la macchina potrà fornirci indicazioni molto precise sui nostri acquisti, relazioni sociali, comportamenti sportivi, dieta, condizioni di salute e via dicendo. Non c’è dubbio che progressivamente la macchina (rappresentata dal coordinamento di algoritmi, intelligenza artificiale e vari dispositivi, tra cui anche quelli da indossare come smart watches e occhiali) si fonderà sempre più con l’uomo fornendo indicazioni, suggerimenti e contribuendo anche all’edificazione della coscienza politica e del senso estetico.
I politici hanno già la possibilità di raggiungere i loro elettori attraverso algoritmi messi a disposizione dai social networks e di rivolgere loro i contenuti parziali della loro campagna elettorale, quelli ovviamente che l’algoritmo individua come di maggior interesse per quell’utente. Il risultato è anche un profondo cambiamento del nostro modo di costituire lo spazio politico in democrazia, tradizionalmente spazio pubblico per eccellenza in cui i rappresentanti erano tenuti ad presentare pubblicamente ed esaustivamente la loro visione politica. Essi venivano così tradizionalmente esposti alla coscienza pubblica rendendo così possibile la costituzione di una coscienza pubblica condivisa, ossia una coscienza costituita attraverso un accordo di massima che contiene divergenze parziali. Ma cosa succede se lo spazio politico si realizza attraverso la rete, ossia attraverso l’interazione di ciascuno con il proprio dispositivo e i propri accounts dei social networks? Succede che le precedenti navigazioni determineranno i contenuti politici che l’utente andrà a vedere sulla base del principio di rilevanza stabilito da likes, visualizzazioni, commenti e correlazioni varie, il che farà perdere la visione di insieme sulla proposta politica di ciascun rappresentante o candidato. La base stessa della democrazia, l’agoràossia lo spazio pubblico in cui discutere questioni di interesse pubblico, viene messa in seria discussione e con essa il modo in cui in occidente si è fatta politica da 3000 anni a questa parte. In effetti, l’esito ultimo dell’uso esasperato degli algoritmi è quello di creare una bolla filtrante attorno a ciascun utente, ossia una dimensione di informazione apparentemente sconfinata ma in realtà determinata dai filtri sviluppati dall’intelligenza artificiale. La caratteristica della bolla è quella, tra l’altro, di non venire percepita, ossia di non essere consapevoli di viverci all’interno, il che distorce sia le capacità critiche e cognitive sia il senso di appartenenza ad una comunità. Gli sviluppi tecnologici prospettati indicano, inoltre, una sempre più stringente fusione tra uomo e macchina attraverso ciò che viene chiamato intelligenza ambientaleche si avvale si avvale di dispositivi da indossare quali orologi e occhiali che potranno identificare le condizioni ambientali e, compatibilmente con quelle del soggetto che li indossa, dare precise indicazioni come quali prodotti acquistare per la propria dieta se in un supermercato, quali partner scegliere se ci si trova in un locale, come programmare il condizionamento della propria abitazione e via dicendo. Questa tecnologia non è molto lontana dal venire introdotta dato che si avvale delle conoscenze tecnologiche già evolute attraverso i caschi dei piloti dei velivoli da combattimento.
In tutto ciò l’elemento forse più rilevante è dato dalla rivoluzione copernicana derivata dal concepire l’utente non come semplice fruitore di contenuti ma come il contenuto stesso (Pariser 2012, 68-108) da osservare, seguire e catalogare. Ciascun click, ciascun battito cardiaco registrato dal nostro smart watch, ciascun like sul social network preferito, ciascuna visualizzazione di una notizia giornalistica, ciascun acquisto, ciascuna geolocalizzazione, ciascun brano musicale ascoltato e via dicendo, rappresenta un dato fondamentale per costituire il profilo della nostra persona, dati utilizzabili e commercializzabili per raffinare i servizi online di oggi e di domani. E’ evidente che ci sono molti aspetti positivi in questa tecnologia che derivano dall’enorme potenziale che l’IA ci offre per comparare dati, creare correlazioni e promuovere stili di vita. Si pensi solo alla salute e alla possibilità di prevenire e diagnosticare malattie con una tempestività impensabile dovuta alla prossimità dei nostri dispositivi personali programmati per “ascoltarci” costantemente. Inoltre, in futuro, potranno anche essere comparati i dati di altri utenti per scoprire correlazioni con patologie latenti. Tuttavia, tutto ciò ha un costo, quello di affidarci in maniera più o meno consapevole alla capacità della macchina di stabilire correlazioni che la nostra mente non potrebbe mai stabilire e quindi di decidere per noi. Se da un lato è fuori discussione il progresso connesso a queste tecnologie, a livello filosofico è giusto porsi la domanda relativa a quanto pervasiva possa diventare questa tecnologia al punto da limitare l’autonomia individuale e l’edificazione di un sapere critico e di una coscienza civica come li abbiamo sempre conosciuti e apprezzati. In altre parole, se la fusione uomo-macchina procederà in questa direzione non ci sarà più bisogno di “pensare” perché ci sarà chi “pensa per noi” il che ripropone la questione kantiana relativa alla minorità come condizione da attribuire a sé stessi (Kant, Che cos’è l’illuminismo). In queste nuove tecnologie si annida un reale rischio di eteronomia e di assopimento del pensiero critico individuale che è stato ampiamente osservato nel fenomeno delle fake news (McIntyre 2019) e dell’assalto al congresso americano il 6 gennaio 2021 da parte di una folla inferocita convinta di che l’elezioni presidenziali del 2020 fossero state truccate. Il fenomeno della post-verità di cui ci parla McIntyre (2019) in un suo recente libro è un fenomeno che non solo si basa sulla crisi delle testate giornalistiche e dell’informazione tradizionale secondo i principi della sua costituzione nel 1700 e che rappresenta l’essenza stessa della democrazia moderna, è anche un fenomeno legato al sempre più massiccio uso di internet e al fenomeno della bolla digitale.
Il pensiero critico, altro importante traguardo della filosofia del ‘700, basato sul principio di ragione come forza intellettiva in grado autonomamente di vagliare, analizzare, legiferare, discutere e articolare inferenzialmente le ragioni, è chiaramente messo all’angolo da ogni forma di influenza che ne metta in crisi l’autonomia. Nella dimensione digitale, in cui le nostre certezze sono edificate sulla base del principio di rilevanza per cui le informazioni a cui accediamo sono filtrate in maniera eteronoma e non sulla base di un esame critico da parte del soggetto, la ragione viene messa alla periferia del decidere, scegliere, valutare nonché della capacità di stabilire il senso del gusto e della partecipazione ad una impresa collettiva (era Wittgenstein che sosteneva la profonda affinità tra estetica, linguaggio e giochi linguistici).
Di conseguenza la domanda che come filosofi dovremmo porci sarà, a mio avviso, quanto spazio possiamo concedere alle macchine (IA + dispositivi hardware) per non ritrovarci nella condizione eteronoma paventata da Kant a fine ‘700 secondo cui la minorità degli uomini è il risultato del concedere ad un altro poterela facoltà di pensare e decidere al nostro posto. Tuttavia, questa non è l’epoca della superstizione religiosa e dello sfruttamento di essa da parte di alcune élite finalizzato al controllo della società. Nell’epoca dell’IA l’eteronomia è il risultato di una tecnologia evoluta dall’uomo stesso e che rappresenta, nonostante tutto, un notevole avanzamento nell’ambito della conoscenza e della qualità della vita. Ciò nondimeno, il suo carattere pervasivo ed invisibile unito al suo potere di stabilire correlazioni in un modo molto più dettagliato e preciso rispetto alla mente umana la rendono una tecnologia che sostituisce la ragione umana determinandola.
Quali sono gli aspetti che la rendono così pericolosa? In sintesi sono due: il primo è privare l’uomo del controllo sul processo decisionale nel momento in cui non si conoscono tutti gli aspetti logico-fattuali che possono portare a stabilire cosa acquistare, che relazioni intrattenere, che articoli di giornale leggere, che politici seguire sui social, etc. Buona parte delle decisioni è già stabilita dall’algoritmo che restringe il campo delle nostre possibilità, quando sappiamo benissimo che la creatività umana è il risultato del convergere di stimoli molteplici e spesse volte contrastanti (Pariser 2012, 25-26). Il principio di rilevanza inoltre non fa altro che confermare degli schemi prestabiliti e basati su precedenti navigazioni dell’utente determinando così le esperienze online senza mettere in discussione gli schemi già dati. Si consideri, per esempio, le convinzioni politiche e un utente che attraverso social networks, likes e visualizzazione di siti online dimostra una certa predilezione nei confronti della svolta ecologica nell’economia e nelle politiche della propria nazione. L’IA sulla base di ciò continuerà a proporgli siti, notizie, informazioni e contatti social coerenti con la rilevanza delle sue precedenti ricerche, non solo restringendo le sue ricerche ma anche, quel che è peggio, confermando ad oltranza le sue idee. Noi filosofi sappiamo benissimo, invece, quando sia importante per l’intelligenza umana e lo sviluppo di una coscienza critica e politica il confronto con idee diverse, il vedersi criticati per le proprie, il doverle eventualmente rivedere o difendere. Il sapere è un fatto logico-argomentativo basato su inferenze che sviluppiamo all’interno di uno spazio logico di ragioni costituito socialmente (Sellars 2004 e Brandom 2002). Il secondo aspetto che ci deve far preoccupare è quello più strettamente pedagogico in quanto queste tecnologie sono fruibili dai giovanissimi e possono incidere fortemente sui loro processi formativi e sullo sviluppo delle loro capacità cognitive, sociali e relazionali. I due aspetti sono strettamente correlati, ovviamente, in quanto l’educazione diventa il baluardo per evitare che la fusione uomo-macchina ci porti al predominio della macchina sull’uomo.
La filosofia assume un ruolo molto importante in questo contesto in cui il pensiero critico e autonomo è sfidato dall’egemonia delle nuove tecnologie che ovviamente risultano utili nella vita di tutti i giorni ma il cui uso corretto è connesso ad una certa consapevolezza. Sapere come l’IA funziona e le logiche commerciali sottostanti è sicuramente molto importante ma non è sufficiente nel momento in cui non ci soffermiamo a riflettere sull’importanza della ragione come legislatrice autonoma della nostra dimensione teorica e pratica. Affinché l’IA non arrivi a pensare e decidere per noi ponendoci in una condizione di minorità non è solo necessario constare che è molto più potente del nostro pensiero nello stabilire correlazione, va anche compresa come potere eteronomo, dobbiamo cioè ripensare la normatività. E’ importante riscoprire l’uomo in una maniera simile a ciò che fecero i pensatori nel Rinascimento italiano come centro dell’universo e della vita, ossia come paradigma del normativo. Solo in questo modo lo strapotere della macchina potrà essere domato e sfruttato nella maniera più consona. I banchi di scuola possono rappresentare un buon esempio: insegnare la storia diventerebbe un modo per fare riferimento ad un epoca in cui buone soluzioni si trovavano nonostante l’assenza dell’IA. L’esempio di personaggi, filosofi, scienziati, politici e artisti del passato potrà essere illuminante e servire a mostrare esempi di genio umani autonomi ed indipendenti dalla presenza invadente dei dispositivi elettronici e ciononostante in grado di trovare soluzioni e di gestire situazioni e problematiche più disparate. Riscoprire e far riscoprire il genio umano, le sue peculiarità, la sua storia, le sue caratteristiche basate sia sul pensiero logico che sulla creatività e sulla rivoluzione degli schemi metodologici e concettuali sarà la grande sfida della scuola del futuro, e la filosofia sarà al centro di questa sfida più di ogni altra disciplina per il suo ruolo nello sviluppo del pensiero critico e di capacità analitiche, nonché per la sua possibilità di attingere esempi dalla storia del pensiero filosofico, politico e scientifico.
In conclusione, la filosofia in futuro giocherà un ruolo fondamentale anche perché buona parte del lavoro cognitivo sarà svolto dalla macchina, per cui spetterà al pensiero filosofico valorizzare il pensiero e la coscienza critica dei cittadini, l’autonomia di giudizio, le capacità analitiche e argomentative, il valore della spazio politico pubblico e dell’edificazione della coscienza civica, il rimettere l’uomo al centro insieme alla sua genialità, creatività e gusto estetico, il riscoprire le arti, la bellezza e l’armonia. Esempi cardine della storia del pensiero saranno il Rinascimento e l’Illuminismo epoche in cui il decadimento della ragione di fronte alla superstizione e alla minorità è stato contrastato esattamente valorizzando quegli aspetti che oggi, in maniera rinnovata, siamo come filosofi chiamati ancora una volta a difendere e promuovere.
Bibliografia
R. Brandom, Articolare le ragioni, Milano: Il Saggiatore (2002).
I. Kant, Che cos’è l’Illuminismo(1783).
L. McIntyre, Post-Verità, Novara: UTET (2019).
E. Pariser, Il filtro, Milano: Il Saggiatore (2012).
W. Sellars, Empirismo e filosofia della mente, Torino: Einaudi (2004).
V. Schönberger e K. Cukier, Big Data, Milano: Garzan