PHOTO
Nel 1998 tutti guardavano alla nascita di Google come alla premessa di un avvenire sfolgorante, che avrebbe fatto del motore di ricerca il cuore pulsante di una rivoluzione culturale capace di democratizzare il sapere e l’accesso alla libera conoscenza. Ma vent’anni dopo, le istanze egualitarie che avevano accompagnato il boom della rete appaiono tradite. La recente multa di 4,34 miliardi che la Commissione europea ha comminato al colosso di Mountain View, indica che qualcosa è andato storto. Accusato di aver abusato della sua posizione dominante per aver installato sugli smartphone una serie di app preconfezionate legate al sistema Android, considerate dall’Ue limitative della libera scelta dell’utente, Google non è più da un pezzo quel semplice vettore di conoscenza che si pensava alle origini, ma un colosso che macina profitti miliardari capaci di sfiorare nel 2017 i 100 miliardi di euro.
Che cosa ne è stato dell’utopico progetto nato in un mitico ga- rage di Menlo Park, dalla fantasia dei due ricercatori Larry Page e Sergey Brin? E quali sono oggi nodi e prospettive di un gigantesco hub informatico, a partire dal quale si snodano oggi i binari della conoscenza collettiva in regime pressoché di oligopolio? A queste e altre domande prova a rispondere in maniera stimolante Il lato oscuro di Google, l’autorevole saggio che il collettivo hacker Ippolita ha dedicato a mister G. per i tipi di Milieu edizioni, che oggi torna in libreria in una nuova versione riveduta e aggiornata.
Ripartiamo dall’inizio.
Se oggi Google non è più un sistema di search & rescue che consente a tutti di navigare nei mari perigliosi del sapere, è in buona sostanza perché la scialuppa democratica dell’oggettività si è infranta sugli scogli della personalizzazione. L’esigenza di targettizzare gli annunci pubblicitari, mediante risultati tagliati su misura dell’utente, ha prodotto oggi miliardi di homepage l’una differenti dall’altra. A fare da spartiacque tre le due epoche è l’inizio del nuovo millennio, quando Google decide di sostenere economicamente i propri servizi prima con l’introduzione del sistema di AdWords, uno strumento di self- service pubblicitario offerto agli inserzionisti, basato su parole chiave e integrato con il motore di ricerca; e poi nel 2004, con Ad-Sense, un servizio collegato ad AdWords che consente di inserire banner pubblicitari nei siti web. È proprio nel 2004 che cambia il modello di business del colosso di Mountain View, che per riuscire a sostenere la propria esplosione comincia a investire in modo massiccio in nuovi server e sposta il suo know how operativo dalla pura ricerca al data mining, ossia l’analisi dei comportamenti dei dati degli utenti come fonte di reddito. Da lì in poi è un’escalation, che nel volgere di tre lustri cambia per sempre il nostro modo di percepire la rete.
Come sottolinea in The Filter Bubble il guru del web, Eli Parisier, oggi il colosso di Mountain View usa 57 diversi indicatori per scoprire chi siamo e che cosa vogliamo, e costruire risultati di ricerca conseguenti alle nostre inclinazioni. Così che Google non è più uguale per tutti. Il risultato, per dirla con le parole di Parisier, è che «ti svegli una mattina e ti trovi in un mondo in cui tutti la pensano come te. Tutti hanno le tue idee politiche, le tue convinzioni religiose, i tuoi gusti culinari. Nessuna discussione sul calcio di rigore non dato alla tua squadra: tutti gli amici su Facebook e i commentatori sportivi che trovi via Google sono d’accordo con te. Un mondo ideale? Beh, ammettiamolo: è un’ipotesi leggermente inquietante».
In sintesi, ciascun utente del motore di ricerca suppone di muoversi in un oceano informazionale potenzialmente infinito, ma oggi si trova a nuotare in una bolla cognitiva che ne riflette pensieri, convinzioni e inclinazioni. Non si tratta qui soltanto di “innocenti invasioni” come le news a misura di tifoso o di previsioni meteo differenziate, ma di un cortocircuito epistemologico ben più preoccupante. Ad esempio, spiega Parisier, «ora che Google è personalizzato la ricerca di cellule staminali probabilmente dà risultati diametralmente opposti agli scienziati che sono favorevoli alla ricerca sulle staminali e a quelli che sono con- trari». E il medesimo blackout socio- culturale, oggi deflagra intorno a temi sensibili come i vaccini, la giustizia, le carceri, i migranti e chi più ne ha più ne metta.
Purtuttavia, se tale meccanismo è oggi acclarato e per certi versi prevedibile su social come Facebook che l’utente contribuisce a costruire sulla base dei suoi desiderata mediante le reti amicali e i link ai suoi argomenti preferiti, in un contesto come quello di Google, esso appare piuttosto subdolo. Nel compilare la famosa barra di ricerca dal quale si diparte ogni sessione, il cybernauta è infatti convinto di muoversi in un retroterra conoscitivo autorevole e apparentemente immutabile validato da altri miliardi di utenti, a prescindere dalle loro inclinazioni. Con il risultato che «la personalizzazione – chiosa ancora Parisier - può produrre una sorta di determinismo dell’informazione».
E siamo qui al primo nodo che i ricercatori di Ippolita pongono alla nostra attenzione. Può definirsi al servizio della democrazia, il gigantesco magazzino di Google, dal quale ciascuno ordina inconsapevol- mente in pronta consegna frammenti di sapere targettizzati? La risposta di Parisier è in questo senso pessimistica. «La democrazia – osserva lo studioso - dipende dalla capacità dei cittadini di confrontarsi con punti di vista diversi. Quando ci offre solo informazioni che riflettono le nostre opinioni, internet limita questo confronto». Come spiega Ippolita, viviamo oggi il passaggio dall’Information Technology ( IT) al Totalitarismo Informazionale ( TI) di cui l’algoritmo è l’oscuro regista. E che comporta quindi, al di là dello scenario di oggettività rappresentato su ogni singola pagina di ricerca, una preponderanza dell’automazione sulla libera scelta, delle soluzioni algoritmiche “pensate per te” sulla volontà indipendente. Una forma di esistenza assistita, sempre più invasiva e onnipresente, che tenta di applicare il sondino cibernetico anche alle nostre azioni quotidiane e mira a un connubio informatico- umano indivisibile, plasticamente rappresentato dal nuovo claim pubblicitario dell’azienda: «Fallo fare a Google».
Ma il procedimento di disumanizzazione della conoscenza, consegnata su un piatto d’argento all’entità deresponsabilizzante dell’algoritmo, non produce bias cognitivi soltanto sul piano qualitativo, ma anche su quello meramente quantitativo. Le informazioni veicolate dal motore di ricerca, infatti, non sono solamente soffiate all’interno di una bolla cognitiva, ma moltiplicate all’infinito all’interno di un meccanismo che altera i tradizionali meccanismi dell’attenzione, e spezza le millenarie prassi di apprendimento, fondate sull’indagine e sulla cultura del dubbio.
Il sovraccarico informativo crescente, che si dispiega di fronte a noi ad ogni ricerca, ci costringe tacitamente ad accettare senza indagini tutto ciò che viene offerto alla nostra ricerca. Così che viene a mancare, tra noi ed il sapere, quel filtro cognitivo essenziale nel costituire un’intelligenza euristica. Non si tratta semplicemente di discernere tra un’informazione di qualità e una approssimativa o peggio manipolatoria. Ma anche di consentire alle informazioni acquisite di sedimentarsi in conoscenza autentica. Il sovraccarico informativo, nota infatti Nicholas Carr nel suo Internet ci rende stupidi? , pone infatti l’accento sui metodi di ricerca in voga sulla rete, che fitta di link correlati infiniti, spesso distoglie il viaggiatore della rete dalla strada da lui prescelta. Contrariamente alla lettura lineare, gli ipertesti di cui è fatta la rete ostacolano infatti la focalizzazione, mettendo in seria difficoltà la zona del cervello più antica dell’essere umano, quella “Reticular Activating System” ( RAS) che costituita da gruppo di neuroni specializzati nel controllo dello stato di veglia e del ritmo circadiano, consente all’essere umano di essere cosciente di ciò che vive o apprende. Si tratta di temi e nodi emersi già da qualche tempo grazie al progetto “The Onlife Initiative”, promosso e finanziato dalla Commissione Europea, che ha evidenziato la necessità di contenere l’abbondanza di informazioni per tutelare la capacità di attenzione dell’essere umano.
In buona sostanza, come spiegano gli studiosi coinvolti nel progetto, quando sappiamo esattamente cosa vogliamo il nostro RAS si attiva automaticamente alla ricerca di informazioni utili al nostro scopo. Ma nell’economia digitale, sottolineano gli autori del manifesto di The On Life, «l’attenzione è vista come una merce, una commodity, che si scambia sul mercato o che viene immessa nel processo produttivo: è una visione meramente strumentale dell’attenzione che ne trascura la dimensione sociale e politica, ossia il fatto che la capacità e il diritto di focalizzare la nostra attenzione sono una condizione necessaria e imprescindibile per l’autonomia, la responsabilità, la riflessività, la pluralità, l’impegno personale e per conservare alla persona un senso di significatività».
Le insidie presenti nel modello economico- culturale proposto da Google, non sono dunque in sintesi che le stesse vie interrotte sulle quali si è avviata l’umanità da tempo. Ma sognare un ritorno alle origini, fatto di penna e inchiostro sarebbe tuttavia una ricetta dal vago sapore distopico- reazionario. Occorre piuttosto camminare a ritroso o in diagonale, nel tentativo di evadere le rotte personalizzate del Tripadvisor conoscitivo che oggi Google squaderna sui nostri pc e sui nostri smartphone, cercare un ombrello al diluvio informazionale, foggiare lenti capaci di focalizzare oltre la bolla cognitiva in cui ciascuno di noi è stato piombato.
Non ne va del singolo individuo, ma delle ragioni stesse che fondano la partecipazione politica e sociale. Come ammonisce Parisier «le questioni importanti che toccano la vita di tutti noi ma sono fuori dalla sfera del nostro interesse personale immediato sono la base e la ragion d’essere della democrazia». Mai come oggi, occorre uscire fuori dal treno in corsa. Spegnere il motore, e riattivare il cervello. Servirsi di Google, così come di qualunque altro strumento di ricerca, senza lasciarsene asservire.