Per una tecnologia utile serve pensiero critico

 Ogni giorno immettiamo in rete una grande quantità di dati personali che non ci vengono pagati, che non sappiamo come verranno usati, né dove finiranno. Crescono i pericoli per i cittadini e i profitti per i colossi del digitale. Idee per cambiare rotta. Colloquio con Giulio De Petra, direttore del Centro per la Riforma dello Stato

Ormai è sempre più evidente l’asimmetria di potere tra il potere delle aziende digitali e il nostro, di cittadini, lavoratori consumatori. Come si è arrivati a questo punto?

 

Subiamo il forte potere di seduzione dei nuovi dispositivi digitali: i servizi offerti dalle grandi piattaforme di comunicazione sfruttano efficacemente semplici e potenti meccanismi di dipendenza emotiva che condizionano chi li utilizza. A questo si aggiunge l’apparente gratuità dell’offerta. Non si paga nulla. Basta registrarsi, cioè regalare i dati sensibili che servono a identificarci, e si è ammessi al gioco. C’è solo una piccola formalità: bisogna prima accettare le condizioni di servizio dopo aver dichiarato di averle lette. Come ciascuno di noi sa, si tratta in genere di testi la cui noiosa lettura si frappone tra noi e il godimento dell’ultimo video la cui immagine ha sollecitato la nostra curiosità. Per questo nessuno di noi generalmente li legge, anche se è lì che il prezzo occulto della gratuità è dichiarato più o meno esplicitamente. Dal momento in cui hai dato il consenso tutti i dati generati da quello che farai e dirai sono di qualcun altro, che li userà, direttamente o indirettamente, per il suo profitto.

 

Sembra che tutto questo sia avvenuto senza nessuna opposizione….

 

E’ così. Chi fino ad oggi ci ha messo in guardia, come cittadini e come consumatori? Chi ha provato a spiegare questi meccanismi non nel chiuso di qualche convegno di addetti ai lavori, ma attraverso i grandi mezzi di comunicazione? Quale iniziativa formativa pubblica è stata avviata per renderci consapevoli dello scambio ineguale tra gratuità dei servizi e alienazione della propria identità? Quale soggetto politico, quale associazione della società civile ha mai avviato una campagna di sensibilizzazione per segnalare i rischi di questa smisurata accumulazione di dati nelle mani di pochissime aziende private? Praticamente nessuno, a parte pochissime e limitate eccezioni. Nessuna azione di contrasto, nessun tentativo di creare consapevolezza. Al contrario, l’utilizzo dei dispositivi digitali è stato considerato fino ad oggi dalla politica, dalla scuola, dall’informazione come un bene in sè, un comportamento virtuoso da sviluppare e promuovere nel nome del progresso. E’ questa la causa principale dello squilibrio di potere tra pochi monopolisti digitali e la sterminata platea degli utenti delle piattaforme.

 

Uno dei motivi di preoccupazione è la pervasività dell’uso dell’intelligenza artificiale e dei nostri dati personali in tutte le dimensioni della vita e quindi dei suoi effetti negativi. Può farci degli esempi concreti di distorsioni dell’uso della tecnologia?

 

Certamente. Sono un ragazzo, sto cercando lavoro e invio il mio curriculum. Chi lo esaminerà non sarà un impiegato dell’ufficio del personale, ma un’applicazione, un codice informatico che lo “valuterà” sulla base di criteri a me ignoti, e che sceglierà se ammettermi ad un colloquio successivo. Tra questi criteri preminente sarà la valutazione, basata su correlazioni probabilistiche, del profilo personale ricavato dai dati acquisiti dalle piattaforme sociali da me abitualmente frequentate, ad esempio quali sono i video che preferisco? Quali i post per i quali esprimo approvazione? O prendendoli da altre fonti, ad esempio se ho pagato sempre in tempo le rate del mio mutuo. Non solo correrò il rischio di non essere assunto anche se ho le competenze e le esperienze adeguate, ma anche l’azienda può essere indotta a scartare un talento prezioso.

Un altro caso. Sono un lavoratore dipendente. Si ricorda quando era severamente proibito di utilizzare il cellulare aziendale per le telefonate private? Oggi invece, sempre più spesso, il datore di lavoro, con apparente generosità, concede ai suoi dipendenti la possibilità di utilizzare gratuitamente gli smartphone aziendali non solo per lo svolgimento della prestazione lavorativa, ma anche per le proprie attività su Internet. Saranno disponibili per lui le informazioni sulle mie ricerche, le mie amicizie, le mie preferenze, le mie idee politiche e potrà usarle per i suoi scopi, per decidere quali mansioni affidarmi e da quali escludermi o, magari, per organizzare il mio licenziamento. Oppure potrà anche rivenderli a terzi, senza che io ne sappia nulla. Terzo caso. Sono un lavoratore a richiesta. Il mio datore di lavoro è una piattaforma. Il compenso che mi viene proposto e il tempo che dovrò impiegare per svolgere il lavoro richiesto vengono decisi dagli algoritmi della piattaforma in base a criteri che non conosco. In teoria posso accettare o non accettare il lavoro. Ma se non lo accetto la mia reputazione scenderà, fino ad escludermi dalla possibilità di poter essere chiamato in futuro.

Molto sta cambiando anche in relazione a prestiti e assicurazioni. In che modo?

 

Se ho bisogno di un prestito la banca deciderà se concedermelo o meno sulla base della valutazione fatta da sistemi di intelligenza artificiale, i quali operano sulla base di correlazioni probabilistiche fra grandi quantità di dati personali raccolti sul mio conto dalle fonti più diverse. I criteri non sono noti nemmeno al funzionario di banca incaricato della pratica. Lui non può più decidere nulla. E’ diventato un appendice, una interfaccia del sistema digitale senza più responsabilità. Il prestito mi può essere rifiutato senza che io ne conosca il motivo reale, e questo rifiuto può diventare a sua volta una informazione che contribuisce a peggiorare la mia reputazione verso altri fornitori di servizi finanziari.

 

Lo stesso può accadere se ho necessità, ad esempio, di una assicurazione sanitaria, dove il sistema di intelligenza artificiale utilizzato andrà a scandagliare le informazioni più diverse, ad esempio i miei acquisti di medicinali, o i siti che ho visitato su internet che riguardavano problemi di salute, per verificare la convenienza o meno di concedermi l’assicurazione.

Immaginate le conseguenze dell’uso di questi sistemi quando essi saranno utilizzati, come pure irresponsabilmente viene spesso auspicato, dalle amministrazioni pubbliche che operano, ad esempio, nel settore della giustizia o della sicurezza.

In quest’ultimo settore le conseguenze negative potrebbero assumere caratteri clamorosi. Pensate ai sistemi di riconoscimento facciale basati sull’intelligenza artificiale, di cui generalmente vengono vantate le percentuali di successo e non quelle, ben più significative, di falsi positivi. Banalmente esiste la probabilità di essere scambiati per qualcun altro.

 

Diventa sempre più evidente la possibilità di distorsione del funzionamento stesso della democrazia.

 

Certamente. Questo è legato alla produzione di informazioni capaci di orientare e manipolare le opinioni e i comportamenti degli individui. Il problema in questo caso non è solo il tasso di verità o di falsità della singola informazione, ma la potenza di persuasione che il dispositivo digitale di diffusione riesce a generare, e che si basa, essenzialmente, su una accurata personalizzazione dell’informazione che mi viene inviata. Mi viene fatta arrivare solo l’informazione alla quale posso essere sensibile. Anche in questo caso a partire da tutto quello che si sa di me, dei miei bisogni, dei miei desideri, dei miei rancori. In particolare l’effetto di questo processo ha effetti negativi su due ambiti: quello dei consumi, in cui è sempre più difficile orientarsi, esposti come siamo alla capacità di persuasione del marketing personalizzato, e quello, sul quale solo recentemente si sono accesi i riflettori, della manipolazione delle opinioni e dei comportamenti politici, i cui esempi fanno ormai parte della cronaca nazionale quotidiana, anche senza bisogno di scomodare centrali occulte che operano dall’estero.

 

Ci può fornire qualche esempio contrario in cui la tecnologia è invece al servizio della lotta alle disuguaglianze?

 

Mi limito a due esempi che fanno riferimento a esperienze concrete. La prima è la progettazione, l’utilizzo e la gestione autonoma di piattaforme di cooperazione che non servono a estrarre profitto dai dati raccolti, ma a mettere in comune risorse, competenze e servizi. Ne esistono per i lavori creativi, ad esempio in campo musicale. Oppure per i lavoratori a richiesta, per fornire loro potere contrattuale mediante la condivisione di informazioni su compensi e condizioni offerte dalle diverse piattaforme. Ne esistono anche su base territoriale, come supporto ad attività cooperative di produzione sociale.

 

La seconda tipologia è quella dell’utilizzo a fini sociali delle sterminata ricchezza informativa disponibile. Si possono migliorare i sistemi sanitari o quelli di prevenzione ambientale. Si può migliorare l’economia pubblica mediante nuove modalità di previsione e pianificazione. Per tutto questo però è necessaria una condizione abilitante: l’accessibilità e la disponibilità del patrimonio informativo finora accumulato dai monopolisti digitali. Noi lo abbiamo generato con i nostri comportamenti inconsapevoli, e a noi, come comunità, deve ritornare. Non ci basta che paghino qualche tassa sui loro enormi profitti. Devono restituire la ricchezza informativa espropriata ai territori da cui l’hanno estratta.

Sappiamo che non ci sono formule magiche per cambiare il corso delle cose in modo repentino, ma da dove partiamo per invertire la rotta?

 

Occorre rovesciare il senso comune, che ha raccontato lo sviluppo dell’innovazione digitale solo come un fattore di progresso e di sviluppo, senza comprenderne le implicazioni, senza prevederne le conseguenze. Un po’ come è avvenuto con lo sviluppo industriale negli anni 50 e 60 del secolo scorso, quando solo qualche strambo scienziato osava parlare delle conseguenze ambientali di uno sviluppo basato sul carbone e sul petrolio. Oggi di quello sviluppo dissennato subiamo le conseguenze, forse irreparabili. Forse siamo ancora in tempo ad evitare che qualcosa di analogo avvenga con la rivoluzione digitale in corso, ma occorre cambiare radicalmente e rapidamente il punto di vista e promuovere una consapevolezza critica delle trasformazioni in atto, farne l’obiettivo principale della formazione a tutti i livelli, dalla scuola primaria all’università. L’evidenza delle conseguenze negative si sta diffondendo, e sta generando anche qualche forma di conflitto, ad esempio nel mondo del lavoro, sia di quello che subisce la trasformazione, sia di quello che lo produce. E cito come esempio quello dei lavoratori di Google che hanno costretto l’azienda a interrompere la collaborazione con il settore della produzione militare. Non si tratta di resistenza al cambiamento. Non si tratta di conflitto tra vecchio e nuovo, ma di un salutare conflitto tra conseguenze negative e possibili finalità socialmente positive della trasformazione digitale.

 

Aumentare la consapevolezza tra le persone e cambiare il senso comune è fondamentale ma i cittadini e le organizzazioni di cittadinanza attiva concretamente che potere hanno? In che modo possono contribuire ad arginare lo strapotere delle multinazionali digitali?

 

Le organizzazione di cittadinanza attiva possono svolgere una funzione fondamentale per riorientare il senso comune rispetto alla trasformazione digitale in corso. Possono ad esempio intervenire nei processi della cosiddetta “alfabetizzazione digitale” per cambiarne il segno. Non più, come invece avviene oggi, una formazione per creare utenti disciplinati dei nuovi dispositivi, ma una formazione diffusa capace di introdurre una competenza critica e vigile. Si pensi alla utilità di una comprensione delle “condizioni d’uso” che accompagnano oggi l’utilizzo di ogni dispositivo digitale. Ma vorrei fare un altro esempio. La retorica dello sviluppo digitale ha diffuso l’idea che la digitalizzazione dei servizi pubblici fosse un “diritto” in sé. Proprio le organizzazioni che più si preoccupano di tutelare i diritti di cittadinanza potrebbero rovesciare la stupidità questa affermazione: ad essere un diritto è infatti il servizio pubblico, la sua efficienza e accessibilità, non la sua “digitalizzazione”. Occorre rivendicare come diritto la trasparenza e la comprensibilità degli algoritmi utilizzati nell’erogazione dei servizi pubblici, e la partecipazione dei cittadini alla progettazione degli stessi sistemi digitali.

Lei ha partecipato a un incontro oltre trenta parlamentari interessati ad approfondire il tema dell’intelligenza artificiale lo scorso 22 luglio. Che impressione ne ha tratto circa la consapevolezza e la volontà di ascolto dei nostri parlamentari?

 

Solo recentemente nel mondo politico si sta sviluppando la consapevolezza che quella della trasformazione digitale è forse la questione politica fondamentale, che può orientare e determinare, con la direzione del suo sviluppo, altre questioni politiche primarie come il lavoro, l’ambiente, la giustizia sociale, l’esercizio della democrazia. Qualcuno maliziosamente potrebbe affermare che la politica se ne è accorta quando la trasformazione digitale ha investito pesantemente proprio i meccanismi e il funzionamento stesso della politica, mediante la manipolazione delle opinioni e del comportamento elettorale, o l’efficace utilizzo di strumenti di mobilitazione e organizzazione basati su dispositivi digitali. Questa iniziale presa di consapevolezza con una specifica attenzione al tema dell’intelligenza artificiale dimostra, almeno per i parlamentari intervenuti, che si prova a recuperare il tempo perduto. Lo stesso formato dell’incontro, in cui si sono confrontati senza gerarchie predefinite parlamentari, esperti, innovatori, ricercatori e associazioni della società civile dimostra la comprensione che la trasformazione digitale è un fenomeno complesso e multidisciplinare che non può essere affidato solo alle competenze tecniche di qualche esperto “di area”.

 

Qual è il livello di azione politica e civile più efficace – territoriale, nazionale, europeo, internazionale – per orientare la trasformazione verso la giustizia sociale?

 

Il compito, come è evidente, è molto difficile e richiede azioni specifiche per ognuno dei livelli indicati. Quello territoriale, nelle grandi città, dove più ingente è la ricchezza informativa estratta, e dove è possibile avviare politiche di riappropriazione del patrimonio informativo generato da quel territorio. Politiche guidate dai governi locali, in collaborazione con la comunità produttiva e scientifica non ancora arruolata dai monopolisti digitali. Quello nazionale, dove la regolamentazione dovrebbe cambiare di segno e servire ad ampliare e proteggere l’accessibilità della ricchezza informativa pubblica. Quello europeo, dove le grandi risorse destinate alla ricerca e all’innovazione digitale, contrariamente a quanto avvenuto finora, dovrebbero essere rigorosamente destinate a obiettivi di riequilibrio sociale. Quello internazionale, dove è necessario trovare meccanismi di contrattazione efficace nei confronti del potere smisurato dei monopolisti digitali. Elemento di successo è però la capacità di far interagire i diversi livelli, garantendo, per quanto possibile, la coerenza e il reciproco sostenersi delle iniziative assunte.

 

Si può cedere allo sconforto pensando che ci si è spinti troppo in là con un uso contrario alla giustizia sociale della tecnologia, eppure ci sono luoghi – virtuali e fisici – che resistono e che possono immettere nel sistema potenti anticorpi all’ingiustizia. Pensiamo alle comunità di innovatori in rete. Chi sono? Cosa fanno? E come potenziare la loro azione?

 

Le comunità di innovatori socialmente responsabili possono innescare processi importanti di consapevolezza. Ad esempio a partire dalla cultura hacker, che per prima ha provato a guardare cosa ci fosse dietro la seduzione degli schermi digitali. Come ha fatto il collettivo Ippolita, che ha promosso in Italia preziose esperienze formative di autodifesa digitale. Ma restano testimonianze isolate, senza la forza di rovesciare la tendenza. Per riuscire a farlo bisogna uscire dalla ristretta cerchia degli esperti e provare a coinvolgere il più grande numero possibile di quelli che utilizzano i dispositivi digitali nel lavoro, nella scuola, nelle relazioni sociali, nell’intrattenimento, nella attività politica. Senza proibire, con divieti peraltro spesso inapplicabili. Fornendo invece strumenti di comprensione critica, di orientamento, di difesa, ma anche sostenendo le comunità di innovatori che provano a progettare e realizzare una tipologia diversamente finalizzata di strumenti digitali per l’informazione, il lavoro, l’apprendimento, la comunicazione, la partecipazione che siano altrettanto utili e facilmente comprensibili di quelli che hanno finora sedotto e fatte prigioniere miliardi di persone.

* Si ringrazia la Scuola Critica del digitale alleata del ForumDD.
Download PDF

ARTICOLI CORRELATI

La trasformazione digitale apre una biforcazione fra uno scenario di emancipazione e uno di regressione sociale. Di questo si è parlato al convegno "Il conflitto sociale nell’era dei robot e dell’intelligenza artificiale" organizzato dalle Università di Cassino, RomaTre e Cadi Ayyad (Marocco). A disposizione l'intervento Fabrizio Barca e le raccomandazioni finali. 

Il seminario "Dati della città. Politiche e sperimentazioni per un diverso governo dei dati digitali delle città" organizzato da Forum DD e CRS – Scuola critica del digitale, ha visto un'ampia partecipazione. A commentare le esperienze di quattro città italiane rappresentate da figure chiave impegnate nei processi, Francesca Bria ed Edvgenij Morozov. 

Tags:

Invia un commento

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi