Fondazione ISI – Torino; ISI Global Science Foundation – New York

Siamo nel mezzo di una rivoluzione che non ha precedenti, la rivoluzione digitale: i Big Data e l’Intelligenza Artificiale.

Rivoluzione in parte culturale [ma i bit faranno molto più di quanto i caratteri mobili di Gutenberg abbiano fatto in 565 anni, in termini di spostamento degli equilibri del potere, di accesso alla conoscenza e del suo trasferimento dalle mani di pochi a comunità sempre più larghe] e in parte industriale [ma il cambiamento di paradigma, più forte di quello dovuto alla macchina a vapore di Watt, modificherà la struttura profonda delle relazioni umane e sociali: lavoro, interazioni tra uomo, natura e i suoi stessi artefatti], essa condivide speranze e rischi di entrambe.

Una rivoluzione che sta rendendo la nostra vita sempre più dipendente da grandi masse di dati. Fra meno di tre anni il tempo di raddoppio, tempo in cui gli abitanti del pianeta generano una quantità di dati uguale a quella prodotta in tutta la loro storia fino a quel momento, sarà passato, grazie ai 150 miliardi di nuovi dispositivi in rete, da circa un anno di oggi a dodici ore. Una quantità di dati che nel 2019 è stata di cinquemila miliardi di gigabyte!

L’intelligenza artificiale (AI) è lo strumento per estrarre, da questa enorme massa di dati, informazione e conoscenza, facendone un ingrediente potente, prezioso e cruciale dei processi decisionali. Essa mira a decodificare il codice dell’intelligenza umana nella sua capacità di imparare e auto-addestrarsi, e sta facendo progressi mozzafiato. La nostra vita ne sarà profondamente modificata e, data la prevedibile futura pervasività dell’AI nella società, è legittimo e necessario chiedersi come questa nuova tecnologia debba essere modellata per aiutarci a conservare i nostri valori e in particolare a rafforzare la democrazia costituzionale.

La concentrazione di potenza digitale oggi è una minaccia potenziale per la democrazia e per i mercati. L’esperienza di un Internet senza leggi e il fragile rapporto tra tecnologia e legge sollevano entrambi la stessa domanda chiave sul ruolo del digitale nella democrazia: quali, fra le sfide che l’AI ci lancia, possono essere lasciate nel campo esclusivo dell’etica e quali devono essere invece affrontate con regole operative efficienti, che includano in modo comprensivo tutta la legittimità del processo democratico? È indispensabile una nuova cultura che incorpori nella progettazione stessa dell’AI principi etici, fra cui democrazia, stato di diritto e diritti umani; i tre pilastri portanti delle costituzioni liberali occidentali. Per questo ci si deve chiedere come questa nuova tecnologia [che chiamiamo ‘intelligenza’ artificiale solo per ricordare quell’irraggiungibile modello che è il cervello umano, la cui intelligenza è capace di cose che nessuna macchina saprà mai fare], debba essere disegnata per garantirci la sopravvivenza e il rafforzamento di quella triade di valori portanti delle funzioni fondamentali della società: dall’educazione a salute, scienza e business, fino ai più astratti diritto, sicurezza e anche discorso politico e processi decisionali democratici.

Tra gli scienziati non c’è una definizione concordata di AI; si può rozzamente pensarla come una generica tecnologia software che abbia almeno una di queste capacità: percezione, processi decisionali, previsione, estrazione automatica della conoscenza dai pattern di correlazione dei dati, comunicazione interattiva, ragionamento logico (questo include il ‘Machine Learning’).Osservando il panorama politico, preoccupante in tutto il mondo industrializzato, caratterizzato da crescente estremismo e instabilità, è facile vedere come l’AI abbia già generato criticità nella definizione stessa di rappresentazione e rappresentatività politica nelle elezioni democratiche. Sono stati osservati fenomeni di disturbo senza precedenti; è stato creato un sistema in cui un cambiamento arbitrariamente piccolo nell’opinione provoca un enorme cambiamento nel risultato elettorale (come l’effetto farfalla nel caos deterministico). Mentre risultati elettorali instabili contengono sicuramente opinioni rappresentate in modo scorretto, la crescente polarizzazione dell’elettorato non può che generare il passaggio da un regime stabile a uno instabile.

La società controllata dai dati è già lì: programmi concepiti per proteggere i cittadini dal terrorismo, hanno finito per influenzare la politica economica e dell’immigrazione, il mercato immobiliare e persino i programmi scolastici. Algoritmi di deep learning applicati alle reti sociali sono già stati utilizzati per esercitare controllo sociale: ogni cittadino cinese riceverà un ‘punteggio del cittadino’, che determinerà a quali condizioni può ottenere prestiti, lavoro o visti di viaggio in altri paesi; il monitoraggio individuale ha portato a esperimenti online su prezzi personalizzati; Amazon ha brevettato un software che gli consente di consegnare i prodotti una piccola frazione di tempo prima che i clienti li ordinino. Il Grande Fratello Orwelliano è realtà: cittadini programmati in una società programmata; oggi, gli algoritmi sanno bene che cosa facciamo, cosa pensiamo e come ci sentiamo, forse meglio dei nostri amici e familiari o persino di noi stessi. E le soluzioni che ci sono proposte si adattano così bene che le decisioni che ne risultano ci paiono nostre, anche se in realtà non lo sono.

I nostri valori: libero pensiero, libertà di scelta, democrazia sono dunque stati violati? Il punto vero è altrove: supponiamo di avere una macchina super-intelligente con conoscenze e capacità sovrumane; seguiremmo le sue istruzioni? È chiaro che i problemi del mondo non sono diminuiti, nonostante lo tsunami di dati e l’uso d’informazioni personalizzate; anzi! La pace del mondo è fragile; i cambiamenti climatici a lungo termine porteranno probabilmente alla più grande perdita di specie (incluso l’uomo) dall’estinzione dei dinosauri; siamo lontani dall’aver superato la crisi finanziaria e il suo impatto sull’economia; si stima che la criminalità informatica provochi una perdita annuale di 3 trilioni di dollari; stati e terroristi si stanno preparando per la guerra informatica.

La salute è un esempio rappresentativo cruciale della complessità di queste questioni: a quale porzione della nostra libertà siamo disposti a rinunciare se la posta in gioco è la salute non solo nostra ma dell’intera collettività? La pandemia di COVID-19 ci ha confrontato in maniera anche drammatica con questa questione, quando lo stato, attraverso il governo, ha deliberato modalità di comportamento di tutti noi assolutamente eccezionali rispetto alla norma. Ne parleremo diffusamente, perché digitale, dati, intelligenza artificiale sono stati fra i protagonisti più importanti di questo scenario e ci hanno aiutato a trovare risposte adeguate.

In un mondo in così rapido cambiamento, anche una super-intelligenza non può prendere decisioni perfette: il fatto è che la complessità sistemica (entropia) aumenta più velocemente del volume di dati, che a sua volta cresce più rapidamente della nostra capacità di elaborarli e trasferirli (costi energetici). La manipolazione dei processi decisionali della democrazia con algoritmi, per quanto potenti e raffinati, mina la possibilità dell’emergente ‘intelligenza collettiva’, che sola può adattarsi in modo flessibile alle sfide di questo mondo complesso. Affinché essa funzioni, ricerca d’informazioni e processi decisionali devono però avvenire in modo indipendente. Giudizi e decisioni predeterminati da algoritmi non porterebbero a null’altro che un lavaggio del cervello collettivo!

Una società digitale migliore è possibile. Le democrazie occidentali hanno il vantaggio di aver imparato da tempo a gestire il pluralismo e la diversità; ora devono solo imparare a capitalizzare di più su di essi. Ciò richiede un vero ‘pensiero di rete’ e la creazione di un ‘ecosistema’ d’informazioni, innovazione, prodotti e servizi. È cruciale creare opportunità di partecipazione, ma anche promuovere la diversità: solo consentendo il perseguimento di tanti obiettivi diversi una società pluralista è in grado di affrontare con successo la gamma di sfide impreviste che le si prospettano.

Con l’evoluzione economica e culturale, la complessità sociale continuerà a crescere: un controllo centralizzato ‘top-down’ è la soluzione del passato, quella per il futuro è l’intelligenza collettiva. Questa richiede un elevato grado di diversità – la socio-diversità è importante quanto la biodiversità – che alimenti non solo intelligenza e innovazione, ma anche resilienza: saper far fronte a shock imprevisti.

Ora siamo a un bivio. Big data, AI, cibernetica ed economia comportamentale stanno plasmando la nostra società, nel bene e nel male. Se tali tecnologie diffuse non saranno rese compatibili con i valori fondamentali della nostra società, causeranno danni ingenti; come una società automatizzata con caratteristiche totalitarie, con un’intelligenza artificiale centralizzata che controlla che cosa sappiamo, ciò che pensiamo e come agiamo.

Se li adattiamo ai nostri valori, i frutti della rivoluzione digitale possono beneficiare l’economia, il governo, i cittadini. Che cosa stiamo aspettando?

 

Condividi
La Fondazione ti consiglia
pagina 81259\