24/7/2020
Rivista della Regolazione dei Mercati -
M. Delmastro, A. Nicita, Big data. Come stanno cambiando il nostro mondo, Il Mulino, Bologna,
2019, pp. 7-146
Alessandro Candido
Il testo di Marco Delmastro e Antonio Nicita “Big data. Come stanno cambiando il nostro mondo” si propone l’obiettivo di
mettere ordine in una materia tanto complessa, quanto in continua evoluzione, come quella dei big data, che
indubbiamente “stanno cambiando il nostro mondo” (p. 21). La questione dei megadati (definiti dall’Unione europea come
“grandi quantità di tipi diversi di dati prodotti da varie fonti, fra cui persone, macchine e sensori”) non è trattata sotto
l’angolo prospettico della privacy (tema che, comunque, viene toccato), ma con lo sguardo dell’economista che si
interroga sulla governance delle piattaforme digitali e sul rapporto tra concorrenza, innovazione e potere politico.
Gli Autori utilizzano volutamente un linguaggio diretto e immediatamente com prensibile anche a chi non appartiene al
mondo economico-giuridico, preoc cupandosi di sollevare numerose domande e sollecitando il lettore a forni re delle
risposte.
L’attualità del volume emerge ancor di più nell’odierna contingenza storica, dato che la pandemia da coronavirus ha
dimostrato quanto il tema della conoscenza della tecnologia risulti fondamentale anche per la gestione di un’e mer genza.
Si pensi alle soluzioni recentemente prospettate per l’azione di preven zio ne epidemiologica, come il contact tracing,
sistema in grado di tenere traccia delle persone contagiate, così da poterle mappare e aiutare i cittadini a e vitare i luoghi
del contagio, oppure il drone, strumento utilizzato al fine di verificare il rispetto degli obblighi di distanziamento sociale.
1. Se inizialmente il dibattito sui big data riguardava quasi esclusivamente la riservatezza dei dati personali, oggi vengono
invece in rilievo ulteriori profili di interesse: in primo luogo vi è la questione del vantaggio competitivo dell’uso esclusivo
dei dati a fini di profilazione commerciale da parte delle grandi piattaforme globali (come Facebook, Amazon, Apple,
Microsoft…); in secondo luo go, si pone il problema dell’impatto dell’utilizzo dei dati per il marketing politico. Alcun dubbio
può infatti sussistere sul fatto che oramai le piattaforme online rappresentano il principale strumento per l’accesso e la
diffusione dell’in for ma zione; esse sono diventate “i nuovi leader mondiali nel settore della pubblicità, sottraendo risorse
pubblicitarie crescenti ai media tradizionali” (p. 9).
Muovendo dai caratteri dei big data (consistenti nella velocità, nella varietà e nel volume, che generano il valore dei dati),
l’aspetto di maggiore rilievo attiene al processo di lavorazione e di aggregazione dei dati e al loro rapporto con gli
algoritmi: da un lato, essi consentono di profilare la domanda individuale di consumo di servizi e prodotti, aumentando le
probabilità di vendita; dal l’al tro, i metadati “servono a migliorare l’algoritmo e, a sua volta, l’uso del l’al go ritmo da parte di
ciascuno di noi genera nuovi dati, e così via, insegnando al l’algoritmo come migliorare e, persino, come «imparare ad
imparare meglio»” (p. 10). In altri termini, essi sono in grado di stimare la domanda di consu mo di servizi e prodotti,
indicando come cambiano le preferenze, i bisogni di mer cato, gli investimenti, ecc.
Ciò premesso, poiché le piattaforme digitali globali accedono ai profili di centinaia di milioni di utenti, il loro ruolo risulta
decisivo per rendere efficienti gli algoritmi e per regolare la vita della collettività. Basti pensare al settore delle
comunicazioni, o a quello sanitario, bancario, finanziario, assicurativo, della grande distribuzione, energetico, dei
trasporti…
Secondo gli Autori, sono quattro “gli ingredienti di un nuovo modello di organizzazione capitalistica dei mercati” (p. 20): la
raccolta dei dati rivelati dai comportamenti di imprese e utenti; il loro trattamento da parte di appositi algoritmi;
l’elaborazione di modelli predittivi; la valorizzazione economica dell’at ten zione e dei dati in genere.
Il punto è che per far funzionare gli algoritmi in modo intelligente, gli utenti devono necessariamente rivelare le
informazioni che li riguardano, suscitando gli interrogativi di Delmastro e Nicita “sull’efficacia delle normative antitrust e di
regolazione nell’affrontare le nuove dinamiche del capitalismo digitale, garantendo il giusto equilibrio tra libertà d’impresa
e tutela della concorrenza da un lato, e tra libertà d’espressione e tutela del pluralismo online dall’altro, mettendo sempre
in primo piano il cittadino-consumatore” (p. 20).
2. Il primo aspetto da chiarire concerne il rapporto tra dato personale come bene economico e dato personale come bene
connesso ai diritti della persona. Vi è infatti chi ritiene che il dato personale sia un bene inalienabile privo di natura
proprietaria, che non può essere messo in circolazione da colui al quale viene delegato l’uso e chi, invece, sostiene la tesi
opposta, guardando con favore alla definizione di un diritto di proprietà (rectius, di controllo) su alcuni usi del dato.
Secondo quest’ultimo orientamento, il titolare originario del diritto proprietario sul dato è colui il quale lo ha generato.
Non c’è dubbio che l’informazione sia un bene pubblico, dato che il suo consumo da parte di un soggetto non implica
l’impossibilità per un altro soggetto di usufruirne nello stesso momento (c.d. assenza di rivalità nel consumo) e una volta
prodotta è difficile impedirne la fruizione ai soggetti che non hanno pagato per riceverla (c.d. non escludibilità nel
consumo). Tuttavia, è proprio la natura pubblica dei dati a trasformarli in beni privati, a causa del ruolo giocato dai social
network e dalle piattaforme di e-commerce nella raccolta dei dati che, svolgendosi al di fuori di una definizione dei confini
proprietari, genera una tipica situazione di fallimento del mercato. Senza peraltro dimenticare che le informazioni raccolte
oggi non sono nemmeno lontane parenti delle analisi a campione che hanno caratterizzato il secolo scorso. Non è un caso
se, oramai, si parla dei modelli di big data analytics, poiché le piattaforme digitali acquisiscono il dato generato dal
consumatore, che viene aggregato ad altri dati, creando degli “ideal-tipi” all’interno dei quali gli utenti vengono incasellati
dai c.d. data brokers, a seconda delle loro caratteristiche (età, genere, altezza, red dito, patrimonio, ecc.) e preferenze.
Poiché tuttavia i consumatori quasi sempre ignorano di cedere i propri dati e, soprattutto, non conoscono quale
trattamento questi riceveranno, gli Autori giungono alla conclusione che sarebbe opportuno costruire un vero e proprio
mercato, rendendo la transazione esplicita all’interno di una cornice istituzionale e regolatoria ben definita; ciò potrebbe
“aiutare a risolvere i numerosi fallimenti di mercato”, oltre a restituire “al consumatore una misura più autentica di
consapevolezza, di controllo effettivo e di libertà di scelta” (p. 48). A tale scopo, tuttavia, occorrerebbe prima
comprendere se in un contesto che sfugge alla consapevolezza del consenso, possa esservi maggiore trasparenza ri spet to
alla libertà di scelta dell’utente sulla cessione e sulla portabilità dei propri dati.
Un’ipotesi alternativa consiste nel valutare se il comportamento delle piattaforme online, che estraggono e utilizzano i dati
in via esclusiva, sia compatibile con la struttura concorrenziale dei mercati, o se addirittura siffatte piattaforme concorrano
tra loro per diventare esse stesse il mercato.
www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1
1/3
24/7/2020
Rivista della Regolazione dei Mercati -
Al fine di rispondere a questi interrogativi, prendendo per mano il lettore, nel volume si sottolinea che è anzitutto
necessario delineare il mercato di riferimento, stabilendo quante imprese vi operino e se possa individuarsi una posizione
dominante. In quest’ultimo caso, infatti, l’esercizio di un certo potere di mercato potrebbe determinare una situazione di
inefficienza, tipicamente dal lato dell’offerta, non tanto in virtù degli aumenti di prezzo, quanto per l’alloca zio ne di beni e
servizi sul mercato. Infatti, osservano gli Autori, richiamando il noto caso United Brands Company, deciso dalla Corte di
Giustizia nel 1978, il costo sociale dell’esercizio di un potere di mercato dipende dalla “esclusione inefficiente dei
consumatori e dei concorrenti” (p. 69); deriva, in altri termini, non dalla posizione di forza nel mercato, quanto dall’abuso
di tale posizione verso i consumatori, o nei confronti delle imprese concorrenti; si pensi ad esempio ai prezzi
eccessivamente gravosi oppure, al contrario, ai prezzi sotto costo o predatori offerti alla clientela per scongiurare l’ingresso
di nuovi entran ti più efficienti.
Con spirito critico, Delmastro e Nicita mettono a confronto la tesi di chi accusa e quella di chi difende le piattaforme
globali: secondo i primi, esse, anziché essere il risultato di dinamiche replicabili che si manifestano in liberi mercati
concorrenziali, “sono diventate oramai nuovi contesti istituzionali che si sostituiscono al mercato e lo governano,
isolandolo dalla concorrenza” (p. 77); per i secondi, invece, “la concorrenza sarebbe a portata di click e le piattaforme
digitali globali sarebbero soltanto il mo(n)do nuovo in cui il mercato si trasforma nell’ecosistema digitale” (p. 80).
Nonostante entrambe le tesi presentino argomentazioni valide a sostegno, il paradosso è che la profilazione degli utenti
attraverso i big data fa sì che gli operatori siano in grado di differenziare i prezzi in ragione della tipologia di consumatore
(riuscendo a comprendere quanto quest’ultimo è disposto a pagare), segmentando il mercato. Tra l’altro, poiché l’utente è
abitudinario, la sua libertà di scelta si manifesterà in mercati sempre più ristretti, dei veri e propri “aftermarket
informativi” (p. 83) che lo indurranno a muoversi entro i vincoli selezionati dalla piattaforma-gatekeeper, determinando
così una concorrenza quantomeno ridotta rispetto a quella che si manifesta tra piattaforme alternative.
3. Sebbene la rete abbia stravolto l’esistenza dei cittadini, arricchendo lo spazio delle libertà economiche, sociali e civili,
non possono negarsi i numerosi rischi che essa presenta, come dimostrano le nuove forme di propaganda algoritmica
esplose dopo la Brexit e l’elezione di Donald Trump alla presidenza degli Stati Uniti.
Non è un mistero che l’informazione sia cambiata e che, oramai, la maggior parte delle persone si affida alla rete, anziché
alla lettura dei quotidiani; ciò comporta che, sul lato dell’offerta di informazione, è aumentato il pluralismo, ma anche che
è diventato molto più semplice produrre disinformazione basata su notizie false. Per fare un esempio dei giorni nostri (e
senza entrare nel merito delle problematiche che la caratterizzano), si pensi all’Unità di monitoraggio per il contrasto alla
diffusione delle fake news relative al COVID-19 sul web e sui social network, istituita dal Governo nel periodo della
pandemia da Coronavirus.
Il problema di un sistema in cui l’informazione viene diffusa in modo immediato, decentrato e a costi bassissimi è quello
dell’information overload, che spinge la società digitale a minimizzare il costo di transazione nell’ac qui si zione di
informazioni rispetto al passato ma, al contempo, a ridurre “anche l’attività di ricerca delle informazioni rilevanti” (p. 94).
Tuttavia, il punto non è il numero di informazioni che vengono offerte, ma il modo in cui l’algoritmo le seleziona per
l’utente. Infatti, osservano giustamente gli Autori, dalla cui narrazione traspaiono in modo evidente le competenze
maturate in seno all’Agcom, “i filtri algoritmici, pensati per attrarre l’attenzione degli utenti a fini commerciali, possono
involontariamente trasformarsi per le stesse ragioni in uno strumento molto pericoloso per la disinformazione e le
espressioni d’odio” (p. 102).
Così facendo, gli algoritmi diventano efficaci strumenti di propaganda politica, producendo media effects molto difficili da
controllare, anche perché la manipolazione attraverso la profilazione algoritmica è così sofisticata, da non essere percepita
come elemento di propaganda dall’incolpevole destinatario.
Il caso che ha dominato gli ultimi anni è noto come Cambridge Analytica, società inglese specializzata nell’estrarre e
nell’elaborare una enorme quantità di dati su singoli individui e categorie di utenti, per realizzare profili utili a strategie di
micro-targeting commerciale e politico.
Ma quanto questo sistema risulta compatibile con la libertà di informazione proclamata dall’art. 19 della Dichiarazione
Universale dei diritti dell’uomo e dall’art. 21 della Costituzione? Secondo gli Autori, quando si discute di regole, limiti e
condizioni, non basta chiedersi se essi intacchino la libertà positiva di chi parla, dovendo anche valutare la libertà negativa
di chi ascolta. Il problema è che “ciò che rende efficiente l’algoritmo di una piattaforma digitale, nello scambio di beni e
servizi… è esattamente ciò che mina la natura reciproca della libertà di espressione e il pluralismo” (p. 116).
Poiché la natura dell’algoritmo è quella di eliminare ciò che non piace al l’utente, allora nel lavoro delle piattaforme
l’efficienza economica e il pluralismo diventano antitetici: la prima infatti punta a soddisfare le preferenze del
consumatore; il secondo mira invece a fornire una rappresentazione del mondo plurale e diversa. Ma allora, osservano
Delmastro e Nicita, per conciliare la libertà di espressione e il pluralismo, occorre “chiedere all’algoritmo, soprattutto a
quello che governa le piattaforme digitali globali, di imparare ad essere plurale. E per farlo servono regole per accedere a
tutto, per raggiungere tutto, per scoprire altro: le cosiddette discoverability rules” (p. 117). Scopo tutt’altro che semplice
da realizzare.
4. All’esito della ricerca, gli Autori propongono ai regolatori nuove sfide, sostenendo che non si tratta di scegliere tra un
mondo di regole e un mondo senza regole, ma di chiedersi “se queste regole debbano essere lasciate al mercato e alla sua
capacità di selezione” (p. 125). Esse servono decidere come e in favore di chi risolvere volta per volta il grado di
incompletezza dei diritti proprietari. Nell’era digitale la lettura tradizionale del dato personale come inalienabile si rivela
infatti del tutto “illusoria” (p. 126), tenendo conto che l’uso del dato da parte di chi lo riceve è spesso un input per
realizzare una transazione economica su un altro versante (ad esempio, offrendo spazi pubblicitari) e considerato che non
sempre l’accesso a un dato specifico costituisce un requisito indispensabile per l’utilizzo di un servizio. Il superamento
della predetta prospettiva è confermato dal Gdpr (Regolamento generale per la protezione dei dati personali) [1] , che ha
riconosciuto il principio della portabilità dei dati, inteso come diritto a ricevere i dati personali in un formato strutturato, di
uso comune e leggibile da dispositivo automatico.
Pertanto, la prima conclusione offerta dagli autori al tema della regolazione delle piattaforme online globali è che la
definizione di un diritto proprietario negoziabile, alienabile e portabile sul dato consentirebbe di definire un mercato
rilevante distinto. Ma quali sono allora le possibili strategie regolatorie? Secondo Delmastro e Nicita sono due: si può
infatti espandere la regolazione a servizi innovativi offerti dalle nuove piattaforme, che sostituiscono i vecchi e che
competono con questi nell’ambito di mercati tradizionali già determinati; oppure è possibile individuare come mercati
rilevanti distinti i due o più versanti intermediati da piattaforme digitali, oppure un nuovo mercato rilevante distinto dei
dati e della profilazione algoritmica.
www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1
2/3
24/7/2020
Rivista della Regolazione dei Mercati -
Sarebbe tuttavia opportuno “lavorare sulla definizione di una nuova
concentrazione dal lato dell’offerta, che dell’assenza di trasparenza e
della domanda” (p.131). L’obiettivo è quello di sviluppare la portabilità
riconoscendo una sfera proprietaria a certi usi del dato, in modo da
restituire potere contrattuale all’utente che lo genera.
regolazione dei mercati che tenga conto sia della
di controllo sui diritti proprietari dei dati da parte
e l’interoperabilità, superando gli attuali equivoci e
esplicitare la transazione digitale di riferimento e
La seconda riflessione conclusiva attiene invece ai rischi del pluralismo online, dove si assiste a un fallimento del mercato
sul lato della domanda e non su quello dell’offerta. Secondo Cass Sunstein, ci vorrebbe un algoritmo che risolva i problemi
di pluralismo, pesando e mediando i contenuti, difendendoli da strategie di disinformazione e da espressioni d’odio [2] . Sul
tema è peraltro intervenuto nel 2019 il primo regolamento dell’Agcom per il contrasto alle espressioni d’odio su radio e tv.
Sia l’Autorità che la Commissione europea stanno promuovendo iniziative di autoregolazione aperte a tutte le componenti
del la società. Anche alcune piattaforme (Facebook, Google, Twitter, Modzilla) si sono impegnate a: bloccare i profitti
pubblicitari derivanti da siti web che alte rano l’informazione; consentire la divulgazione al pubblico di messaggi pubblicitari
di natura politica, incentivando pubblicità più etiche; disporre di una politica chiara e pubblica sull’identità e sui bot
online; adottare misure per eliminare i profili falsi; offrire strumenti per aiutare le persone a prendere decisioni
consapevoli. Si tratta di uno sforzo apprezzato dalla Commissione, che tuttavia non ha mancato di evidenziare le sue
preoccupazioni per via dell’indi spo nibilità delle piattaforme a produrre specifici indicatori per la misura dei progressi
compiuti.
Da ultimo, rispetto ai big data si pone il tema dell’uso dei dati per la definizione delle politiche pubbliche in materia di
sanità, protezione dell’ambiente, sicurezza militare e sociale, pubblica amministrazione, gestione della mobilità e governo
delle città. Lo scopo è quello di costruire politiche pubbliche che insistano sulla digital literacy, illustrando il
funzionamento del mercato del dato e le finalità – ad esempio, economiche, oppure politiche – di utilizzo dell’identità
digitale degli utenti da parte di terzi.
Se gli Autori miravano a consentire al lettore di “farsi un’idea” (per riprendere il titolo della nota collana della casa editrice
Il Mulino in cui il volumetto è collocato), si può senza dubbio sostenere che l’obiettivo sia stato raggiunto, posto che la
monografia (che si conclude con un ricco apparato bibliografico, utile a chi volesse approfondire ulteriormente gli
argomenti trattati) fornisce tutti gli strumenti necessari per approcciare i megadati, la profilazione algoritmica e i giganti
digitali.
NOTE
[1] Si tratta del regolamento (UE) n. 679/2016 del Parlamento europeo e del Consiglio del 27 aprile 2016.
[2] Gli Autori fanno riferimento al testo di C.R. Sunstein, #republic. La democrazia nell’epoca dei social media, Il Mulino,
Bologna, 2017 (trad.it. di #republic. Divided Democracy in the Age of Social Media, Princeton University Press, Princeton,
2017).
www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1
3/3