Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Recensione del Volume di M. Delmastro, A. Nicita, Big data. Come stanno cambiando il nostro mondo, Il Mulino, Bologna, 2019.

2020, Rivista della Regolazione dei Mercati

Il testo di Marco Delmastro e Antonio Nicita si propone l'obiettivo di mettere ordine in una materia tanto complessa, quanto in continua evoluzione, come quella dei big data. La questione dei megadati è trattata con lo sguardo dell'economista che si interroga sulla governance delle piattaforme digitali e sul rapporto tra concorrenza, innovazione e potere politico.

24/7/2020 Rivista della Regolazione dei Mercati - M. Delmastro, A. Nicita, Big data. Come stanno cambiando il nostro mondo, Il Mulino, Bologna, 2019, pp. 7-146 Alessandro Candido Il testo di Marco Delmastro e Antonio Nicita “Big data. Come stanno cambiando il nostro mondo” si propone l’obiettivo di mettere ordine in una materia tanto complessa, quanto in continua evoluzione, come quella dei big data, che indubbiamente “stanno cambiando il nostro mondo” (p. 21). La questione dei megadati (definiti dall’Unione europea come “grandi quantità di tipi diversi di dati prodotti da varie fonti, fra cui persone, macchine e sensori”) non è trattata sotto l’angolo prospettico della privacy (tema che, comunque, viene toccato), ma con lo sguardo dell’economista che si interroga sulla governance delle piattaforme digitali e sul rapporto tra concorrenza, innovazione e potere politico. Gli Autori utilizzano volutamente un linguaggio diretto e immediatamente com prensibile anche a chi non appartiene al mondo economico-giuridico, preoc cupandosi di sollevare numerose domande e sollecitando il lettore a forni re delle risposte. L’attualità del volume emerge ancor di più nell’odierna contingenza storica, dato che la pandemia da coronavirus ha dimostrato quanto il tema della conoscenza della tecnologia risulti fondamentale anche per la gestione di un’e mer genza. Si pensi alle soluzioni recentemente prospettate per l’azione di preven zio ne epidemiologica, come il contact tracing, sistema in grado di tenere traccia delle persone contagiate, così da poterle mappare e aiutare i cittadini a e vitare i luoghi del contagio, oppure il drone, strumento utilizzato al fine di verificare il rispetto degli obblighi di distanziamento sociale. 1. Se inizialmente il dibattito sui big data riguardava quasi esclusivamente la riservatezza dei dati personali, oggi vengono invece in rilievo ulteriori profili di interesse: in primo luogo vi è la questione del vantaggio competitivo dell’uso esclusivo dei dati a fini di profilazione commerciale da parte delle grandi piattaforme globali (come Facebook, Amazon, Apple, Microsoft…); in secondo luo go, si pone il problema dell’impatto dell’utilizzo dei dati per il marketing politico. Alcun dubbio può infatti sussistere sul fatto che oramai le piattaforme online rappresentano il principale strumento per l’accesso e la diffusione dell’in for ma zione; esse sono diventate “i nuovi leader mondiali nel settore della pubblicità, sottraendo risorse pubblicitarie crescenti ai media tradizionali” (p. 9). Muovendo dai caratteri dei big data (consistenti nella velocità, nella varietà e nel volume, che generano il valore dei dati), l’aspetto di maggiore rilievo attiene al processo di lavorazione e di aggregazione dei dati e al loro rapporto con gli algoritmi: da un lato, essi consentono di profilare la domanda individuale di consumo di servizi e prodotti, aumentando le probabilità di vendita; dal l’al tro, i metadati “servono a migliorare l’algoritmo e, a sua volta, l’uso del l’al go ritmo da parte di ciascuno di noi genera nuovi dati, e così via, insegnando al l’algoritmo come migliorare e, persino, come «imparare ad imparare meglio»” (p. 10). In altri termini, essi sono in grado di stimare la domanda di consu mo di servizi e prodotti, indicando come cambiano le preferenze, i bisogni di mer cato, gli investimenti, ecc. Ciò premesso, poiché le piattaforme digitali globali accedono ai profili di centinaia di milioni di utenti, il loro ruolo risulta decisivo per rendere efficienti gli algoritmi e per regolare la vita della collettività. Basti pensare al settore delle comunicazioni, o a quello sanitario, bancario, finanziario, assicurativo, della grande distribuzione, energetico, dei trasporti… Secondo gli Autori, sono quattro “gli ingredienti di un nuovo modello di organizzazione capitalistica dei mercati” (p. 20): la raccolta dei dati rivelati dai comportamenti di imprese e utenti; il loro trattamento da parte di appositi algoritmi; l’elaborazione di modelli predittivi; la valorizzazione economica dell’at ten zione e dei dati in genere. Il punto è che per far funzionare gli algoritmi in modo intelligente, gli utenti devono necessariamente rivelare le informazioni che li riguardano, suscitando gli interrogativi di Delmastro e Nicita “sull’efficacia delle normative antitrust e di regolazione nell’affrontare le nuove dinamiche del capitalismo digitale, garantendo il giusto equilibrio tra libertà d’impresa e tutela della concorrenza da un lato, e tra libertà d’espressione e tutela del pluralismo online dall’altro, mettendo sempre in primo piano il cittadino-consumatore” (p. 20). 2. Il primo aspetto da chiarire concerne il rapporto tra dato personale come bene economico e dato personale come bene connesso ai diritti della persona. Vi è infatti chi ritiene che il dato personale sia un bene inalienabile privo di natura proprietaria, che non può essere messo in circolazione da colui al quale viene delegato l’uso e chi, invece, sostiene la tesi opposta, guardando con favore alla definizione di un diritto di proprietà (rectius, di controllo) su alcuni usi del dato. Secondo quest’ultimo orientamento, il titolare originario del diritto proprietario sul dato è colui il quale lo ha generato. Non c’è dubbio che l’informazione sia un bene pubblico, dato che il suo consumo da parte di un soggetto non implica l’impossibilità per un altro soggetto di usufruirne nello stesso momento (c.d. assenza di rivalità nel consumo) e una volta prodotta è difficile impedirne la fruizione ai soggetti che non hanno pagato per riceverla (c.d. non escludibilità nel consumo). Tuttavia, è proprio la natura pubblica dei dati a trasformarli in beni privati, a causa del ruolo giocato dai social network e dalle piattaforme di e-commerce nella raccolta dei dati che, svolgendosi al di fuori di una definizione dei confini proprietari, genera una tipica situazione di fallimento del mercato. Senza peraltro dimenticare che le informazioni raccolte oggi non sono nemmeno lontane parenti delle analisi a campione che hanno caratterizzato il secolo scorso. Non è un caso se, oramai, si parla dei modelli di big data analytics, poiché le piattaforme digitali acquisiscono il dato generato dal consumatore, che viene aggregato ad altri dati, creando degli “ideal-tipi” all’interno dei quali gli utenti vengono incasellati dai c.d. data brokers, a seconda delle loro caratteristiche (età, genere, altezza, red dito, patrimonio, ecc.) e preferenze. Poiché tuttavia i consumatori quasi sempre ignorano di cedere i propri dati e, soprattutto, non conoscono quale trattamento questi riceveranno, gli Autori giungono alla conclusione che sarebbe opportuno costruire un vero e proprio mercato, rendendo la transazione esplicita all’interno di una cornice istituzionale e regolatoria ben definita; ciò potrebbe “aiutare a risolvere i numerosi fallimenti di mercato”, oltre a restituire “al consumatore una misura più autentica di consapevolezza, di controllo effettivo e di libertà di scelta” (p. 48). A tale scopo, tuttavia, occorrerebbe prima comprendere se in un contesto che sfugge alla consapevolezza del consenso, possa esservi maggiore trasparenza ri spet to alla libertà di scelta dell’utente sulla cessione e sulla portabilità dei propri dati. Un’ipotesi alternativa consiste nel valutare se il comportamento delle piattaforme online, che estraggono e utilizzano i dati in via esclusiva, sia compatibile con la struttura concorrenziale dei mercati, o se addirittura siffatte piattaforme concorrano tra loro per diventare esse stesse il mercato. www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1 1/3 24/7/2020 Rivista della Regolazione dei Mercati - Al fine di rispondere a questi interrogativi, prendendo per mano il lettore, nel volume si sottolinea che è anzitutto necessario delineare il mercato di riferimento, stabilendo quante imprese vi operino e se possa individuarsi una posizione dominante. In quest’ultimo caso, infatti, l’esercizio di un certo potere di mercato potrebbe determinare una situazione di inefficienza, tipicamente dal lato dell’offerta, non tanto in virtù degli aumenti di prezzo, quanto per l’alloca zio ne di beni e servizi sul mercato. Infatti, osservano gli Autori, richiamando il noto caso United Brands Company, deciso dalla Corte di Giustizia nel 1978, il costo sociale dell’esercizio di un potere di mercato dipende dalla “esclusione inefficiente dei consumatori e dei concorrenti” (p. 69); deriva, in altri termini, non dalla posizione di forza nel mercato, quanto dall’abuso di tale posizione verso i consumatori, o nei confronti delle imprese concorrenti; si pensi ad esempio ai prezzi eccessivamente gravosi oppure, al contrario, ai prezzi sotto costo o predatori offerti alla clientela per scongiurare l’ingresso di nuovi entran ti più efficienti. Con spirito critico, Delmastro e Nicita mettono a confronto la tesi di chi accusa e quella di chi difende le piattaforme globali: secondo i primi, esse, anziché essere il risultato di dinamiche replicabili che si manifestano in liberi mercati concorrenziali, “sono diventate oramai nuovi contesti istituzionali che si sostituiscono al mercato e lo governano, isolandolo dalla concorrenza” (p. 77); per i secondi, invece, “la concorrenza sarebbe a portata di click e le piattaforme digitali globali sarebbero soltanto il mo(n)do nuovo in cui il mercato si trasforma nell’ecosistema digitale” (p. 80). Nonostante entrambe le tesi presentino argomentazioni valide a sostegno, il paradosso è che la profilazione degli utenti attraverso i big data fa sì che gli operatori siano in grado di differenziare i prezzi in ragione della tipologia di consumatore (riuscendo a comprendere quanto quest’ultimo è disposto a pagare), segmentando il mercato. Tra l’altro, poiché l’utente è abitudinario, la sua libertà di scelta si manifesterà in mercati sempre più ristretti, dei veri e propri “aftermarket informativi” (p. 83) che lo indurranno a muoversi entro i vincoli selezionati dalla piattaforma-gatekeeper, determinando così una concorrenza quantomeno ridotta rispetto a quella che si manifesta tra piattaforme alternative. 3. Sebbene la rete abbia stravolto l’esistenza dei cittadini, arricchendo lo spazio delle libertà economiche, sociali e civili, non possono negarsi i numerosi rischi che essa presenta, come dimostrano le nuove forme di propaganda algoritmica esplose dopo la Brexit e l’elezione di Donald Trump alla presidenza degli Stati Uniti. Non è un mistero che l’informazione sia cambiata e che, oramai, la maggior parte delle persone si affida alla rete, anziché alla lettura dei quotidiani; ciò comporta che, sul lato dell’offerta di informazione, è aumentato il pluralismo, ma anche che è diventato molto più semplice produrre disinformazione basata su notizie false. Per fare un esempio dei giorni nostri (e senza entrare nel merito delle problematiche che la caratterizzano), si pensi all’Unità di monitoraggio per il contrasto alla diffusione delle fake news relative al COVID-19 sul web e sui social network, istituita dal Governo nel periodo della pandemia da Coronavirus. Il problema di un sistema in cui l’informazione viene diffusa in modo immediato, decentrato e a costi bassissimi è quello dell’information overload, che spinge la società digitale a minimizzare il costo di transazione nell’ac qui si zione di informazioni rispetto al passato ma, al contempo, a ridurre “anche l’attività di ricerca delle informazioni rilevanti” (p. 94). Tuttavia, il punto non è il numero di informazioni che vengono offerte, ma il modo in cui l’algoritmo le seleziona per l’utente. Infatti, osservano giustamente gli Autori, dalla cui narrazione traspaiono in modo evidente le competenze maturate in seno all’Agcom, “i filtri algoritmici, pensati per attrarre l’attenzione degli utenti a fini commerciali, possono involontariamente trasformarsi per le stesse ragioni in uno strumento molto pericoloso per la disinformazione e le espressioni d’odio” (p. 102). Così facendo, gli algoritmi diventano efficaci strumenti di propaganda politica, producendo media effects molto difficili da controllare, anche perché la manipolazione attraverso la profilazione algoritmica è così sofisticata, da non essere percepita come elemento di propaganda dall’incolpevole destinatario. Il caso che ha dominato gli ultimi anni è noto come Cambridge Analytica, società inglese specializzata nell’estrarre e nell’elaborare una enorme quantità di dati su singoli individui e categorie di utenti, per realizzare profili utili a strategie di micro-targeting commerciale e politico. Ma quanto questo sistema risulta compatibile con la libertà di informazione proclamata dall’art. 19 della Dichiarazione Universale dei diritti dell’uomo e dall’art. 21 della Costituzione? Secondo gli Autori, quando si discute di regole, limiti e condizioni, non basta chiedersi se essi intacchino la libertà positiva di chi parla, dovendo anche valutare la libertà negativa di chi ascolta. Il problema è che “ciò che rende efficiente l’algoritmo di una piattaforma digitale, nello scambio di beni e servizi… è esattamente ciò che mina la natura reciproca della libertà di espressione e il pluralismo” (p. 116). Poiché la natura dell’algoritmo è quella di eliminare ciò che non piace al l’utente, allora nel lavoro delle piattaforme l’efficienza economica e il pluralismo diventano antitetici: la prima infatti punta a soddisfare le preferenze del consumatore; il secondo mira invece a fornire una rappresentazione del mondo plurale e diversa. Ma allora, osservano Delmastro e Nicita, per conciliare la libertà di espressione e il pluralismo, occorre “chiedere all’algoritmo, soprattutto a quello che governa le piattaforme digitali globali, di imparare ad essere plurale. E per farlo servono regole per accedere a tutto, per raggiungere tutto, per scoprire altro: le cosiddette discoverability rules” (p. 117). Scopo tutt’altro che semplice da realizzare. 4. All’esito della ricerca, gli Autori propongono ai regolatori nuove sfide, sostenendo che non si tratta di scegliere tra un mondo di regole e un mondo senza regole, ma di chiedersi “se queste regole debbano essere lasciate al mercato e alla sua capacità di selezione” (p. 125). Esse servono decidere come e in favore di chi risolvere volta per volta il grado di incompletezza dei diritti proprietari. Nell’era digitale la lettura tradizionale del dato personale come inalienabile si rivela infatti del tutto “illusoria” (p. 126), tenendo conto che l’uso del dato da parte di chi lo riceve è spesso un input per realizzare una transazione economica su un altro versante (ad esempio, offrendo spazi pubblicitari) e considerato che non sempre l’accesso a un dato specifico costituisce un requisito indispensabile per l’utilizzo di un servizio. Il superamento della predetta prospettiva è confermato dal Gdpr (Regolamento generale per la protezione dei dati personali) [1] , che ha riconosciuto il principio della portabilità dei dati, inteso come diritto a ricevere i dati personali in un formato strutturato, di uso comune e leggibile da dispositivo automatico. Pertanto, la prima conclusione offerta dagli autori al tema della regolazione delle piattaforme online globali è che la definizione di un diritto proprietario negoziabile, alienabile e portabile sul dato consentirebbe di definire un mercato rilevante distinto. Ma quali sono allora le possibili strategie regolatorie? Secondo Delmastro e Nicita sono due: si può infatti espandere la regolazione a servizi innovativi offerti dalle nuove piattaforme, che sostituiscono i vecchi e che competono con questi nell’ambito di mercati tradizionali già determinati; oppure è possibile individuare come mercati rilevanti distinti i due o più versanti intermediati da piattaforme digitali, oppure un nuovo mercato rilevante distinto dei dati e della profilazione algoritmica. www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1 2/3 24/7/2020 Rivista della Regolazione dei Mercati - Sarebbe tuttavia opportuno “lavorare sulla definizione di una nuova concentrazione dal lato dell’offerta, che dell’assenza di trasparenza e della domanda” (p.131). L’obiettivo è quello di sviluppare la portabilità riconoscendo una sfera proprietaria a certi usi del dato, in modo da restituire potere contrattuale all’utente che lo genera. regolazione dei mercati che tenga conto sia della di controllo sui diritti proprietari dei dati da parte e l’interoperabilità, superando gli attuali equivoci e esplicitare la transazione digitale di riferimento e La seconda riflessione conclusiva attiene invece ai rischi del pluralismo online, dove si assiste a un fallimento del mercato sul lato della domanda e non su quello dell’offerta. Secondo Cass Sunstein, ci vorrebbe un algoritmo che risolva i problemi di pluralismo, pesando e mediando i contenuti, difendendoli da strategie di disinformazione e da espressioni d’odio [2] . Sul tema è peraltro intervenuto nel 2019 il primo regolamento dell’Agcom per il contrasto alle espressioni d’odio su radio e tv. Sia l’Autorità che la Commissione europea stanno promuovendo iniziative di autoregolazione aperte a tutte le componenti del la società. Anche alcune piattaforme (Facebook, Google, Twitter, Modzilla) si sono impegnate a: bloccare i profitti pubblicitari derivanti da siti web che alte rano l’informazione; consentire la divulgazione al pubblico di messaggi pubblicitari di natura politica, incentivando pubblicità più etiche; disporre di una politica chiara e pubblica sull’identità e sui bot online; adottare misure per eliminare i profili falsi; offrire strumenti per aiutare le persone a prendere decisioni consapevoli. Si tratta di uno sforzo apprezzato dalla Commissione, che tuttavia non ha mancato di evidenziare le sue preoccupazioni per via dell’indi spo nibilità delle piattaforme a produrre specifici indicatori per la misura dei progressi compiuti. Da ultimo, rispetto ai big data si pone il tema dell’uso dei dati per la definizione delle politiche pubbliche in materia di sanità, protezione dell’ambiente, sicurezza militare e sociale, pubblica amministrazione, gestione della mobilità e governo delle città. Lo scopo è quello di costruire politiche pubbliche che insistano sulla digital literacy, illustrando il funzionamento del mercato del dato e le finalità – ad esempio, economiche, oppure politiche – di utilizzo dell’identità digitale degli utenti da parte di terzi. Se gli Autori miravano a consentire al lettore di “farsi un’idea” (per riprendere il titolo della nota collana della casa editrice Il Mulino in cui il volumetto è collocato), si può senza dubbio sostenere che l’obiettivo sia stato raggiunto, posto che la monografia (che si conclude con un ricco apparato bibliografico, utile a chi volesse approfondire ulteriormente gli argomenti trattati) fornisce tutti gli strumenti necessari per approcciare i megadati, la profilazione algoritmica e i giganti digitali. NOTE [1] Si tratta del regolamento (UE) n. 679/2016 del Parlamento europeo e del Consiglio del 27 aprile 2016. [2] Gli Autori fanno riferimento al testo di C.R. Sunstein, #republic. La democrazia nell’epoca dei social media, Il Mulino, Bologna, 2017 (trad.it. di #republic. Divided Democracy in the Age of Social Media, Princeton University Press, Princeton, 2017). www.rivistadellaregolazionedeimercati.it/Article/Archive/print_html?idn=13&ida=198&idi=-1&idu=-1&print=1 3/3