Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Zeifer B. 2020 Big Data para Comunicacion Politica. La Revolucion Cultural de Los Datos-W

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 22

Accelerat ing t he world's research.

Big Data para Comunicación Política


Bárbara Zeifer

KAS

Cite this paper Downloaded from Academia.edu 

Get the citation in MLA, APA, or Chicago styles

Related papers Download a PDF Pack of t he best relat ed papers 

Big dat a, algorit mos y polít ica


Felipe González López

Cit a en:González, F. 2019. Big dat a, algorit mos y polít ica: las ciencias sociales en la era de las redes dig…
José Oct avio Islas Carmona

Microblogging elect oral: usos y funciones en T wit t er de la polít ica emergent e española en las campa…
GUILLEM SUAU GOMILA
Big Data para Comunicación Política
La revolución cultural de los datos

Bárbara Zeifer
Septiembre 2020

Big data: un cambio cultural


A esta altura del siglo XXI es ya una obviedad que los ciudadanos del mundo transitamos
nuestros días dejando rastros digitales. Los sistemas de geolocalización registran
nuestros movimientos, los sitios de e-commerce analizan nuestros consumos, y las redes
sociales reconocen nuestros intereses y preferencias, nuestras redes de amigos, conocen
nuestros horarios de conexión y las instituciones a las que pertenecemos, entre tantos
otros ejemplos.
Desde el modelo de dispositivo que utilizamos hasta las redes de Wi-Fi a las que nos
conectamos y la velocidad a la que tipeamos dejan huellas en forma de datos que quedan
almacenados en algún data warehouse disponibles para ser analizados y aprovechados
con fines estratégicos.
El big data nos ofrece un gran potencial para expandir nuestras capacidades de
investigación y conocimiento sobre el mundo y sus habitantes hacia niveles aún
inimaginables. Las Ciencias Sociales por fin nos hemos convertido en las ciencias más
ricas en datos (Hilbert en Hopenhayn, 2017). Sin embargo, la brecha entre la cantidad de
datos que se producen diariamente y aquellos que efectivamente llegamos a utilizar es
igualmente abismal.
Por un lado, porque para analizar los datos disponibles se requiere una enorme cantidad
de recursos económicos, humanos y técnicos. Si bien, como veremos, existen softwares
complejos que permiten procesar datos de manera masiva, para que el resultado tenga
algún valor agregado es fundamental contar por un lado con fuentes de datos fidedignos y
ordenados, y por el otro con analistas expertos capaces de realizarles las preguntas
correctas e interpretar inteligentemente los resultados.
El principal escollo que encontramos, por otro lado, en América Latina pero también en
grandes países desarrollados es que la utilización del big data en los procesos de toma
de decisiones estratégicas implica un cambio radical en la cultura organizacional, tanto en
el sector privado como en las instituciones del sector público.
Llamamos cultura data driven a la práctica organizacional instalada de tomar decisiones
en base a información. Se trata de incluir en la mesa de decisiones un conocimiento más
objetivo sobre el estado actual de la situación (aunque, como veremos, siempre incluye
una importante cuota de subjetividad), predicciones sobre el desarrollo de los
acontecimientos futuros con solidez estadística y recomendaciones estratégicas en base
a los diferentes escenarios posibles.
Sea el objetivo aumentar las ventas de un producto o los votos de un candidato, la cultura
data driven se basa en aprovechar los datos disponibles para decidir mejor sobre

1
cuestiones tales como qué presupuesto invertir en pauta publicitaria en cada medio de
comunicación y qué tipos de mensajes construir para cada segmento de la audiencia.
En el trabajo cotidiano en las organizaciones actualmente nos encontramos con que muy
frecuentemente en este tipo de decisiones tienen un alto peso variables exógenas, tales
como el grado de amistad del líder con el dueño de cierto conglomerado mediático, los
acuerdos preestablecidos y, por qué no, los egos de los diferentes actores involucrados,
variables que son a su vez cambiantes y dinámicas y pueden requerir cambios bruscos de
estrategia que llevan a la ineficiencia en la utilización de los recursos.
Es evidente que estas lógicas, sumadas a la inevitable resistencia al cambio que
ofrecerán los actores que se encuentran cómodos con los procesos tradicionales de toma
de decisiones, explican la complejidad de instalar una cultura data driven en muchas
organizaciones.
Por supuesto, esto nos lleva desde un punto de vista eficientista al despilfarro de
recursos. Así, en la práctica nos encontraremos con equipos de comunicación que no
logran acceder a la totalidad de los datos que se recolectan en el municipio o la compañía
debido a la falta de voluntad de cooperación entre las diferentes áreas o sectores, y con
presupuestos publicitarios millonarios que consiguen resultados pobres o al menos muy
lejanos a su potencial.
Entonces ¿qué puede hacer una nueva generación de líderes comunicacionales para
aprovechar el potencial del big data? En el presente artículo trabajaremos sobre la
premisa de que la promesa del potencial infinito de un “gobierno de datos” absoluto será
siempre incumplida. El big data constituye un recurso valioso que permite tomar mejores
decisiones, pero solo cuando éstos sean procesados e interpretados por recursos
humanos idóneos que logren transformarlos en insumos útiles para la formulación de
estrategias contextualizadas en las lógicas organizacionales subyacentes.
Liderar una organización hacia un cambio cultural exitoso requiere no solamente proponer
una nueva manera de hacer las cosas, sino también reconocer qué elementos, aunque
vetustos, son esenciales para el cumplimiento de las funciones básicas del conjunto,
hacen parte del núcleo de su identidad, y por lo tanto será necesario preservar. Una
desconexión entre ambas aristas también llevará a un resultado sub-óptimo.
Así, mucho se ha hablado y escrito acerca de cómo Barack Obama en 2008 y Donald
Trump en 2016 ganaron las elecciones presidenciales estadounidenses haciendo un uso
innovador de la comunicación digital y de la minería de datos. Sin embargo, como
veremos más adelante, no fue solo su utilización sino la exitosa articulación entre la lógica
de los datos, la lógica mediática y la lógica política la clave del triunfo. Esto explica por
qué posteriormente otros candidatos en la región que intentaron implementar campañas
enteramente data driven confiando en que los algoritmos serían suficientes para sortear
enteramente las manías de la lógica política eventualmente fracasaron. Veamos a
continuación entonces más en detalle cuáles son las oportunidades y los desafíos de la
implementación de una lógica data driven en comunicación política hoy.

La comunicación política hoy


Entenderemos aquí a la comunicación política en un sentido puramente pragmático, como
el diseño e implementación de estrategias comunicacionales cuyo objetivo último es
contribuir a la construcción de poder político. En democracias occidentales modernas
como las nuestras damos por sentado que dicho poder es otorgado como un préstamo
por tiempo determinado de la ciudadanía a sus representantes mediante el acto electoral.
Así toda comunicación política, sea institucional, de gestión o de campaña, tiene por
2
finalidad acrecentar, mantener o demostrar el apoyo popular hacia un cierto líder o
espacio político.
Sea para ganar una elección, para ser nombrado en un cargo público, para ingresar en
una lista o boleta, o para favorecer que se trate o apruebe un proyecto de ley, la lógica de
la comunicación política es, siempre, la de acumular capital político.
En las democracias contemporáneas en las que la ciudadanía expresa cada vez más su
desconfianza hacia la clase política, los expertos observan que el apoyo del pueblo a sus
gobernantes no queda garantizado de una vez y para siempre por el triunfo electoral, sino
debe ser reconquistado continuamente a través de la argumentación pública
(Rosanvallon, 2008). Esto implica la necesidad de los líderes políticos de estar
permanentemente en campaña, y realza el rol de la comunicación en la construcción de
poder.
Sin embargo éste, claro está, no se obtiene solamente en el terreno comunicacional. Una
buena campaña es condición necesaria para una elección exitosa, pero a menudo no es
suficiente. Desde la selección de los candidatos hasta las construcción de alianzas
formales y acuerdos informales con diferentes sectores de la política y los poderes
mediáticos, económicos, militares, religiosos, entre otros, serán también determinantes.
Para poder contribuir con la empresa de la construcción del poder, por lo tanto, la
comunicación política se encontrará inevitablemente con la necesidad de articular su
tarea con otras lógicas inmersas en el juego político.
Asimismo, los modos de construcción de las identidades políticas y los formatos del
vínculo representativo se van transformando a lo largo del tiempo, de la mano de los
cambios socio-culturales y los avances tecnológicos, y por consecuente también se
modifican las formas de hacer campaña política, y de articular con otras esferas.
Por ejemplo, la interacción entre la lógica política y la lógica mediática capturó la atención
de los especialistas como un fenómeno novedoso recién a fines del siglo XX. Con
anterioridad, en las democracias de partidos (Manin, 2010), las identidades partidarias
parecían ser fijas, y los ciudadanos votaban siempre al candidato que portaba los colores
de su partido.
Así, la comunicación política se basaba en el refuerzo y la movilización de los votantes
propios, organizando actos masivos y presentando programas de gobierno concretos y
atractivos que se difundían mediante la prensa partidaria.
Fue recién con la caída del muro de Berlín y la masificación de la televisión color que el
electorado comenzó a estar expuesto a una multiplicidad de ideas y argumentos políticos
desde el living de su casa, y por lo tanto su identidad partidaria se volvió fluctuante.
En consecuencia, los partidos se desideologizaron gradualmente para intentar conquistar
a la nueva categoría emergente en los sondeos de opinión, la de “los indecisos”. Los
nuevos partidos catch all (Kirchheimer, 1966) buscaban seducir a la mitad más uno del
electorado mediante campañas masivas que presentaban imágenes difusas y
representaciones simplificadas en lugar de planes de gobierno detallados.
Así fue que los medios masivos de comunicación, guiados por su lógica comercial
lucrativa, se volvieron fundamentales para la comunicación política. Esta mutación recibió
los nombres de democracias de audiencia (Manin, 2010) y mediatización de la política
(Fernández, 2014), dando cuenta de una imbricación novedosa entre la lógica política y la
lógica mediática.
En la actualidad podemos proponer que nos encontramos transitando una nueva
mutación, que transforma nuevamente el modo en el que los ciudadanos se informan,
3
opinan y construyen sus identidades políticas, y por lo tanto nos convoca a aggiornar las
estrategias de comunicación y campaña. La atención a la particularidad y la política de
proximidad parecen ser las características que definen al formato de lazo representativo
legítimo hoy (Annunziata, 2012).
Por una parte, las redes sociales y los medios digitales favorecen la construcción de
“burbujas” en las que los ciudadanos se informan y consumen contenidos diferenciados
de acuerdo a perfiles construidos por algoritmos basados más en hábitos y estilos de vida
que en condiciones de clase o posiciones políticas.
Así, en estas sociedades hiperfragmentadas las identidades se vuelven específicas
(Castells, 1996) y las campañas políticas pasan de una estrategia catch all, basada en
medios masivos, a otra catch each (Magnani, 2017), fundada en la construcción de
mensajes diferenciados para hacer llegar a perfiles segmentados de audiencia.
Asimismo, este modelo de comunicación política permite a los líderes mostrarse más
próximos a su electorado. Los mensajes personalizados permiten poner en escena su
capacidad de escucha y atención a las demandas particulares de cada localidad, cada
barrio, cada manzana. Favorecen la construcción de relatos intimistas, de “historias de
vida”, que dan respuesta al rechazo ciudadano generalizado hacia la clase política por ser
percibida como ajena a las realidades cotidianas del hombre común.
Esta “política de la presencia” (Annunziata, 2012) se caracteriza entonces por la novedad
de que los políticos salen a buscar a sus votantes, tocando el timbre de sus casas o
apareciendo en sus muros de Facebook, en lugar de movilizarlos hacia un acto masivo.
Los medios de comunicación siguen teniendo un rol primordial en el establecimiento de la
agenda, la construcción del humor social y el sostenimiento de la legitimidad de un
gobierno, habiendo cobrado especial importancia el periodismo de investigación en
particular en el control del manejo de los fondos públicos. Es por ello que es de suma
importancia aún en una campaña política la asignación de presupuestos de pauta
teniendo en cuenta las lógicas de los medios de comunicación.
Sin embargo, como venimos proponiendo, irrumpe en este contexto la lógica data driven
como una oportunidad de abordar los problemas de comunicación política a través de
nuevas herramientas. Si bien utilizarlas no garantiza un triunfo electoral, en la medida en
la que se difunde su aplicación ignorarlas sí puede condenar un proyecto al fracaso.

La lógica de los datos


Ahora bien, ciencia de datos y comunicación política no son dos campos sencillos de
articular. Cada cual tiene sus propias lógicas internas y sus propias maneras de medir los
resultados. Aunque estén trabajando con el mismo objeto de estudio, un científico de
datos y un politólogo observarán aspectos diferentes, lo describirán con otras palabras
(¡incluso en otros lenguajes!) se interesarán por problemas distintos y propondrán
estrategias de abordaje diversas.
Allí radica, por una parte, el gran valor agregado que brinda el cruce entre ambas
disciplinas, en tanto que la multiplicación de los puntos de vista permitirá descubrir
patrones y tendencias (que llamaremos insights) novedosos a partir de los cuales planear
campañas innovadoras y disrputivas.
Pero por otra parte, este es también el motivo por el cual, a pesar de los evidentes
beneficios, la incorporación de cientistas de datos en los equipos de comunicación es tan
compleja, costosa, y no se termina de generalizar. Los asesores de campaña trabajamos
de manera pragmática para dar respuesta rápida a problemas complejos en los que hay
4
múltiples variables y actores en juego. Los analistas de datos siguen procedimientos
minuciosos con una gran cantidad de pasos en los que un mínimo error de código puede
afectar gravemente el valor del resultado. Acomodar los ritmos de trabajo lleva tiempo,
esfuerzo y voluntad para el cambio, que como vimos, no siempre abunda.
El principal problema, sin embargo, es que aún cuando logramos trabajar coordinados, a
menudo los equipos de campaña desconocemos qué le podemos pedir a la ciencia de
datos, qué tipos de análisis se pueden hacer, y en qué formatos solicitar los resultados
para que sean fácilmente aplicables a nuestros objetivos. Los analistas de datos, por su
parte, ignoran también la complejidad de los problemas políticos de modo que tampoco
logran en general ofrecer soluciones que verdaderamente cambien el rumbo de una
elección. Las excepciones, como Cambridge Analítica en la campaña de Trump de 2016,
confirman la regla. En la práctica, las campañas políticas electorales pagan precios
desorbitantes por tableros de información básicos que representan una mínima parte del
potencial que podría aportar la minería de datos, y que a menudo no hacen más que
confirmar y a lo sumo brindar más precisión sobre lo que el equipo ya sabía o intuía.
Para ir más allá de la punta del iceberg es necesario entonces tender un puente
conceptual entre ambas disciplinas, empezar a construir un lenguaje común, y por sobre
todo avanzar en la democratización del acceso a este tipo de conocimiento. Mientras el
expertise en el uso del big data para la comunicación política siga estando reservado solo
para unos pocos entendidos, y su aplicación concreta cubierta con un velo de
hermetismo, nunca se alcanzará su máximo potencial de aplicación. Además, los recursos
de alta calidad permanecerán restringidos como un bien de lujo solo para los partidos
políticos más grandes, con mayor presupuesto, alejando cada vez más a las nuevas
minorías de la representación política. En pos de avanzar entonces en esta dirección, a
continuación comenzaremos a sumergirnos en el mundo de la ciencia de datos.
En informática, un dato es “la representación (numérica, alfabética, algorítmica, espacial,
etc.) de un atributo o variable cuantitativa o cualitativa” (Wikipedia). Es “una cifra, letra o
palabra que se suministra a la computadora como entrada y la máquina almacena en un
determinado formato” (Oxford Languages).
Así, por sí solo, un dato no tiene un valor semántico. Las redes sociales reúnen todos los
días grandes masas de datos de sus usuarios que en sí mismos no reportan ninguna
utilidad. En efecto, cuanto mayor es el volumen de datos, más difícil es, a simple vista, y
manualmente, extraer de él insights valiosos.
Por el contrario, llamamos información al conjunto organizado de datos procesados que
constituyen un conocimiento útil para determinado fin. Es la información entonces el
commodity más preciado del siglo XXI, no los datos. Y como venimos viendo, transformar
los unos en los otros requiere recursos económicos, técnicos y humanos que son
escasos.

5
La pirámide del conocimiento. Fuente: Hey
(2004)

El big data, por su parte, es precisamente el proceso de generación de valor que se


produce en el procesamiento de grandes masas de datos. No se trata de encontrar entre
la maraña de números y palabras un dato valioso, como una aguja en un pajar, sino de
generar nueva información a partir del entrecruzamiento de múltiples variables en una
serie grande de casos. El análisis de los datos es el que produce el valor agregado,
logrando crear información que no se encontraba en la base de datos antes de su
procesamiento.
Para que un conjunto sea considerado big data comúnmente se suele requerir que se
cumplan 5 condiciones, las 5Vs: volumen, velocidad, veracidad, variedad, y valor.
El volumen no se refiere solamente a la cantidad de datos, sino también a su aumento
exponencial y a su dinámica fluctuante. Se vincula entonces a la velocidad con la que se
producen y el ritmo continuo con el que se actualizan.
En las redes sociales, por ejemplo, los datos que se producen se caracterizan por ser
voluminosos pero además por estar en constante cambio. La cantidad de seguidores que
tiene un usuario o de retuits de una entrada no se mantienen estáticos sino que todo
intento de extracción de esos datos representa solo una fotografía en un momento dado,
que queda desactualizada al instante. Por ello las bases de datos online, como las que
utilizan Google o Facebook Analytics, deben refrescarse y volver a realizar la extracción
cada fracciones de segundos para intentar mantenerse actualizadas. La fecha de
caducidad de los análisis de datos, o al menos su plazo de consumo recomendado, es
por ello siempre a corto plazo.
La veracidad, por su parte, es una cualidad que no conviene dar por sentada, en especial
en estas épocas de trolls, bots y fake news. En efecto, éstos son actores novedosos de la
esfera pública diseñados con el objetivo de manipular el procesamiento de datos que
realizan los algoritmos de las redes sociales para lograr influir en la opinión pública
instalando y desinstalando temas de la agenda.
Un troll es una cuenta, anónima o no, con identidad falsa o verdadera, que “publica
mensajes agresivos, violentos o despectivos con el objetivo de molestar a las
comunidades digitales, desviar la conversación o bloquear” (Galup, 2019). Un bot, por su
6
parte, se diferencia por ser una cuenta total o parcialmente automatizada en sus
interacciones, programada para generar cientos de tuits, retuits y favoritos por minuto
incluyendo ciertas palabras clave, hashtags o menciones que logren influir en los
algoritmos para visibilizar ciertos contenidos, instalar trending topics, etc. En este
contexto, la calidad del análisis de los datos se funda sobre la responsabilidad de una
recolección de información cierta y utilizable.
La condición de variedad también reside en el corazón del big data, en tanto que el
entrecruzamiento de los datos será tanto más rico, y reflejará mejor la realidad empírica
cuanta mayor diversidad de fuentes de recolección se incluyan.
La cuestión de la obtención de las bases de datos para analizar, es decir la etapa cero,
previa al ingreso de las habilidades de los científicos de datos, es también una de las más
complejas. A diferencia del mundo corporativo, en el cual las transacciones y los contactos
con los clientes suelen realizarse a través de softwares de TPS (Transaction Processing
System) o CRM (Costumer Relations Manager) y por lo tanto quedan registradas en
bases de datos online u offline, en comunicación política casi nunca nos encontraremos
con la bandeja tan servida.
En cambio, descubrimos municipios que tienen registros muy escasos o desactualizados
sobre sus habitantes, con bases de datos dispersas por diferentes oficinas, información
repetida, incongruente, a veces incompatible, y esto en el mejor de los casos, en el que
haya buena voluntad de los directores de área de compartir este recurso tan preciado.
Para obtener insumos variados para hacer análisis de datos, y no recaer siempre en un
scrapping de Twitter, cuyo valor es alto pero limitado, se requieren habilidades extra
técnicas tales como la creatividad, el carisma, la muñeca política, y también destinar
recursos económicos para acceder al mercado de datos.
Pero más allá de la diversidad de origen, también es característica del big data la
variedad de tipos y fuentes de datos. Podemos distinguir, por ejemplo, entre datos y
metadatos, entendidos éstos como “datos que describen a los datos”. Así, por ejemplo,
nos interesará no solo el dato de qué productos buscan los usuarios, sino también en qué
horarios, con qué frecuencia y desde qué dispositivos lo hacen.
A su vez, las fuentes de datos pueden categorizarse como estructuradas y no
estructuradas. Entre las primeras encontramos las bases de datos fundadas en modelos
relacionales o analíticos, que relacionan y organizan los datos en tablas, filas y columnas
para responden a un propósito específico bajo criterios estrictos. Lo podemos entender
como un archivador perfectamente organizado donde todo está identificado, etiquetado y
es de fácil acceso. El lenguaje SQL (Structured Query Language) es el más comúnmente
utilizado para administrar Indormación de sistemas de gestión de bases de datos
relacionales.
Entre las fuentes no estructuradas, por su parte, podemos reconocer aquellas que
almacenan e-mails, archivos de texto, archivos PDF, hojas de cálculo, imágenes, videos,
audios, publicaciones en redes sociales. Estos datos se caracterizan por no tener una
estructura interna identificable, sino que constituyen un conglomerado masivo y
desorganizado de varios objetos que no tienen valor hasta que se identifican y almacenan
de manera organizada. Conceptualmente estos tipos de datos podrían organizarse y
analizarse de modo de convertirse en datos estructurados, aunque resulta un esfuerzo
costoso en tiempo y recursos.
Parte del gran desafío de aportar valor agregado para convertir a los datos en información
relevante es lograr analizar no solo fuentes de datos estructuradas sino también no
estructuradas. Esto implica en comunicación política, por ejemplo, diseñar y medir los
7
resultados de una campaña no solamente analizando variables cuantitativas de
cantidades de tuits, seguidores y favoritos, sino también lograr incluir en el análisis
posteos y tuits en forma de texto, imagen, video y sonido. Esto nos permitiría pegar un
salto en el nivel de complejidad con el que comprendemos los sentimientos, emociones e
intereses de la audiencia hacia un líder o candidato, y constituye una gran limitante en el
aprovechamiento del potencial del uso del big data en el campo de aplicación de las
ciencias sociales.
Finalmente, la quinta “v” que define al big data es el valor. Esto implica, como venimos
sosteniendo, que los datos recogidos tengan utilidad para el propósito propuesto, que
sirvan para algo más que para definirse a sí mismos. Así, la caracterización de un
conjunto de datos como “big data” tiene sentido solo en relación con determinado objetivo
formulado. Esa es la clave que hace que una base de datos valga millones o centavos, y
perder esto de vista puede llevar a un equipo de campaña a pagar precios desorbitantes
por información que solo termina reafirmando los insights que ya sabían de antemano.

Las etapas del análisis de datos


Construir conocimiento a partir del big data, entonces, no es tarea sencilla. Una vez que
conseguimos un conglomerado de datos valiosos, en gran volumen, confiables y variados,
entonces recién comienza la aventura.
Podemos dividir al proceso de análisis de datos en tres fases, sobre las que se irá
avanzando según el grado de complejidad que se le quiera brindar al trabajo.
La primera es la etapa de data manipulation, en la que se preparan los datos para ser
analizados. El objetivo es obtener un data set con datos precisos, completos, consistentes
y únicos, ya que por lo general no recibimos los datos limpios, filtrados y organizados tal
como los necesitamos. De hecho, esta es una de las etapas más trabajosas y que llevan
más tiempo, sobre todo cuanto más variados sean los datos a analizar.
Esta etapa a su vez consta de tres pasos: la extracción, la transformación y la carga de
los datos. Existen diversas fuentes para la extracción de datos, estando entre las más
comunes los archivos locales, las páginas web, las bases relacionales, los web services y
las APIs.
Las APIs (Application Programming Interface) son conjuntos de funciones que permiten
conectar una aplicación con otra, y son necesarias para acceder por ejemplo a los datos
de la mayoría de las redes sociales y sitios de e-commerce.

Fuente: Digital House (2019)


8
Para la construcción de un solo data set, por ejemplo, puedo necesitar combinar datos
que tengo en planillas de cálculos en mi ordenador con información en tiempo real que
me provee Google desde la nube, y datos que obtengo de Twitter.
Tras extraer los datos se realiza también un análisis exploratorio de los mismos, buscando
comprender su estructura y su relación con otras estructuras de datos. Es necesario
entender qué información se necesita y cómo tiene que estar organizada para, al igual
que los planos de un arquitecto, diseñar el modelo que tendrá el data set. Este proceso se
llama data profiling.
El segundo paso es el de transformación de los datos, e incluye la limpieza, el filtrado, el
formateo de los mismos. Implica, por ejemplo, eliminar registros duplicados, colocar ceros
en los casilleros con datos faltantes, unificar criterios tales como las unidades de medida,
dividir columnas y crear nuevas columnas derivadas a partir de cálculos básicos.
Para las variables cualitativas, que nos interesan en particular en ciencias sociales, es
necesario muchas veces transformarlas en variables dummies (variable ficticia que toma
solo el valor 0 o 1 para indicar la ausencia o presencia de algún efecto categórico) para
que puedan ser analizadas correctamente. Así, transformamos una columna titulada
“barrio” por múltiples columnas con e nombre de cada barrio, a las que se les asignan los
valores 0 y 1 para casos negativos y afirmativos.

Nombre Barrio Nombre Palermo Colegiales Villa Luro Mataderos

A Palermo A 1 0 0 0

B Colegiales B 0 1 0 0

C Villa Luro C 0 0 1 0

D Mataderos D 0 0 0 1

Los softwares especializados en el modelado de datos, algunos directamente vinculados


a herramientas de análisis y visualización como el Power Query con Power Bi de
Microsoft, suelen permitir guardar el paso a paso de la transformación de los datos para
repetirlo automáticamente cada vez que se importe una nueva base de datos de las
mismas características, de modo de ahorrar tiempo con este trabajo tan importante como
tedioso.
Finalmente, el último paso de esta etapa es la carga del data set ya transformado, sea
que se almacene en una base de datos, un datawarehouse, o se cargue directamente en
el software para continuar el trabajo.
La segunda es la etapa de visualización de los datos, y se compone típicamente del
diseño y la construcción de un dashboard o tablero que constituye una representación
gráfica de la información orientada a la toma de decisiones. Algunas de las herramientas
de análisis y visualización de datos más populares son Power BI de Microsoft, Tableau y
Data Studio de Google.
Estos softwares ofrecen una gran variedad de tipos de gráficos, o visualizaciones, que se
van actualizando y renovando permanentemente y permiten presentar los mismos datos
de diferentes maneras, privilegiando poner el énfasis en ciertas variables y sus relaciones.

9
Es por eso que se habla del rol preponderante que tiene el storytelling en la construcción
de un dashboard. A partir de los mismos datos, el producto final dependerá de las
habilidades que tenga el analista no solo para encontrar correlaciones sino también
mostrarlas de una manera clara, intuitiva, y que permita a partir de ello extraer
conclusiones para la toma de decisiones.
El siguiente es un ejemplo de un dashboard creado en Tableau que realiza un análisis
descriptivo de los tuits de un conjunto de presidentes seleccionados. El tablero incluye
tres tipos de visualizaciones: un gráfico de barras (Cantidad de seguidores), un
cartograma (Cantidad total de tuits) y un diagrama de árbol (Promedio de tuits por día).

Fuente: La Nación (2013)

10
Aquí vemos que quien diseñó las visualizaciones privilegió mostrar que, si bien Obama
era el presidente con mayor cantidad de seguidores en Twitter por amplia ventaja, Nicolás
Maduro era quien publicaba más tuits por día, entre otras conclusiones posibles.
Ahora bien, este primer ejemplo es un tablero básico en varios sentidos. En primer lugar,
porque es estático. A diferencia de un reporte o análisis tradicional, un tablero permite
interactividad y el usuario puede ir navegando, seleccionando variables y observando los
datos según su interés. Asimismo, tiene el beneficio de que el analista puede optar por
visibilizar o invisibilizar ciertas categorías del análisis de acuerdo al rango del usuario o el
interés de esa presentación particular. Podemos ver un ejemplo en este tablero sobre las
divisiones socioeconómicas en las elecciones presidenciales de Brasil 2014.1
En segundo lugar, el tablero también podría complejizarse incluyendo datos en tiempo
real. Como vimos, la etapa de extracción y carga puede configurarse para extraer datos
automáticamente cada determinado lapso de tiempo, generando así un reporte
automatizado. Las herramientas de Google y Facebook Analytics, tan comúnmente
utilizadas en el marketing digital, son claros ejemplos de tableros interactivos
automatizados que permiten visualizar los datos en tiempo real de modo de saber
exactamente cuántos usuarios están activos en un sitio en un momento determinado,
cómo llegaron, desde qué dispositivo ingresaron, qué están poniendo y sacando de su
carrito de compras, etc.

Fuente: Google Analytics - Vista de la sección Ubicaciones

Todos estos tableros, a pesar de que puedan tener mayor o menor complejidad,
permanecen dentro de lo que llamamos análisis de datos descriptivo. Este es solo el
primer nivel de valor agregado que ofrece el big data para la toma de decisiones, y
consiste en organizar y presentar de manera tal los datos recolectados para proporcionar
una visión del pasado y el presente, respondiendo a las preguntas ¿qué pasó? o ¿qué
está pasando?
En el caso de la comunicación política, los análisis descriptivos nos ayudan visualizar
mejor los datos socio-demográficos, patrones de comportamiento, intereses, necesidades

1 En este link pueden explorar también tableros destacados publicados por los usuarios de Tableau sobre
las temáticas más variadas.
11
y preocupaciones del electorado en determinado distrito. Podemos responder a preguntas
tales como ¿qué popularidad tiene el candidato “x” en el público “y”?, y un
entrecruzamiento hábil de variables y un buen análisis estratégico de los resultados
pueden ayudarnos a encontrar insights valiosos a partir de los cuales diseñar estrategias
y construir campañas.

Escalas de valor del análisis de datos

¿Cómo lograr
mis objetivos?

¿Qué pasará?

¿Por qué está


pasando?
Aporte
de valor
¿Qué está
¿Qué pasó? pasando?

Análisis descriptivo Análisis Análisis Análisis


estratégico predictivo prescriptivo

Complejidad

Fuente: Digital House (2019)

Habiendo pasado ya las etapas de manipulación y visualización de los datos, pasar a la


tercera instancia nos dará acceso, entonces, a los niveles siguientes de complejidad de
análisis. Se trata de la etapa del modelado de los datos.
Aplicando modelos estadísticos y algoritmos matemáticos, en la fase de data modeling
logramos trascender a los datos con los que ya contábamos para producir nuevas piezas
de información. Los primeros los utilizaremos si buscamos realizar un análisis predictivo y
responder a la pregunta ¿qué pasará?
Así, podemos aplicar a los datos técnicas de pronóstico para proyectar escenarios
probables a futuro. En comunicación política, por ejemplo, con estas herramientas
podemos responder no solamente a la pregunta sobre el nivel de popularidad actual de un
candidato, sino también a ¿qué popularidad podemos proyectar para la fecha de la
elección?
12
El análisis prescriptivo, por su parte, va un paso más allá y se propone ofrecer soluciones
y líneas de acción para acercarse a los objetivos propuestos. Para hacerlo se servirá,
además de los análisis descriptivos y el prescriptivos, de algoritmos que le permitirán
descubrir patrones y correlaciones entre múltiples variables y comparar diferentes
escenarios posibles.
En comunicación política, estos trabajos son útiles para responder, entonces, también a
preguntas tales como ¿cuál es el segmento de audiencia con mayor potencial de
crecimiento? ¿cuánto es necesario invertir en pauta y en qué medios para alcanzar el
máximo potencial? ¿cuáles son los principales puntos débiles y cómo protegerme de
ellos?
Las herramientas de análisis y visualización de datos, como Tableau, Power Bi y Data
Studio, ofrecen entre sus funcionalidades la posibilidad de aplicar al data set la mayoría
de los modelos estadísticos y algoritmos más comúnmente utilizados. Usar estos
softwares tiene el beneficio por un lado de que no requieren conocer lenguajes de
programación, y por el otro que permiten generar visualizaciones de los resultados en la
misma herramienta. Para los usuarios cotidianos del paquete Office, por ejemplo, utilizar
Power Bi de Microsoft les resultará muy familiar, y lo mismo para Google y Data Studio.2
Sin embargo, también tienen sus limitaciones si se las compara con las infinitas
posibilidades que brinda el desarrollar programas especialmente diseñados para atender
a los objetivos estipulados. Si bien requieren el trabajo de técnicos más especializados,
el conocimiento de lenguajes de programación como Python y R, y el uso de entornos de
desarrollo que son mucho menos intuitivos, nos permiten crear programas desde cero,
más complejos y automatizados, que cumplan exactamente las funciones que requiere el
proyecto, y dando rienda suelta a la creatividad y la innovación.
Orange Data Mining es otra opción, una herramienta gratuita de modelado de datos que
recoge en parte lo mejor de los dos mundos. Está programada en Python pero cuenta con
una interfaz sumamente intuitiva que permite realizar todos los pasos de extracción,
transformación, algunos tipos de visualización y aplicación de algoritmos complejos en
solo unos clics.3

Algoritmos para problemas políticos


Conozcamos mejor ahora algunos de los algoritmos más comúnmente utilizados para el
modelado de datos, y su aplicación en comunicación política. Un algoritmo, en
programación, es un conjunto de instrucciones y reglas bien definidas que permiten llevar
a cabo una actividad determinada. Machine learning es la disciplina dentro del campo de
las ciencias de la computación y la rama de la inteligencia artificial que se ocupa del
diseño de algoritmos y técnicas que permitan la inferencia de reglas a partir de grandes
conjuntos de datos (Digital House, 2019).
Este campo de estudio reúne, entonces, los diferentes tipos de algoritmos mediante los
cuales una computadora, sin recibir demasiadas indicaciones, descubre y “aprende”
patrones, de comportamiento y realiza inferencias a partir de un conjunto grande de
datos, y es capaz de ir mejorando su desempeño al acumular experiencia para
extrapolarlos a nuevos conjuntos de datos.

2Las herramientas ofrecen cursos online gratuitos para familiarizarse con la herramienta. Es
posible acceder a ellos en los siguientes links: Power Bi, Tableau, Data Studio.
3 En este link es posible (y recomendable) acceder a tutoriales gratuitos de Orange Data Mining.
13
A grandes rasgos podemos clasificar a los algoritmos en dos tipos, según el grado de
automatización del proceso de aprendizaje. Los algoritmos de aprendizaje supervisado
son aquellos que resuelven problemas para los cuales existe una variable a predecir o
modelar ya pre-fijada. En ellos el analista de datos cumple un rol más activo, ingresando
al programa las variables a aprender y “supervisando” el proceso.
Entre ellos podemos encontrar, por ejemplo, regresiones lineales simples y múltiples, que
permiten analizar variables cuantitativas para predecir alguna de ellas (target) a partir de
las otras. En comunicación política, por ejemplo, nos permiten predecir cuánto aumentará
el nivel de conocimiento de un candidato a partir de una inversión publicitaria en
determinados medios. Una demostración gráfica de regresiones lineales comparadas
tendría un aspecto como el siguiente:
Nivel de conocimiento

Nivel de conocimiento

Nivel de conocimiento

TV Radio Prensa gráfica

Fuente: Elaboración propia

En este gráfico ilustrativo, cada punto rojo corresponde a una entrada en el data set, y la
línea azul es la respuesta del algoritmo al problema. ¿Hay alguna relación entre el
presupuesto invertido en pauta publicitaria en cada medio y el nivel de conocimiento del
candidato? ¿Cuáles de los medios analizados contribuyen más a aumentar el nivel de
conocimiento? ¿Es esta relación lineal? ¿Con cuánta precisión podemos predecir las
variaciones futuras? Este tipo de preguntas pueden ser respondidas mediante la
aplicación de regresiones a grandes masas de datos.
Los árboles de decisión son otro algoritmo de aprendizaje supervisado, en el que las
variables también están pre-definidas por el analista. Tienen la ventaja de ser visualmente
más intuitivas y fáciles de explicar en tanto que se asemejan al modo en el que las
personas reales toman decisiones.

14
Fuente: @quaesita en Twitter

Este algoritmo es comúnmente utilizado, por ejemplo, para programar los bots de
respuestas automáticas de servicio al consumidor, que al reconocer un término definen
qué respuesta automática enviar a partir de instrucciones pre-programadas. En
comunicación política también son útiles para definir por ejemplo a qué usuarios de
Facebook mostrar cada pieza de campaña, de acuerdo a las condiciones que se cumplan.
A mayor cantidad de datos aumenta el nivel de precisión de sus resultados, y es por eso
que, como usuarios, a medida que más utilizamos las redes sociales, más nos
sorprendemos por lo atinadas que son las publicidades que recibimos en relación con
nuestros intereses y necesidades del momento.
Las redes neuronales son otro modelo computacional que permite predecir resultados
según un diagrama que imita el funcionamiento del cerebro humano, mediante nodos
conectados entre sí en diferentes capas. Son utilizadas con frecuencia en los programas
de reconocimiento de imagen y voz, para seguridad cibernética, en aeropuertos y
ciudades inteligentes.
Finalmente, otra metodología de la inteligencia artificial que reviste gran utilidad para la
comunicación política son los modelos de Procesamiento de Lenguaje Natural (NLP por
sus siglas en inglés). Estos son los programas que permiten hacer análisis automáticos de
textos, discursos, posteos, tuits, y así hacer estudios de opinión pública para conocer por
ejemplo la reputación web de un líder o institución, o identificar las preocupaciones e
intereses de la población de cierto barrio o manzana según sus tuits.
La técnica de la nube de palabras, por ejemplo, permite visualizar de manera clara
aquello sobre lo que se está hablando en determinado momento en cierta ubicación geo
referenciada.

15
Fuente: Elaboración propia a partir de un data set de tuits de @alferdez

Para analizar cuál es la opinión pública sobre un sujeto o una temática, actualmente el
procedimiento más común es a partir de un diccionario pre-confeccionado que asigna a
cada palabra o singo una valoración positiva, negativa o neutral. Si bien existen algunos
diccionarios disponibles de acceso libre en inglés, en español aún es necesario
desarrollarlos y ponerlos a disponibilidad pública.
Los algoritmos de aprendizaje no supervisado, por su parte, son aquellos que se ocupan
de la resolución de problemas en los que no existe una variable a predecir, sino que
generalmente buscan detectar la estructura de los datos. El programa no recibe de
antemano información sobre el comportamiento de las variables o las categorías a
clasificar, sino que debe ser capaz de reconocer los patrones en los datos para poder
etiquetar las nuevas entradas.
El gran aporte de estos algoritmos, por lo tanto, es su capacidad de arrojar conclusiones
acerca de un data set con una menor interferencia de las intuiciones o preconceptos
presentes en el diseño del modelo. Así, nos permiten conocer la realidad empírica de una
forma menos mediada por la subjetividad, a través del lente de las operaciones
matemáticas.
El análisis de componentes principales, por ejemplo, es uno de los más difundidos y
consiste justamente en describir un conjunto de datos a través del descubrimiento de
nuevas variables (componentes) no correlacionadas. Se emplea generalmente en el
análisis exploratorio de datos, y para construir modelos predictivos.
El clustering, o análisis de grupos, es por su parte sin dudas la estrella de los algoritmos
de aprendizaje no supervisado, en especial por su potencial para realizar estudios de
mercado y audiencia, y por lo tanto para comunicación política. El objetivo de este
conjunto amplio de técnicas y algoritmos es encontrar en un data set grupos de registros
homogéneos en su interior y heterogéneos entre sí.
La diferencia con los métodos de clasificación de aprendizaje supervisado es que las
variables según las cuales se agrupan los registros no son provistas de antemano por el
analista, sino que el algoritmo prueba diferentes alternativas posibles, realizando tantas
16
iteraciones como le solicitemos, hasta encontrar el modo óptimo de subdividir el data set
en segmentos o clusters.
Un cluster es, así, una colección de objetos que son similares entre ellos, y disímiles a los
objetos pertenecientes a otros clusters. La noción de similitud y diferencia suele
operacionalizarse a partir de diversas métricas de distancia, siendo algunas de las
técnicas habituales K-means, DBSCAN y Hierarchical, clustering.
El algoritmo K-means, por ejemplo, procede de modo de construir clusters a partir de la
detección matemática de centroides, y la delimitación de conjuntos de registros en
relación con su cercanía o distancia a ellos, como podemos ver en los siguientes gráficos:

Fuente: Digital House (2019)

Si cada punto verde es una entrada en el data set, el algoritmo reconoce algunos de ellos
como centroides (c1, c2, c3) y luego divide el resto de los registros según su posición
respecto a los mismos, construyendo un cluster por centroide.
En comunicación política este modelo tiene diversas utilidades. Permite, por ejemplo,
construir muestreos para estudios de opinión pública que representen mejor la realidad
empírica, evitando sesgos y brindando a las encuestas mayor capacidad de predicción.

Fuente: Digital House (2019)

17
Pero sobre todo la clusterización tiene un gran potencial para descubrir clivajes y
segmentos del electorado novedosos, en torno a características que exceden a los
parámetros sociodemográficos tradicionales (edad, nivel educativo, poder adquisitivo,
etc). De esta manera una campaña puede, como venimos desarrollando, a partir de
grandes masas de datos extraídos de las redes sociales construir perfiles de votantes
para segmentar las audiencias y hacerles llegar mensajes personalizados.
El concepto de segmentación de audiencias proviene del campo del marketing y consiste
en identificar diferentes perfiles de grupos de consumidores, comprender sus hábitos de
consumo, intereses y necesidades, y diseñar productos o estrategias de marketing
pensando en ellos.
Retomando esta metodología, el aporte que brinda el big data para campañas políticas
es, por un lado, la capacidad de no solo reconocer diferentes segmentos en el electorado
sino saber exactamente qué electores pertenecen a él, y dónde encontrarlos para
enviarles los mensajes personalizados.
Aquí fue donde radicó el gran éxito de la campaña de Obama en 2008. Como resume
Esteban Magnani en su artículo “Big data y política. El poder de los algoritmos” (2017), el
equipo se propuso clasificar grandes volúmenes de usuarios de redes sociales no de
acuerdo a sus propias posiciones políticas sino a las que revelaban sus amigos. Al cruzar
esa información con los datos de empadronamiento ciudadano lograron localizar con
nombre y apellido a 3,5 millones de potenciales votantes no empadronados. Les hicieron
llegar entonces mensajes personalizados según sus intereses, y el resultado fue que al
menos un millón de ellos se registró para votar. Teniendo en cuenta que la elección se
ganó por 5 millones de votos, esta estrategia fue clave para el triunfo.
Así, el gran valor agregado de este método reside también en la capacidad de descubrir
nichos de electores que, por escapar a las clasificaciones del sentido común, no están
siendo el target de campañas electorales, y por lo tanto representan un gran potencial de
conquista.
La campaña de Trump de 2016, con la ayuda de Cambridge Analytica, demostró el
potencial de aplicar esta técnica a gran escala (Magnani, 2019). El equipo de científicos
de datos analizó los datos de todos los ciudadanos en edad de votar, y descubrió un
segmento del electorado que no estaba siendo tenido en cuenta. Se trataba de los ex
trabajadores fabriles desocupados de los Estados del “cinturón de óxido” (Rust belt), que
habían sido expulsados del sueño americano. La minería de datos les permitió
nuevamente identificar precisamente quiénes respondían a este perfil, y encontrar
mensajes que los interpelaran, tales como los relativos a la frustración con el sistema, el
rechazo a los inmigrantes, la decepción con la clase dirigente.

18
Software estadístico y de análisis de redes utilizado por Cambridge Analytica para desarrollar
sus campañas (Fuente: NBC)

Conclusiones generales
Tal como hemos desarrollado a lo largo del artículo, el big data, los modelos matemáticos
y estadísticos y las técnicas de programación tienen mucho que aportar al diseño de
campañas políticas, y tal como quedó demostrado en las campañas de Obama y Trump,
su aprovechamiento puede ser decisivo para ganar una elección.
Sin embargo, sacarle el jugo a esta herramienta depende también, y sobre todo, de una
correcta interpretación de sus resultados (la cuarta etapa del análisis de datos), de una
implementación creativa de la campaña y de un buen manejo de los recursos disponibles.
De modo tal que todos los equipos de campaña (los científicos de datos, los creativos
publicitarios, los administradores financieros, etc) deben estar alineados, coordinados y
teniendo todos en claro una misma meta final.
Concluiremos entonces que una de las claves para que todo este esfuerzo colectivo rinda
sus frutos y éstos se plasmen en resultados electorales es, como en cualquier equipo de
trabajo, la claridad en la definición de objetivos. Un protocolo como el OKR (Objectives
and Key Results) es una metodología útil para poner en palabras cuál es el objetivo de
una campaña y cuáles serán los resultados clave que indicarán que se está cumpliendo la
meta.4
Así, por ejemplo, tal como desarrollamos en la introducción, en las democracias actuales
el objetivo de toda campaña es conquistar al electorado indeciso, el “votante flotante”
(Manin, 2010) que basa su decisión según lo que está en juego en cada elección. Por lo
tanto la estrategia de minería de datos debe estar orientada no a conocer todos los
segmentos de la sociedad, sino a descubrir aquellos clusters de votantes con potencial de
ser convencidos.

4Para conocer más sobre este protocolo se sugiere la lectura de Doerr, J. (2018) Measure What
Matters, New York: Penguin.
19
De este modo, solo será necesario o conveniente invertir en descubrir segmentos del
electorado en la medida en que el equipo creativo y financiero sean capaces de producir
mensajes personalizados para ellos. Una campaña es un entramado complejo, que como
vimos está influido también por otras lógicas de poder que es necesario contemplar de
manera integral para realizar un trabajo eficiente y eficaz.
Finalmente, cabe señalar que, frente a la información obtenida por el análisis de datos, el
intérprete siempre realiza una apuesta. No consideramos aquí que los datos contengan
una verdad a develar, sino que ofrecen insumos valiosos para que los comunicadores
construyan una realidad con mayores fundamentos.
Es cierto, las redes sociales y el big data nos permiten acceder a los comportamientos
reales de la ciudadanía, fuera del ambiente de laboratorio que constituyen otras técnicas
de opinión pública como las encuestas y los focus groups, en los que se reconstruyen
entornos sociales artificialmente y se hace a los encuestados preguntas sobre temáticas
respecto a las cuales no necesariamente tienen una opinión formada.
Además su gran volumen da al análisis estadístico mayor precisión que un muestreo
aleatorio, y la posibilidad de medición instantánea del impacto otorga mayor flexibilidad
para experimentar y construir campañas a prueba y error.
Sin embargo, el gran reto radica en formular los objetivos correctos para hacerle a los
datos las preguntas necesarias, maximizando los recursos disponibles y logrando
construir un relato colectivo a partir de la suma de los datos individuales. El premio es
grande, al igual que el desafío.

Bibliografía
Annunziata, R. (2012). ¿Hacia un nuevo modelo de lazo representativo? La
representación de proximidad en las campañas electorales de 2009 y 2011 en Argentina”.
En Cheresky, I. y R. Annunziata (Comps.), Sin programa, sin promesa (pp. 45-88).
Liderazgos y procesos electorales en Argentina. Buenos Aires: Prometeo.
Castells, M. (1996) La era de la información. Economía, sociedad y cultura. Vol. 1.
México: Siglo XXI.
Digital House (2019) Glosario Data Analytics Immersion (no publicado).
Doerr, J. (2018) Measure What Matters, New York: Penguin.
Fernández, M (2014) “Sobre la mediatización. Revisión conceptual y propuesta analítica”,
La Trama de la Comunicación (18). Pp. 189-209.
Galup, L. (2019) Big data y política. Buenos Aires: Ediciones B.
Hey, J. (2004) “The Data, Information, Knowledge, Wisdom Chain: The Metaphorical link”
(no publicado). Recuperado de: https://web.archive.org/web/20071202033948/http://
ioc.unesco.org/Oceanteacher/OceanTeacher2/02_InfTchSciCmm/DIKWchain.pdf
Hopenhayn, D. (19 de enero de 2017) Martín Hilbert, experto en redes digitales: ‘Obama y
Trump usaron el Big Data para lavar cerebros’.The Clinic Online. Recuperado de: https://
www.theclinic.cl/2017/01/19/martin-hilbert-experto-redes-digitales-obama-trump-usaron-
big-data-lavar-cerebros/
Kirchheimer, O. (1966) "The Transformation of the Western European Party System", en
La Palombara, Joseph y Myron Weiner (eds.), Political Parties and Political Development,
Princeton, University Press (traducido como "El camino hacia el partido de todo el

20
mundo", en Kurt Lenk y Franz Neumann (eds.), 1980, Teoría y sociología. Críticas de los
partidos políticos, Barcelona: Anagrama.
Kotler, P. (2000) Marketing Management: The Millennium Edition. Person Prentice Hall:
Upper Saddle River.
McCausland, P. y Schecter, A. (17 de marzo de 2018) Cambridge Analytica harvested
data from millions of unsuspecting Facebook users. NBC News. Recuperado de: https://
www.nbcnews.com/news/us-news/cambridge-analytica-harvested-data-millions-
unsuspecting-facebook-users-n857591
Magnani, E. (2017) Big data y política. Nueva Sociedad nº 269. Disponible en: https://
nuso.org/articulo/big-data-y-politica/
Manin, B. (2010) Los principios del gobierno representativo. Madrid: Alianza Editorial
Rosanvallon, P. (2008) La contrademocracia, Buenos Aires: Manantial.

Sitios web
https://www.lexico.com/

21

También podría gustarte