Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Telefonía Móvil 4G y 5G

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 25

Telefonía móvil 4G

Ir a la navegaciónIr a la búsqueda

En telecomunicaciones, 4G es la sigla utilizada para referirse a la cuarta generación de


tecnologías de telefonía móvil. Es la sucesora de las tecnologías 2G y 3G, y precede a la
próxima generación, la 5G.
Al igual que en otras generaciones, la Unión Internacional de Telecomunicaciones (UIT) creó un
comité para definir las especificaciones. Este comité es el IMT-Advanced y en él se definen los
requisitos necesarios para que un estándar sea considerado de la generación 4G. Entre los
requisitos técnicos que se incluyen hay uno muy claro: las velocidades máximas de transmisión
de datos deben estar entre 100 Mbit/s (12,5 MB/s) para una movilidad alta y 1 Gbit/s (125 MB/s)
para movilidad baja. De aquí se empezó a estudiar qué tecnología eran las candidatas para
llevar la «etiqueta 4G». Hay que resaltar que los grupos de trabajo de la UIT no son puramente
teóricos, sino que la industria forma parte de ellos y estudian tecnologías reales existentes en el
momento. Por esto, el estándar LTE (long term evolution: ‘evolución a largo plazo’) de la
norma 3GPP no es 4G porque no cumple los requisitos definidos por la IMT-Advanced en
características de velocidades pico de transmisión y eficiencia espectral. Aun así la UIT declaró
en 2010 que los candidatos a 4G, como era aquel, podían publicitarse como 4G.
La 4G está basada completamente en el protocolo IP, siendo un sistema y una red, que se
alcanza gracias a la convergencia entre las redes de cable e inalámbricas. Esta tecnología podrá
ser usada por módems inalámbricos, móviles inteligentes y otros dispositivos móviles. La
principal diferencia con las generaciones predecesoras será la capacidad para proveer
velocidades de acceso mayores de 100 Mbit/s en movimiento y 1 Gbit/s en reposo, manteniendo
una calidad de servicio (QoS) de punta a punta de alta seguridad que permitirá ofrecer servicios
de cualquier clase en cualquier momento, en cualquier lugar, con el mínimo coste posible.
El WWRF (Wireless World Research Forum) pretende que 4G sea una fusión de tecnologías y
protocolos, no solo un único estándar, similar a 3G, que actualmente incluye tecnologías como lo
son GSM y CDMA.1
La empresa NTT DoCoMo en Japón fue la primera en realizar experimentos con las tecnologías
de cuarta generación, alcanzando 100 Mbit/s (12,5 MB/s) en un vehículo a 200 km/h. La firma
lanzó los primeros servicios 4G basados en tecnología LTE en diciembre de 2010 en Tokio,
Nagoya y Osaka.

Características técnicas[editar]
El concepto de 4G trae unas velocidades mayores a las de 301 Mbit/s (37,6 MB/s) con
un radio de 8 MHz; entre otras, incluye técnicas de avanzado rendimiento radio
como MIMO y OFDM. Dos de los términos que definen la evolución de 3G, siguiendo la
estandarización del 3GPP, serán LTE para el acceso radio, y SAE (Service Architecture
Evolution) para la parte núcleo de la red.

Arquitectura de la red 4G[editar]


La generación denominada 4G31viene implementada a través de la tecnología que se conoce
como LTE (Long Term Evolution). La arquitectura LTE presenta una serie de cambios de
denominación, configuraciones y elementos.

Lo que debemos tener especialmente en cuenta es lo siguiente:


Como podemos ver en la parte inferior de la imagen "inexistente" (y en marrón), aparece un
nuevo elemento denominado «eNodeB» en LTE y el mismo incorpora las funciones de RNC
(Radio Network Controller) que ya no existe. Por otro lado como también se puede apreciar que
las funciones básicas del SGSN y el GGSN (y otras más también) quedan cubiertas ahora por lo
que se denomina MME (Mobility Management Entity) y SerGW (Serving Gateway). No hemos
querido profundizar en mayores detalles, pues existen varios dispositivos que no hemos puesto
para simplificar el concepto, pero sí hemos destacado dos componentes más que serán las
piezas clave para recibir paquetes IP y diferenciar el tráfico de voz y datos, que luego deberán
encaminar hacia ambas redes exteriores, pues como es natural, en la actualidad y por muchos
años aún seguirán existiendo dos «mundos de dominio público», el de voz (PSTN) y el de datos
(PSDN). El responsable final de encaminar los datos será el PDGw (Packet Data Gateway),
mientras que el que «convertirá» paquetes de voz en «flujos» de voz será el IMS (Internet
Multimedida Subsystem) que desarrollaremos más adelante. Por último vemos que aparece el
HSS (Home Subscriber Server) que hereda las funciones del HLR, este almacena y gestiona el
perfil del servicio IMS del abonado, guarda las claves de seguridad y genera vectores de
autenticación, registra el estado de los abonados y almacena el nodo con el que el abonado se
ha registrado, etc.
Lo que debemos destacar es que en un único dispositivo se incorporan funcionalidades que
implican un hardware y software para optimizar el rendimiento de la interfaz radio. Este nuevo
diseño es tal vez el aspecto más importante de LTE, pues desde aquí ya se ingresa a la red con
protocolo IP, permitiendo que sea una arquitectura «all IP» de extremo a extremo, a una
velocidad de subida y bajada nunca antes alcanzada.
El eNodeB lleva incorporada la antena y la inteligencia que antes controlaba la RNC (que ahora
no existe más) por lo tanto en la mayoría de los casos quedará fuera del dominio de seguridad
físico de la operadora, es decir en edificios, locales, áreas rurales o desatendidas, azoteas,
túneles, puentes, etc. Es aquí donde se presenta un nuevo desafío de seguridad pues toda esta
labor que realiza, implica desarrollos de software a los cuales se puede acceder por protocolo IP
y a su vez este dispositivo para poder ser configurado, posee interfaces físicas de acceso a las
cuales cualquiera también podría potencialmente tener acceso.
Por tratarse LTE de una tecnología en plena fase de despliegue en todo el mundo, a
continuación abordaremos el tema de la seguridad de la misma con mayor grado de detalle que
las anteriores, pues como se verá están surgiendo bastantes problemas, brechas o debilidades
en sus implantaciones.
Los ataques a este nuevo elemento de radio (eNB) pueden realizarse de forma local o remota. Al
obtener acceso físico al eNodeB, cualquier intruso podría interceptar, modificar o inyectar tráfico
en la red. Si se presentara esta situación, sería posible todo tipo de manipulación sobre la
información de usuario y señalización entre la estación base y el Serving Gateway o también
entre las diferentes estaciones base.
Estos requerimientos de seguridad están especificados en la cláusula 5.3 del TS33.401. Como
podemos ver en la imagen anterior, una estación base se conecta al EPC (Evolved Packet Core),
esto lo hace a través de la interfaz que se conoce como «S1» y a las estaciones base
adyacentes a través de la interfaz «X2». La cláusula mencionada del documento anterior
establece los mecanismos de confidencialidad, integridad y antiréplica a emplear en ellas que no
todas las operadoras cumplen. Lo que debería ser común en todos los planos de seguridad de
esta especificación es el empleo del protocolo IPsec en modo túnel con empleo de ESP
(Encapsulation Security Payload) y también el empleo de autenticación con IKEv2 (Internet Key
Exchange) con certificados. La discusión está en que la norma de 3GPP que es el organismo
que más peso tiene en las regulaciones y estándares de telefonía móvil deja esta condición
como «opcional», debido a esto es que por razones de costes en general no se está cumpliendo
de forma estricta.
Esta especificación técnica, al establecer que tanto para el plano de control como para el de
usuario en las interfaces S1 y X2 el modo transporte de IPsec sea opcional, se nos presentan
dos problemas:
1) En la transmisión de la información:

 Administración de claves dentro de la estación base.

 La transferencia de datos cifrados (o no) en el plano de usuario entre el e-nodoB y S1/X2 no


está explícitamente tratado en esta especif
icación.
2) En el «hardening» (bastionado) del eNodeB: La especificación menciona el concepto de
«entorno seguro» y describe algunas características, de las cuales las más importantes a
destacar son:

 Arranque seguro (Integridad del SW).

 Se deja librado a los fabricantes sus sistemas operativos; particionado, formateado discos,
aplicaciones, etc. Por lo tanto depende de cada uno de ellos el nivel de seguridad de sus
elementos.

 No requiere evaluaciones de seguridad de SW o HW de los fabricantes.

 No requiere medidas de seguridad físicas para el eNB.

 La única especificación que menciona es el concepto de HeNB (Home eNodeB).

https://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_4G

¿Qué es?

  En telecomunicaciones, 4G son las siglas utilizadas para referirse a la cuarta generación
de tecnologías de telefonía móvil. Es la sucesora de las tecnologías 2G y 3G.
Esa es la explicación de Wikipedia; en una respuesta más simple, el 4G es la nueva
generación en transmisión de datos para celulares.
¿Para qué sirve?

  Si tenés un teléfono inteligente (smartphone) y no tenés wifi, tu velocidad de navegación


ha de ser muy pobre. No importa si compraste el smarphone más caro del mercado, el nivel de
navegación no cumplirá con tus demandas. Lo único que verás es el circulito dando vueltas y
vueltas. El 4G hará más fácil tu vida en la navegación de internet a través del celular,
cumplirá con las demandas de los usuarios, que no es otra cosa que la velocidad de
transmisión de datos.

¿Cuándo podremos usarlo?

  El Gobierno dio a conocer la licitación del espectro disponible para redes 4G y del
remanente de 3G, lo que será un alivio para los usuarios.
El anuncio no estableció cuándo se realizará la licitación, pero sí habla de la obligación de las
empresas de desplegar la tecnología 4G en un máximo de cinco años.

La Argentina licitará bandas 4G de 1700/2100 Mhz y de 700 Mhz. Al mismo


tiempo, se ofrecerá finalmente el espacio cedido por Movistar tras la fusión
de Unifón y Movicom, libre desde 2008 y que en 2012 derivó en la creación
de Libre.Ar, firma estatal que alquilaría el espectro a cooperativas a lo largo
del país, pero que jamás llegó a funcionar.

Cuando el plan esté terminado, se elevará el espectro radioeléctrico de los


170 Mhz actuales a 380 Mhz, nivel que solo es superado en la región por
Brasil y Colombia, con 574 y 412 Mhz, respectivamente.

¿Qué equipos serán compatibles?

Así como años atrás la pregunta obligada era "¿tiene 3G?", hoy lo mismo
sucede, aunque con plazos y respuestas distintas.

La mayoría de los smartphones de alta gama que se ofrecen en la actualidad


poseen 4G, algo que continuará siendo inútil si no se lo emplea fuera de la
Argentina en una red compatible.

¿Cómo saber si es compatible? El dispositivo debe decir claramente que


funciona en LTE Banda 4 o LTE Banda 17. Esto es, en las frecuencias 1.700
y 2.100 Mhz y en la de 700 Mhz respectivamente. Algunos de los modelos
que se venden en la Argentina, sin embargo, no son de la versión 4G.

Más allá de ello, es necesario tener en cuenta que el despliegue de la red 4G


tardará en realizarse. No solo por los tiempos de la licitación, sino también
por el que demande extender la nueva red, algo que seguramente sucederá
primero en las ciudades y zonas más pobladas de la Argentina.
Por ello, antes de comprar un nuevo equipo, lo mejor es esperar a que la red
esté operativa.

Norberto Berner, secretario de Comunicaciones, dio una idea para poder


entender que ofrecerá el 4G una vez implementado.
Señaló que la recepción de mails será instantánea, mientras que con la 3G
demora 2 segundos. La utilización de un MP3 demorará 1,8 segundo contra
los 24 segundos del 3G.
Para bajar videos de YouTube se tardará 7,4 segundos contra los 96 segundos
de la tecnología 3G, mientras que la 4G permitirá ver televisión HD, no
disponible con la 3G.

Para finalizar les quiero decir lo siguiente:

Para cuando la mayoría de todos los argentinos tenga 4G, en el otro lado del
mundo ya estarán usando el 5G quinta generación de tecnologías de
telefonía móvil, que por el momento se encuentra sin estandarizar y las
empresas de telecomunicación están desarrollando sus prototipos. Está
previsto que su uso común sea en 2020

http://www.laizquierdadiario.com/4G-Que-es-Para-que-sirve-Cuando-podremos-usarlo

Telefonía móvil 5G
Ir a la navegaciónIr a la búsqueda

Logo 5G

En telecomunicaciones, 5G son las siglas utilizadas para referirse a la quinta generación de


tecnologías de telefonía móvil.1Es la sucesora de la tecnología 4G. Actualmente está disponible
su primera versión estandarizada (Release 15 - Stand Alone) aunque las empresas de
telecomunicaciones continúan investigando nuevas tecnologías para posteriores versiones.
Aunque a 2019 se lanzaron las primeras redes comerciales, se prevé que su uso se extienda
exponencialmente desde 2020. 2345
La velocidad a la que permite navegar esta tecnología en dispositivos móviles es de hasta 1.2
gigabits por segundo. 

Desarrollo
La compañía sueca Ericsson fue la primera en alcanzar velocidades 5G, con demostraciones en
directo del estándar previo a la tecnología de red (preestándar) 5G. 678En noviembre de
2014, Huawei anunció la firma de un acuerdo con la operadora móvil rusa Megafon para
estandarizar y desarrollar redes 5G de prueba, en vistas a la Copa Mundial de Fútbol de 2018.9
En febrero de 2017, la Unión Internacional de Telecomunicaciones (UIT) dependiente de
Naciones Unidas reveló alguna de las especificaciones de la tecnología 5G. Entre ellas se
incluyen: velocidades mínimas de 20 Gbps de descarga y 10 Gbps de subida, y una latencia de
4 ms. Se pretende optimizar los dispositivos para hacerlo lo más eficiente posible para el Internet
de las cosas (IoT, por sus siglas en inglés)[2]. Está previsto que todo el mundo utilice esa
conectividad en 2025.

Proyectos e investigación

 El programa surcoreano “5Gmobile communication systems based on beam-divisionmultiple


access and relays with group cooperation” se formó en 2008. En Europa, Neelie Kroes, la
Comisaría Europea, recibió en 2013 50 millones de euros para las investigaciones con el
objetivo de entregar la tecnología móvil 5G en 2020. En particular, el Proyecto METIS 2020
fue impulsado por un fabricante de automóviles y varias empresas de telecomunicaciones, y
prevé llegar a un consenso mundial sobre el futuro sistema de comunicaciones móviles. A
raíz de esto, en 2013, otro proyecto se inició, llamado 5Green, ligado al proyecto METIS y
con objetivo de desarrollar redes verdes 5G Móviles. Aquí, el objetivo es desarrollar
directrices para la definición de la red de nueva generación con atención especial a aspectos
de eficiencia energética, sostenibilidad y accesibilidad.
 El miércoles 20 de diciembre de 2017, el 3rd Generation Partnership Program (3GPP)
aprobó, en Lisboa (Portugal), las especificaciones de Nueva Radio 5G No
Autónoma (NSA 5G NR, o Non-Standalone 5G New Radio). Se trata del primer estándar de
Quinta Generación (5G) de redes móviles aprobado oficialmente por el 3GPP [3].
 A principios de 2018 la compañía estadounidense Qualcomm publicó en su sitio web que la
telefonía móvil 5G estaría disponible durante el año 2019.
 Bruno Jacobfeuerborn, CTO de Deutsche Telekom, dijo: “Consideramos que tanto el modo
no autónomo como el independiente de la nueva radio son igualmente importantes para la
integridad de la especificación estándar 5G. Esta finalización oportuna de la NSA es un paso
importante en ese viaje y en el desarrollo del ecosistema 5G. Es crucial que la industria
ahora redoble su enfoque en el modo Standalone para lograr el progreso hacia un sistema
5G completo, podemos brindar innovaciones clave de 5G, como la segmentación de red a
nuestros clientes“.[4]
 El 20 de febrero de 2018 Vodafone y Huawei completaron en España la primera llamada de
móvil 5G del mundo.[5]
 En agosto de 2018, Samsung dio a conocer que tenía listo el Samsung Exynos Modem
5100, su primer módem 5G,compatible con las especificaciones finales de la 3GPP. Está
construido con tecnología de 10 nm y está preparado para las especificaciones 5G más
actuales, 5G-NR, y para versiones anteriores de radio (4G, 3G, 2G, GSMA, etc) [6].
 El 20 de noviembre de 2018 la compañía Nokia y T-Mobile anunciaron la primera transmisión
de datos 5G en la banda baja de 600 MHz, lo cual abre buenas perspectivas para esta
frecuencia con miras al año 2020.10

 En Chile se realizaron las primeras pruebas de la red 5G en noviembre de 2017 y mayo


de 2018, siendo la primera prueba efectuada por el operador Claro junto a la empresa de
telecomunicaciones finlandesa, Nokia, posteriormente, en mayo de 2018, el operador
nacional Entel junto a la empresa de telecomunicaciones sueca, Ericsson, realizaron la
segunda prueba en el país, alcanzando un récord de velocidad de transferencia de datos
en Sudamérica, de 24Gbps.11.
 El 20 de febrero de 2019 Samsung presentó su primer móvil 5G, el "Samsung Galaxy S10
5G" [7]

 El 24 de febrero de 2019, Huawei presentó su primer móvil 5G, el Huawei Mate X. [8]

 El 25 de febrero de 2019 en el Mobile World Congress de Barcelona, España, la


subsecretaria de la Subtel, Pamela Gidi, de Chile, anunció que para marzo de 2019 se
lanzaría la licitación a las operadoras nacionales para el desarrollo de la Red 5G. 12. Se haría
disponible 60Mhz de espectro a nivel nacional entre las bandas 700 MHz y 3,5 GHz. 13.
 El 9 de abril de 2019 en Uruguay la telefónica estatal ANTEL, con el soporte de Nokia,
completó con éxito la instalación de la primera red comercial 5G en Latinoamérica y la
tercera en el mundo después de Estados Unidos y Corea del Sur.14
 En Junio de 2019, Vodafone España empezó a dar 5G en las principales ciudades
de España.

https://es.wikipedia.org/wiki/Telefon%C3%ADa_m%C3%B3vil_5G

tecnología 5G?

Qué es el 5G y
qué diferencias
tiene con el 4G
Llevamos años oyendo hablar de él, tanto por la revolución
tecnológica que supone como por los típicos miedos que
despierta entre quienes no lo entienden. Pero después de varios
años en los que parecía que no iba a llegar parece que
definitivamente el 5G empezará a dar sus primeros pasos
en 2019, y tanto las operadoras como los fabricantes de
móviles (Samsung, Huawei, Xiaomi o LG entre otros) están
haciendo sus primeros anuncios relacionados con su
implantación.
Pero todavía hay quien no termina de entender qué es todo esto
del 5G, ni siquiera algunos presidentes de grandes potencias,
por lo que vamos a explicarte qué es exactamente el 5G, qué
promesas trae la industria con este nuevo estándar, y qué
diferencias tiene con la actual red 4G LTE.

Qué es el 5G
El 5G es la quinta generación de las tecnologías y estándares de
comunicación inalámbrica, el Internet que utilizan dispositivos
como tu teléfono móvil para permitirte conectarte a la red en
cualquier sitio. Por lo tanto, no tienes que pensar en este
término como algo nuevo, ya que no deja de ser un desarrollo o
evolución del actual 4G/LTE.
La idea detrás de este desarrollo es la de permitirte llamar por
teléfono, escribir como hasta ahora, y sobre todo, navegar por
Internet a una velocidad muchísimo más alta que la
actual, todo ello mientras se permite que más dispositivos se
estén conectando al mismo tiempo. ¿Te acuerdas de cómo la
velocidad que tenías hace unos años en el WiFi de tu casa era
muchísimo más lenta que la de ahora? Pues esto es algo
parecido, pero con las conexiones móviles.
De hecho, ya que estás haciendo uso de tu memoria, quizá
todavía te des cuenta de lo mucho que mejoró tu conexión
cuando empezaste a cambiar la conectividad 3G del móvil para
aprovechar el 4G, pasaste a poder navegar a velocidades mucho
más potentes que te permiten ver sin problemas las webs
actuales, pues este es un nuevo salto evolutivo.
Esta quinta generación de comunicaciones inalámbricas es la
que va a intentar que ver una web en el móvil sea como abrir
cualquier otro archivo, con una velocidad tan rápida que
deberíamos poder cargar vídeos en Ultra HD o modelos en 3D
casi sin pestañear. El estándar oficial ya ha sido aprobado, y
promete ser entre 10 y 20 veces más rápido que las actuales
conexiones móviles.
Verás que en esta explicación te estoy hablando siempre de
promesas, y eso es porque se trata de una red que todavía no ha
sido desplegada. El estándar existe, los primeros móviles en
soportarlo ya han sido presentado, y operadoras
como Vodafone ya han anunciado que empezarán a
desplegarlo. Pero actualmente todavía no lo puedes
utilizar, por lo que queda por ver si realmente se cumplen esas
predicciones de velocidades desde el principio o si tardan
todavía un poco en llegar.
De lo que estamos seguros es de que sobre el papel, el 5G es una
tecnología casi imprescindible para sobrevivir al cuello de
botella electromagnético que existe en las grandes
aglomeraciones urbanas hoy en día. Con cada vez más
dispositivos conectados, hace falta una mayor capacidad y
permitir que todavía más se puedan conectar para, por ejemplo,
soportar un ecosistema de coches inteligentes siempre
conectados o el cada vez más desarrollado Internet de las Cosas.

Qué diferencias tiene con el 4G

En esta tabla vas a ver las principales diferencias que hay entre
el 4G, el 4G+ o LTE, y el 5G. La velocidad del nuevo
estándar será muchísimo más rápido, por lo que podrás
descargarte contenidos casi sin darte cuenta. Estos son datos
teóricos, por lo que dependiendo de la operadora podrías ver
velocidades más bajas o más altas.
Si estuviste atento a nuestro seguimiento de la presentación de
Xiaomi en el MWC 2019, verás que en un momento
prometieron que su primer móvil 5G podría alcanzar picos de
velocidad de más de 2 gigas por segundo, lo que supondría
poder cargar o descargarte un vídeo de 15 segundos en Full HD
en sólo 1 segundo. Pero es que también se habla de que los picos
finales de la tecnología podrían ser de hasta 20 Gbps (gigas por
segundo).
Pero más importante todavía es la disminución de la
latencia. La latencia es el tiempo que tarda en transferirse un
paquete de datos dentro de la red, el tiempo que dura en llegar
una acción desde que la realizas hasta que se consuma.
Actualmente existen latencias ya de por sí reducidísimas, pero
el 5G promete bajarlas a entre 1 y 2 milisegundos.
Esto quiere decir que las interacciones con Internet o la
nube serán casi instantáneas. Sumado a las velocidades de
descarga, esto hará que si pulsas en una foto que tienes en la
nube tardaría lo mismo en abrirse en el móvil que si la tuvieras
ya dentro de su memoria. Una experiencia instantánea de
interacción que podría revolucionar también las aplicaciones
móviles.
En cualquier caso, y como hemos dicho antes, el 5G todavía no
ha sido implementado. Esto quiere decir que podemos teorizar
u opinar sobre qué beneficios puede traer, pero que no lo
sabremos definitivamente hasta que no se implemente
definitivamente y empiece a explotarse. De momento ya hemos
visto demostraciones como cirugías teleasistidas en tiempo real,
en la que el cirujano realiza las intervenciones a kilómetros de
distancia.
Un buen resumen de lo que supone el salto del 4G al 5G nos lo
dió hace unos meses el fabricante de chips Qualcomm. Para
ellos, el 4G sirvió para conectar personas entre ellas, y el 5G es
un nuevo salto que permitirá "conectar personas con todo
lo que nos rodea", impulsando ya no sólo las
comunicaciones, sino otros sectores como la automoción, la
medicina, la salud o los hogares.
https://www.xataka.com/basics/que-

5g-que-diferencias-tiene-4g

Tecnologias utilizadas en la 4G para poder incrementar la


eficiencia espectral

Sistemas de comunicaciones IMT-


Advanced o 4G y LTE-Advanced

La ITU (Unión Internacional de Telecomunicaciones) estableció


en 2008 los requisitos oficiales para el nuevo estándar IMT-
Advanced (International Mobile Telecommunications-
Advanced) o 4G. Entre ellos se incluyen, por ejemplo, el del
funcionamiento con canales de radio de más de 40 MHz, así
como una eficiencia espectral extremadamente alta.

En concreto, la ITU recomienda picos de eficiencia espectral


de 15 bits por hercio en enlace descendente y de 6.75 en el
ascendente, con una tasa teórica máxima de 1 Gbps en
movilidad de baja velocidad (usuario quieto o a pie) y de 100
Mbps en movilidad de alta velocidad (usuario en vehículo).
Dado que ninguna tecnología actual cumple estos
requisitos, serán necesarias nuevas tecnologías como LTE-
Advanced, que está siendo desarrollada por el 3GPP y es
considerada como la primera 4G. La nueva revisión de LTE será
compatible con los sistemas anteriores, ofreciendo altas
capacidades de transmisión con anchos de banda de más de 100
MHz, obtenidos mediante agregación de canales de 20 MHz,
tecnologías de antenas múltiples basadas en MIMO y
transmisiones coordinadas multipunto.
Más allá de las nuevas capacidades de transmisión, LTE-
Advanced permitirá alcanzar nuevas cotas de eficiencia
espectral, llegando a picos de 30 bits por hercio en canales
de 40 MHz, con velocidades máximas teóricas de 1
Gbps en sentido descendente y de 500 Mbps en sentido
ascendente.
A continuación os pongo un pequeño esquema-resumen con las
cifras más importantes que muestran la evolución de los
sistemas 2G a los futuros 4G:

Impacto de la tecnologia para 4g y 5g para lo bueno


autónomo

La tecnología siempre ha alimentado el crecimiento económico,


mejorado las condiciones de vida y abierto vías a nuevos y mejores
tipos de trabajo. Los recientes avances en inteligencia artificial y
aprendizaje automático, que nos trajeron a Watsony los coches sin
conductor, marcan el inicio de un cambio radical en el mundo, tal y
como lo conocemos. Para navegar por el inestable mercado laboral
y aprovechar las abundantes oportunidades ofrecidas por las nuevas
tecnologías, debemos encontrar una forma de adaptarnos más
rápidamente. Mediante la actualización continua de nuestras
habilidades y buscando unos acuerdos laborales alternativos,
podemos «correr con las máquinas». Nos guste o no, el cambio está
llegando, y el peor movimiento de todos consistiría en ignorarlo.
INTRODUCCIÓN

Los recientes avances en inteligencia artificial y aprendizaje automático, que nos


trajeron a Watson y los coches sin conductor, marcan el inicio de un cambio radical en
el mundo, tal y como lo conocemos. Pero las grandes innovaciones, ampliamente
utilizadas, que mejoran con el tiempo, y tienen efectos colaterales que generan nuevas
innovaciones, han existido desde los inicios de la historia, remontándose a las primeras
herramientas de metal, la rueda y la invención de la escritura. Estas innovaciones son
lo que se conoce como tecnologías de uso general (general purpose technologies o
GPT)1, que han cambiado el curso de la historia. Las GPT «interrumpen y aceleran la
marcha normal del progreso económico».2 En otras palabras, hacen que las personas
sean más productivas y mejoran las condiciones de vida. También ayudan a abrir
caminos a nuevos tipos de trabajo.

Erik Brynjolfsson y Andrew McAfee dividen sucintamente el progreso histórico en


dos «eras» de las máquinas.3 La primera era de las máquinas se remonta a la invención
de la máquina de vapor por James Watt en 1775. Este hecho trajo consigo una
explosión de innovación y a una mejora tal de las condiciones de vida, que el
estadounidense medio actual disfruta de una calidad de vida inimaginable siquiera para
los nobles más ricos de aquella época. La «segunda era de las máquinas» empezó en la
década de 1990, y se caracteriza por tres factores: (1) aumentos exponenciales en la
potencia informática, lo que se conoce como la ley de Moore; (2) la agilidad y el poder
de las tecnologías digitales (incluida su capacidad de replicar ideas y productos a coste
cero o muy bajo); y (3) nuestra capacidad creativa para aprovechar ideas como si
fueran ladrillos para generar innovaciones (lo que recibe el nombre de crecimiento
recombinante).4

Lo que resulta más sorprendente es que la «ley de Moore», que ha provocado tantos
cambios en el progreso tecnológico, ha resistido asombrosamente bien a lo largo de los
años. En 1965, Gordon Moore, entonces director de investigación y desarrollo (I+D)
en Fairchild Semiconductor, predijo que la potencia global de procesamiento de los
ordenadores (o el número de transistores en un circuito integrado) se doblaría cada
año. Esta predicción se conoció con el nombre de ley de Moore (Moore revisó su
predicción en 1975 y dijo que eso sucedería cada dos años. Más adelante se convirtió
en el director ejecutivo de Intel). Aunque Moore hizo, originalmente, su predicción
para un período de diez años, los incrementos exponenciales en computación se han
seguido produciendo hasta la actualidad. Además, William Nordhaus ha remontado la
Ley de Moore a las primeras máquinas calculadoras de alrededor de la década de
1850.5 El crecimiento exponencial de la potencia informática hace parecer que las
nuevas tecnologías surgiesen de la nada; sin embargo, han estado ahí (aunque también
eran muy caras y raras) desde hace bastante tiempo. En el pasado, solo los ricos podían
beneficiarse de las últimas innovaciones.

Una forma sencilla de preveer el futuro consiste en ver qué es lo


que tiene la gente rica de hoy.

Brynjolfsson y McAfee, ilustran esta extraordinaria velocidad de progreso comparando


las tecnologías disponibles en 1996 y en 2006: en 1996, el ASCI Red era el
superordenador más rápido. Su desarrollo costó 55 millones de dólares, y ocupaba un
espacio equivalente al 80 por ciento de una pista de tenis en los Sandia National
Laboratories, en Nuevo México. Necesitó de tanta electricidad como la necesaria para
abastecer a 800 hogares. En 1997, alcanzó los 1,8 teraflops. En 2006, diez años
después de la presentación del ASCI Red, la videoconsola Sony Playstation 3 alcanzó
los 1,8 teraflops. Costaba solo 500 dólares, requirió de menos de un décimo de metro
cuadrado y consumía tanta energía como una bombilla.6 McAfee y Brynjolfsson
aportan otro ejemplo con la rápida adopción de los teléfonos inteligentes
(smartphones): «En 2015, solo ocho años después de la aparición del iPhone, más del
40 por ciento de los adultos de 21 países emergentes y en desarrollo encuestados por el
Pew Research Center informaron de que tenían un teléfono inteligente. En 2016, se
vendieron aproximadamente 1.500 millones más».7

A modo de disquisición teórica, pensemos en la potencia informática que tendremos


en las manos en veinte años si la ley de Moore no pierde su vigencia (y no tenemos
razón alguna para pensar lo contrario, dada su larga trayectoria). Supongamos que los
costes informáticos se reducen a la mitad cada 18 meses. Entonces, mil dólares de
potencia informática actual (aproximadamente el precio de un iPhone 8 Plus libre con
256 GB de memoria en 2017) costarían menos de diez centavos de dólar en 2037 (si
eso puede parecer sorprendente, podemos preguntarnos cuánto pagaríamos por un
teléfono móvil de hace veinte años). Si asumimos que los consumidores de dentro de
veinte años estarían dispuestos a pagar mil dólares por cualquier teléfono inteligente
que hubiera en el mercado entonces, ¿cuál sería el coste de esas tecnologías si
pudiéramos obtenerlas en la actualidad?: algo más de diez millones de
dólares.9 Imagina que pudieras tener un teléfono inteligente con diez millones de
dólares de potencia informática. Esa es una somera aproximación de lo que todos
tendremos en las manos en unas dos décadas. En otras palabras, como dice Hal Varian,
economista Jefe de Google: «Una forma sencilla de prever el futuro consiste en ver
qué es lo que tienen hoy los ricos».10

TECNOLOGÍA Y EMPLEO

El estadounidense medio actual dispone de mejores cuidados médicos, mejor acceso a


la información y mejores formas de comunicarse y viajar que la gente más rica del
mundo en un pasado no tan lejano. Hemos experimentado una mejora espectacular de
las condiciones de vida, cuyo «factor determinante más importante […] en todos los
países y a lo largo del tiempo» es la productividad laboral.11 La productividad,
equivalente a la producción dividida entre los recursos utilizados (como el capital, el
empleo, la energía, los materiales y los servicios) aumenta cuando desplegamos la
tecnología.12 El Consejo de Asesores Económicos (Council of Economic Advisors)
aporta un ejemplo de las mejoras increíbles en la productividad agrícola a lo largo de
las dos últimas décadas: «En 1830, a un agricultor le llevaba 250-300 horas producir
100 bushels (2.700 kilos) de trigo. En 1890, con maquinaria tirada por caballos,
tardaba solo 40-50 horas producir esa misma cantidad. Hacia 1975, con los grandes
tractores y cosechadoras, un agricultor podía producir esos 2.700 kilos de trigo en solo
3-4 horas».13 Produciendo más con el mismo nivel de recursos, las máquinas agrícolas
redujeron los costes de producción. Como resultado, los alimentos se volvieron más
asequibles y se hizo más improbable que la gente muriese de hambre. Además, la
mayor productividad como consecuencia de la automatización del trabajo agrícola,
condujo a los trabajadores agrícolas a emigrar a las ciudades, donde ayudaron a que la
economía industrial se desarrollara y creciera. Se crearon nuevos bienes y servicios y
el consumo aumentó. La productividad creció todavía más a medida que la
automatización redujo los costes, haciendo que los transportes, los cuidados sanitarios,
la educación y el gobierno fueran más asequibles.14

En general, la tecnología ha incrementado el tamaño del “pastel del excedente


económico”, y ha redistribuido buena parte de él a los consumidores. Tengamos en
cuenta un ejemplo: cuando Amazon ofrece una entrega gratuita el mismo día o al día
siguiente, esa entrega no es realmente gratuita, ya que a Amazon le cuesta recursos
importantes conseguirlo. Los beneficios de las inversiones de Amazon en
automatización y mejoras en su cadena de suministro se reflejan en forma de una
combinación de precios más bajos, una mayor variedad y una entrega más rápida,
mientras la compañía compite para ganarse a los consumidores. Desde esta perspectiva
podemos comprender cómo es posible que William Nordhaus haya estimado que un 96
por ciento de los beneficios de la tecnología van a los consumidores y no a los
productores.15

Por muy maravillosos que hayan sido los beneficios de la tecnología, también se están
dando en un entorno de creciente desigualdad, una clase media decreciente y
dificultades a la hora de encontrar empleo. Desde la década de 1940 hasta la de 1970,
las rentas de todos los niveles crecieron a aproximadamente al mismo ritmo en Estados
Unidos. Sin embargo, desde entonces, los estadounidenses más ricos han observado
importantes aumentos en sus rentas y su participación en la riqueza, mientras que el
resto ha registrado alzas mucho más modestas. Y al tiempo que la clase media
estadounidense se ha reducido, una lamentable epidemia de dependencia a los
opiáceos ha asolado el país en regiones con un alto nivel de desempleo. 16

Por consiguiente, es importante que recordemos que la automatización no tiene un


efecto universal sobre el desempleo: una máquina puede ser un sustitutivo o
un complemento de la mano de obra humana.

Una máquina puede sustituir a la mano de obra humana cuando tiene la capacidad de
producir más que el trabajador por el mismo coste (como el de su salario), o tanto
como el trabajador por una fracción del precio. Esto tiene más posibilidades de ocurrir
cuando las tareas del trabajador son rutinarias y codificables: es decir, cuando las
instrucciones de las tareas pueden traducirse en forma de un código para que un
ordenador las lleve a cabo. Además, es mucho más probable que la automatización
pueda reemplazar a trabajadores en entornos controlados y simplificados. Aunque los
ordenadores pueden llevar a cabo los cálculos más complejos en milisegundos, es
mucho más difícil hacer que una maquina escriba novelas o cuide de los hijos de
forma tan eficaz como lo hacen los humanos.

https://www.bbvaopenmind.com/articulos/el-impacto-de-la-tecnologia-en-el-crecimiento-y-el-
empleo/

Resumen
Los disruptivos desarrollos de las tecnologías de las comunicaciones electrónicas e Internet son
determinantes en el ámbito de la ciberseguridad, en general, pero lo son mucho más en relación
a las capacidades técnicas con las que cuentan las autoridades para llevar a cabo la
interceptación legal de las comunicaciones electrónicas.

La progresiva implantación de las plataformas de comunicaciones móviles 5G, la lenta migración


de Internet a direccionamiento IPv6, así como las futuras redes de acceso inalámbrico híbridas
(mesh networks) junto al masivo uso de cifrado robusto de comunicaciones electrónicas,
aplicaciones y terminales, entre otros, son ejemplos de cómo los cambios tecnológicos, además
de demandar soluciones robustas en el ámbito de la ciberseguridad pueden alterar
significativamente las investigaciones criminales y antiterroristas.

En este ARI se analizan las implicaciones de estas tecnologías en materia de ciberseguridad y


muy en particular los retos que plantean estos cambios tecnológicos para mantener las
capacidades de los instrumentos de vigilancia e intercepción de las comunicaciones electrónicas
utilizados por las fuerzas de seguridad en la actualidad y destinados a un uso muy selectivo bajo
el control judicial.

Análisis
Los cuerpos de seguridad operan en un entorno de creciente complejidad tecnológica y algunos
gobiernos evalúan con preocupación las implicaciones de estas tecnologías en relación a las
capacidades de interceptación legal de las comunicaciones, señalando la necesidad de revisar
los instrumentos legales en materia de interceptación. En la actualidad, el debate público se halla
particularmente polarizado sobre la conveniencia de regular o contrarrestar el uso del cifrado
mediante la adopción de alternativas técnicas y operativas que permitan a las autoridades el
acceso a las comunicaciones y dispositivos en el curso de las investigaciones, sin por ello
debilitar la protección a la privacidad y el secreto de las comunicaciones. En particular, los
mecanismos de cifrado de terminales y servicios en Internet son imprescindibles para la
protección de la privacidad de los usuarios y empresas, así como para asegurar la
confidencialidad de las comunicaciones en la Red, es decir, para sustentar la confianza de la
Sociedad de la Información. En Europa, las Autoridades Comunitarias mantienen la
recomendación de adoptar mecanismos de cifrado robustos establecidos entre los extremos de
la comunicación, así como desautorizan la adopción por las autoridades policiales y judiciales de
puertas traseras o llaves maestras de descifrado 1.

La delincuencia, el crimen organizado y las organizaciones terroristas utilizan las nuevas


tecnologías de comunicaciones electrónicas como instrumentos centrales en la preparación,
consecución y propaganda de los delitos, operando a una escala industrial globalizada y
careciendo de fronteras territoriales o jurisdiccionales. Grupos extremistas, organizaciones
criminales, organizaciones terroristas o pedófilos emplean las plataformas de comunicación en
línea o las redes sociales para comunicarse, promover sus actividades e intercambiar contenidos
ilícitos eludiendo la intervención de las autoridades mediante el uso de servicios de
comunicaciones cifradas o servicios almacenamiento en la nube (cloud) emplazados donde no
tienen jurisdicción los países en los que se comenten los delitos 2. Las pruebas electrónicas se
encuentran emplazadas en terceros países, almacenadas frecuentemente en infraestructuras de
información virtualizadas, utilizadas éstas por servicios Internet de uso común tales como
mensajería electrónica, correo electrónico y almacenamiento en cloud.

En el ámbito de las telecomunicaciones, las redes móviles 5G, la prolongada migración de


Internet a direccionamiento IPv6 o las próximas redes de acceso inalámbrico híbridas (mesh
networks) junto con la aplicación de técnicas que refuerzan el anonimato de los usuarios en la
red, plantean dificultades añadidas en materia de ciberseguridad y en la interceptación legal de
comunicaciones. En contrapartida, el uso de las nuevas tecnologías también refuerza las
capacidades operativas de los cuerpos de seguridad y autoridades judiciales en la prevención y
neutralización de actividades criminales y contribuye a la defensa de los derechos y libertades
individuales de los ciudadanos, pero les obliga a sostener un elevado ritmo de innovación
tecnológica en sus procedimientos de investigación.
Las redes de comunicaciones móviles 5G

La tecnología 5G es uno de los principales habilitadores tecnológicos de la Sociedad de la


Información. La conectividad inalámbrica entre dispositivos y sistemas autónomos (máquina a
máquina, M2M) desempeñará un rol esencial en la transformación industrial (Industria 4.0) y en
servicios basados en el despliegue de dispositivos conectados del Internet de las Cosas (IoT). La
tecnología 5G permite multiplicar 10 veces la disponibilidad de espectro (x10), la eficiencia
espectral (x10) y la densificación de la red de acceso (x10), lo que multiplica por mil (X1000) sus
mejoras técnicas respecto a las redes 4G/LTE. Conlleva la completa transformación de las redes
de telecomunicaciones, incluida la virtualización de las funciones de red (Network Function
Virtualization, NFV) y la centralización de las redes definidas por software (Software Define
Network. SDN)3. La infraestructura del operador de telecomunicaciones estará formada por
varios centros de procesado de datos próximos a las estaciones base 5G (clouds de acceso)
interconectados a un cloud central. Esta nueva arquitectura permitirá que cada cliente
corporativo del operador -por ejemplo, el propietario de una plataforma M2M de automoción-
gestione en tiempo real los recursos de telecomunicaciones que necesite para su plataforma
M2M mediante a la definición de unos elementos y capacidades de red virtualizados e
individualizados (“network slice”4) pertenecientes a la red del operador de telecomunicaciones y
adaptados en tiempo real a sus particulares necesidades técnicas.

Los servicios M2M requieren de una adaptación muy flexible, dinámica y eficiente de las
capacidades técnicas de conectividad ofrecidas por los operadores de comunicaciones
electrónicas para aplicar a los distintos sectores (automoción, sanidad, energía, smart grid, entre
otros). En este contexto, surge la necesidad de garantizar que determinados parámetros críticos,
por ejemplo, la latencia o la disponibilidad de servicio sean apropiados a las necesidades de
cada sector, pero la arquitectura de Internet no es adecuada para interconectar determinadas
aplicaciones M2M al no poder garantizar la calidad prefijada del servicio 5.

Por consiguiente, surge la necesidad de ofrecer una nueva tipología de servicios de conectividad
móvil de datos (“servicio gestionado”) que, además de incorporar la escala y resiliencia de
Internet, proporcione una calidad de servicio asegurada de extremo a extremo, gestionada y
particularizada ésta a cada clase de servicio y cliente en combinación con los apropiados niveles
de seguridad. Para garantizar la calidad de la conexión extremo a extremo los operadores
habrán de coordinar la gestión de recursos técnicos entre las distintas redes. Adicionalmente, los
clientes de los servicios M2M habrán de disponer de capacidades de gestión remota del servicio
de comunicaciones electrónicas mediante las application programming interfaces (API)
estandarizadas y segurizadas que permiten la conexión entre distintos módulos de software.

El actual estadio de la tecnología 5G presenta algunos retos para la seguridad y la privacidad de


las comunicaciones. Por un lado, no se ha conseguido todavía poner de acuerdo a los distintos
organismos de estandarización: European Standards Organization (ETSI), Internet Engineering
Task Force (IETF), Institute of Electrical and Electronics Engineers (IEEE) y Claud Security
Alliance (CSA), entre otros, para definir y estandarizar los protocolos 5G, a pesar del esfuerzo de
la industria y autoridades europeas para lograr el liderazgo mundial a través de iniciativas como
el “5G Action Plan” de la Comisión Europea.
En concreto, la seguridad de las plataformas 5G ha de tener en consideración los siguientes
elementos:

 Los riesgos vinculados a nuevos modelos de relación entre la plataforma tecnológica del
cliente y el servicio de red ofrecido por el operador 5G6, así como los relacionados con la
virtualización de la plataforma de red y servicios.

 La evolución en las amenazas de ciberseguridad focalizadas éstas hacia distintos entornos


de criticidad crecientes, en particular a los centros de datos del operador de
telecomunicaciones y los sistemas IoT de los operadores de infraestructuras críticas.

 La exigencia de ciudadanos, corporaciones y reguladores en preservar la privacidad y


confidencialidad de los datos y metadatos de las comunicaciones en un contexto donde la
explotación comercial de la información (Big Data) junto al empleo de inteligencia artificial en
el nuevo modelo de producción (Industria 4.0) adquieren una importancia central.

En el ámbito de la ciberseguridad  aparecen nuevos factores a tener en cuenta en la gestión del


riesgo tales como la muy diversa tipología y criticidad de las aplicaciones M2M (domótica,
servicios y dispositivos sanitarios, conducción autónoma, infraestructuras críticas, etc.); el gran
número de dispositivos IoT junto a la dificultad de realizar actualizaciones, las limitaciones en el
uso de cifrado en los dispositivos alimentados por baterías debido al mayor consumo de energía
(entre 10 y 100 veces superior); la apertura al cliente de funciones de gestión y supervisión de la
red del operador de telecomunicaciones con la consiguiente necesidad de blindaje lógico entre
los distintos network slices o la concentración de funciones y recursos de la red virtualizados en
unos pocos centros de datos (cloud) del operador.

En el ámbito de la interceptación legal de las comunicaciones existe una estrecha relación entre
las nuevas características de las redes 5G, las soluciones de ciberseguridad establecidas y las
capacidades de interceptación de las comunicaciones. De este modo, las plataformas 5G habrán
de ofrecer medios técnicos que permitan mantener las actuales capacidades de interceptación
de las comunicaciones, considerando nuevos factores tales como, por ejemplo, la masiva
transferencia de datos entre plataformas M2M a través de las redes inalámbricas, el significativo
aumento en el número de estaciones radio 5G o la arquitectura de red virtualizada.

Por ambos motivos, es necesario redefinir y estandarizar los mecanismos de seguridad


establecidos extremo a extremo a todos los niveles de la arquitectura de comunicaciones
(terminales, red de acceso móvil, núcleo de red, plano de control, etc.) y evaluar la adecuación
de los actuales mecanismos de seguridad implantados en las redes 4G. En esta línea, ENISA ha
publicado las directrices “Threat Landscape and Good Practice Guide for Software Defined
Networks/5G” que establecen una taxonomía de amenazas, recomendaciones y buenas
prácticas en torno a la virtualización y el acceso inalámbrico (RAN) a las estaciones base de las
plataformas 5G7. Los mecanismos de seguridad en actual desarrollo para las redes 5G se
centran en las siguientes funciones:
 El aislamiento de los recursos virtualizados de cada network slice mediante cifrado robusto,
la adopción de políticas de seguridad del slice particularizadas cliente a cliente y por clases
de servicio, junto a certificaciones de seguridad específicas;

 La gestión segura de identidades de los agentes que interactúan en la plataforma 5G


(dispositivos IoT, terminales, usuarios, operadores interconectados a la red, personal
técnico, entre otros);

 Una monitorización y gestión de la seguridad del plano de control (SDN) y del plano de
conectividad (NFV) diferenciada;

 La escalabilidad y flexibilidad de las arquitecturas de seguridad, adaptadas éstas a la


evolución de las amenazas;

 La seguridad del segmento de acceso radioeléctrico (ej. estaciones base) frente a ataques
de denegación de servicio realizados desde terminales manipulados o la inyección de tráfico
malicioso en el plano de usuario.

Adicionalmente, la seguridad, privacidad y resiliencia de las plataformas móviles 5G excede


aspectos de orden tecnológico siendo preciso tener en cuenta exigencias legales establecidas
por los distintos sectores verticales (banca, sanidad, seguridad vial, operadores de
infraestructuras críticas, etc.) junto a la evolución de la regulación sectorial de
telecomunicaciones (Digital Single Market), de la privacidad (GDPR y e-Privacy) o neutralidad de
red, entre otras.

Por último, cabe destacar consideraciones en el ámbito la seguridad nacional y económica que
trascienden los aspectos tecnológicos. En este sentido, la disruptiva transformación de las
actuales redes y servicios podría incrementar la dependencia tecnológica de operadores y
países de unos pocos suministradores. La vasta renovación tecnológica obligará a los
operadores de comunicaciones electrónicas a rentabilizar las importantes inversiones realizadas
en espectro e infraestructura, exigencia que puede alterar la dinámica competitiva al conducir al
sector de las telecomunicaciones a una concentración oligopólica del mercado. En este contexto,
una posible separación estructural entre las infraestructuras de red y los servicios de
comunicaciones, la fuerte competencia entre los operadores de telecomunicaciones y
proveedores de aplicaciones de Internet en ofrecer servicios en Internet, así como la intervención
de los estados en este proceso de transformación o la creciente dependencia tecnológica en
terceras regiones geopolíticas serán aspectos determinantes a tener en cuenta en el marco de la
seguridad de las redes y servicios 5G.

En el ámbito de la interceptación de las comunicaciones cabe reiterar el importante papel que


han de desempeñar los organismos de estandarización en la definición de las apropiadas
capacidades que faciliten la interceptación de las comunicaciones del conjunto de servicios y la
escala que ofrecerá esta nueva tecnología, así como afrontar nuevos escenarios tecnológicos
que pueden dificultar el curso de las investigaciones policiales. Por ejemplo, la tecnología 5G
permitirá simultanear distintos medios de acceso a la red (en lugar de solo medio por conexión
como hasta ahora) o encaminar la transferencia de datos a través de redes privadas, evitando el
tránsito a través de redes de comunicaciones móviles públicas. La multiplicidad de
identificadores asignados por la red 5G a una conexión de usuario y terminal dados agrava las
dificultades que ya experimentan las investigaciones actuales por la conmutación automática de
los terminales móviles entre redes wifi y 4G.

La migración de Internet a direccionamiento IPv6

Conocer la dirección IP de una comunicación en Internet es imprescindible en el curso de las


investigaciones e interceptaciones de las comunicaciones, ya que proporciona información de la
comunicación (metadatos) y el acceso al tráfico intercambiado entre el usuario e Internet, es
decir, al contenido de la comunicación.

El direccionamiento IPv6 soluciona la actual escasez de direcciones IPv4 en las redes públicas,
una vez hayan migrado la práctica totalidad de usuarios de Internet, haciendo innecesaria la
reasignación de direcciones IP públicas. El actual esquema de direccionamiento público (IPv4)
utiliza 32 bits, es decir, tiene capacidad para establecer 4.3 mil millones de conexiones en
Internet. El enorme aumento de dispositivos conectados a Internet ha superado con creces el
número de direcciones IPv4 disponibles, esta escasez de direcciones hubiera hecho insostenible
el crecimiento del Internet de las cosas (IoT). 

Para suplir temporalmente esta limitación, los operadores de red utilizan técnicas que permiten la
reutilización y compartición de una misma dirección IP pública al tiempo que el IETF, el consorcio
de colaboración técnica más importante en Internet, procedió en 1998 a ampliar el campo de
direcciones IP a 128 bits (IPv6) siendo posible establecer un número prácticamente ilimitado de
conexiones simultáneas en Internet (2128 o 340 sextillones de direcciones). El uso de direcciones
IPv6 públicas se extendió a los proveedores de servicio de Internet (redes sociales, comercio
electrónico, buscadores, entre otros). 

Habida cuenta de la necesidad de adaptar las redes y dispositivos al nuevo direccionamiento, los
operadores y fabricantes de terminales han establecido mecanismos técnicos para que resulte
prácticamente transparente al usuario la transición de IPv4 a IPv6 (mientras dura la transición,
las redes y terminales han de tener la capacidad de procesar tráfico direccionado con ambas
versiones o dual stack). Desafortunadamente, la lentitud, costes e incompatibilidades de esta
migración plantean dudas acerca de la finalización de la transición iniciada hacia 2011,
existiendo la posibilidad de que se prolongue a largo plazo el uso de doble direccionamiento en
Internet. Se estima que a inicios de 2018 ha migrado menos del 25% del tráfico global de
Internet (Google señala que el uso mundial de IPv6 entre sus usuarios aumentó del 0,1%, en
enero de 2009, a más del 20% en diciembre de 2017), con una implantación muy irregular en
función de las geografías, siendo los operadores de telecomunicaciones e ISPs quienes lideran
el proceso8.

Desde el punto de vista de la ciberseguridad, la migración a IPv6 podría acentuar notablemente


la escala e impacto de los ataques de denegación de servicio en Internet (DDoS), dado que los
sistemas anti DDoS están dimensionados para hacer frente a tráficos IPv49. Desde la perspectiva
de la interceptación de las comunicaciones, la incorporación de IPv6 a Internet tiene varias
implicaciones. Los mecanismos de traducción entre direcciones IPv4 e IPv6 (Network Address
Translation, NAT) y las técnicas utilizadas para que un elevado número de usuarios de un
operador dado compartan una misma dirección IP pública dificultan notablemente la trazabilidad
de las comunicaciones, así como la interceptación de un usuario determinado. Por ello, en
febrero de 2018, Europol y el European Cybercrime Center solicitaron a los operadores de
telecomunicaciones que aceleraran la migración a IPv6, dado que el seguimiento individual de
las conexiones a través de los registros de los NAT es muy costoso y poco escalable.

En un futuro, es previsible que los operadores de telecomunicaciones empleen un


direccionamiento IPv6 estático, en lugar de una dirección IP debido al número prácticamente
ilimitado de direcciones, o semipermanente entre el usuario y la red (en la actualidad la
asignación de direcciones IPv4 es dinámica o temporal), facilitando de este modo la
identificación e interceptación del terminal del usuario y dispositivos IoT. No obstante, esta
ventaja se verá contrarrestada por la aplicación de mecanismos de autoasignación de
direcciones IPv6 privadas desde el terminal de usuario, modificando continuamente el valor de la
dirección IPv6 con el fin de proteger la privacidad de la conexión 10. Cabe asimismo señalar el
impacto que tiene para los operadores gestionar la complejidad e incremento de coste de
mantenimiento de los registros de los servidores de acceso a Internet 11 ocasionado por el
elevado número de direcciones IPv6 en uso, en particular si la asignación de direcciones viene
dada por proveedores de servicios de Internet externos al operador de acceso.

Desde esta misma perspectiva, es importante indicar que IPv6 facilitará la incorporación
generalizada de mecanismos de cifrado en la conexión a los proveedores de Internet sin la
intervención del usuario, aumentando significativamente el volumen de servicios de Internet
cifrados, y por lo tanto dificultando la interceptación de estas comunicaciones. Por último,
apuntar que un usuario podrá tener asignadas simultáneamente varias direcciones IPv6 públicas
a un mismo servicio de acceso a Internet (por ejemplo, una persona que se comunique a través
de una red social podría utilizar una dirección IPv6 pública distinta a la asignada para navegar
por Internet), dificultando esto su identificación e intercepción.

Las redes de acceso inalámbrico en malla (mesh networks)

El acceso inalámbrico a Internet a través de redes en malla 12 planteará nuevos retos para llevar a
cabo la identificación del terminal del usuario, del operador de acceso de telecomunicaciones o
para realizar el trazado de las conexiones, complicando la interceptación de estas
comunicaciones. Por una parte, la relación entre el contratante del punto de acceso al servicio de
Internet y el usuario queda desdibujada ya que varios usuarios podrán compartir uno o varios
puntos de acceso a Internet. Por otra, se desvanece la frontera entre la terminación de la red
pública de los operadores de acceso a Internet y las distintas redes privadas conectadas entre sí
en malla.

Adicionalmente, la escala que podrían alcanzar estas mallas, en las que la vinculación entre el
acceso a red y el usuario no es estática ni pre-establecida, añadido al cifrado de las conexiones
necesario para garantizar la confidencialidad de las distintas comunicaciones en la malla
dificultará la identificación e intercepción de las comunicaciones de un determinado usuario.
En este sentido, el diseño de los protocolos de comunicaciones que implementen las redes
malladas debería incorporar mecanismos que permitan la trazabilidad en tiempo real e
interceptación de las comunicaciones, así como facilitar la atribución de las responsabilidades
que adquieren los distintos usuarios en caso de que más de un operador de red ofrezca el
servicio de acceso a Internet en la red mallada.

Conclusiones
La evolución de las tecnologías de telecomunicaciones tiene distintas implicaciones en la
interceptación de las comunicaciones electrónicas. Para afrontar las crecientes dificultades que
experimentan las autoridades de seguridad y judiciales, es de gran relevancia mantener las
actuales capacidades de interceptación desde las primeras etapas de la definición y
estandarización técnica de protocolos y redes de comunicaciones, maximizando su seguridad
por diseño.

En respuesta a los retos suscitados, gobiernos y legisladores estudian cambios del marco legal
que permitan revertir las crecientes dificultades que experimentan las fuerzas de seguridad y
autoridades judiciales en el curso de la interceptación de las comunicaciones e investigaciones,
analizando entre otros puntos:

 La incorporación de instrumentos de vigilancia e intercepción alternativos más intrusivos


destinados a un uso muy selectivo bajo el control judicial (puertas traseras, distintas técnicas
de descifrado, infiltración en los terminales, entre otros) u otras técnicas de investigación
alternativas para el acceso a comunicaciones cifradas;

 La adecuación y márgenes que ofrece el marco legal a la monitorización generalizada de los


metadatos de las comunicaciones (bulk interception);

 El empleo por las agencias y fuerzas policiales de tecnologías de interceptación


anteriormente restringidas a determinadas agencias y cuerpos de seguridad, gracias a su
mayor operatividad, disponibilidad comercial y menor coste (ej. IMSI catchers portátiles);

 Establecer medidas de control para evitar que el crimen organizado y el terrorismo se


beneficie de la comercialización y uso de los más recientes avances en las tecnologías de
comunicaciones e interceptación.

Asimismo, la adaptación de los instrumentos jurídicos para la interceptación ha de tener en


consideración otros ámbitos no tecnológicos, entre ellos, los aspectos jurisdiccionales de
Internet, el rol, obligaciones y la seguridad jurídica de los operadores de telecomunicaciones y
proveedores de internet o los mecanismos de control judicial para la protección de los derechos
fundamentales.

Javier Alonso Lecuit


Miembro Grupo de Trabajo sobre Ciberpolítica del Real Instituto Elcano
1
 “Statement of the WP29 on encryption and their impact on the protection of individuals with
regard to the processing of their personal data in the EU”, Bruselas, 11 abril 2018, p. 2.

 Más de la mitad de las investigaciones penales incluyen hoy en día una solicitud transfronteriza
2

para obtener pruebas electrónicas que obran en poder de prestadores de servicios establecidos
en otro Estado miembro o fuera de la UE. “Security Union: Commission facilitates access to
electronic evidence”, Nota de prensa, Bruselas, 17 abril 2018.

3
 Sustitución del actual equipamiento de propósito específico interconectado físicamente
(routers, catchers, servidores de acceso, DPIs, etc.) por agrupaciones de máquinas virtuales de
propósito general que repliquen a nivel lógico y funcional la actual red del operador.

 “Network slicing”, “rebanado” o “segmentación” es una tecnología que permite a los operadores
4

de redes móviles 5G gestionar y operar múltiples redes virtualizadas sobre una misma
infraestructura de red común, donde los recursos de la red física son adaptados a cada tipo de
uso o de cliente. Esta “segmentación” hace posible una partición virtual de la red de acceso por
radio (RAN), de los componentes de la red de conmutación y de agregación, así como de los
centros de datos, donde se alojan los contenidos y las aplicaciones. Cada slice se conforma
según los distintos tipos de uso y cliente, quienes establecen el desempeño demandado de la
red caso a caso, en base a parámetros tales como la capacidad de transferencia, latencia,
seguridad, confiabilidad o cobertura geográfica, entre otros.

 Por este motivo, las aplicaciones de Internet son diseñadas para maximizar la experiencia del
5

usuario contando con la mejor calidad proporcionada por Internet en cada instante (best effort),
calidad de servicio que es indiferenciada a las aplicaciones (sean correo electrónico, red social,
video streaming, juegos en red, etc.). Así, el ancho de banda y latencia que ofrece la Red
responde a los recursos disponibles en cada instante junto al grado de utilización carga) entre la
red del operador de acceso a Internet y los restantes segmentos de la conexión entre el usuario
y el proveedor de Internet, segmentos éstos que escapan a la gestión técnica del operador de
acceso a Internet (ISP).

 El cliente corporativo de plataformas M2M y terceros agentes que intervengan su cadena de
6

provisión tendrán acceso a las capacidades del network slice de red asignado al cliente,
pudiendo instalar y gestionar aplicaciones de su servicio M2M en la red del operador.

 En EE.UU. el regulador de telecomunicaciones (FCC) ha emitido unas recomendaciones sobre


7

ciberseguridad en redes 5G orientadas a la industria IoT.

 “IPv6 deployment on the global Internet”, The Internet Society.


8

9
 En febrero de 2018 se registró el primer ataque DDoS originado desde  direcciones nativas
IPv6 hacia servidores DNS, “First true native IPv6 DDoS attack spotted in wild”, 28 febrero 2018.

 IBM RFC 4941, “IPv6 privacy extensions e IPv6 Privacy Addresses Provide Protection Against
10

Surveillance And Tracking”.


 La legislación sobre retención de datos exige a los proveedores de acceso a Internet que
11

mantengan los registros que vinculan las direcciones IP asignadas a los clientes para cada
sesión con el fin de que esta información esté disponible para las agencias de seguridad durante
el periodo de retención máximo y condiciones de acceso a los metadatos establecidos por ley.

 Una red en malla se caracteriza por contar con una topología en la que cada nodo se haya
12

conectado a todos los restantes nodos. Así, por ejemplo, el enrutador de un usuario puede
formar parte de la misma malla que sus vecinos, cuyos nodos se configuran automáticamente
estableciendo, por ejemplo, la ruta de salida a internet a través del acceso al operador que
resulte en cada instante óptima y los dispositivos reciban un nivel de señal wifi óptimo, con
independencia de su ubicación o de su punto de acceso a Internet. De esta manera, en
circunstancias adversas el usuario accederá de forma automática a Internet a través de la
conexión de su vecino. Las redes en malla de uso personal son cada vez más frecuentes entre
teléfonos inteligentes, relojes y otros dispositivos; sin embargo, las redes malladas wifi para el
acceso a Internet se encuentran en fase de desarrollo.

http://www.realinstitutoelcano.org/wps/portal/rielcano_es/contenido?WCM_GLOBAL_CONTEXT=/
elcano/elcano_es/zonas_es/ari74-2018-alonsolecuit-impacto-nuevas-tecnologias-interceptacion-
telecomunicaciones

También podría gustarte