Evolución Del Disco Duro
Evolución Del Disco Duro
Evolución Del Disco Duro
duros-hamr-20-tb/
duros-a0069a66-66a8-4d2d-8d14-2deb7ccc7704
Evolucion Memoria Ram
2000, Sony y Toshiba lanzan la eDRAM
Sony y Toshiba se aliaron para producir una memoria RAM integrada en la misma die del
MCM. El coste por bit era mucho mayor que los chips DRAM, pero ofrecía grandes
más anchos y unas operaciones con más velocidad. Sin embargo, los costes de producción
eran elevados porque requerían más fases de producción que una simple DRAM. Este tipo de
memoria tuvo un objetivo claro: las videoconsolas. La vimos en la PS2, Xbox 360, PSP,
GameCube, Wii e, incluso, en el iPhone. También, fue usada en procesador Intel e IBM.Su
ciclo de vida parte del 2000 hasta el 2005. Inicialmente, se comercializaba en 32 MB, pero
Aunque fue diseñada y creada en 2001, Samsung no la comercializó hasta 2003, momento en
desarrollo. El DDR2 era una memoria SDRAM que venía en módulos DIMM cuya evolución
tenía que ver con la frecuencia y el voltaje: menos energía y una velocidad más alta. Se
introdujo al mercado en el segundo trimestre de 2003 a 2 velocidades: 200 MHz y 266 MHz.
Inicialmente, eran peores que las DDR porque tenían más latencia. Las primeras memorias
fueron fabricadas por Samsung, Hynix y Elpida. En 2003, vimos memorias DDR2 de hasta 1
GB de capacidad.
Por tanto, demostraba ser una tecnología algo verde para aquel momento, pero todo
cambiaría con el paso de los años. En 2004, Samsung sacaría al mercado una memoria DDR2
de 2 GB de capacidad por módulo, lo que encaminaba una era donde este componente tendría
un gran impacto.
Para terminar, decir que la DDR2 ofrecía un voltaje de 1.8V, lo que era una gran mejora,
● 400 Mhz.
● 533 MHz.
● 666 MHz.
● 800 MHz.
● 1066 MHz.
2007, Samsung comercializa el DDR3
hogares hasta 2007. La capacidad de estas memorias partiría de los 512 MB. Aunque muchos
no lo sepan, Samsung es uno de los «héroes anónimos» de la historia gaming en PC. Lanzaría
la memoria RAM DDR3 la cual sustituye a DDR2 mejorando en todos los aspectos.
Conforme se iban sucediendo las distintas SDRAM, la latencia aumentaba al mismo ritmo
que las frecuencias. La RAM DDR3 trajo una evolución importantísima: módulos de 4 GB, 8
Los principales fabricantes de esta memoria fueron Hynix y Samsung, manufacturando este
tipo hasta 2011. Este año fue clave para los ordenadores personales: salió Windows Vista con
versión 64 bits y los primeros Core 2 Quad de Intel. De este modo, los desarrolladores de
● Frecuencias: desde 1066 MHz hasta 2133 MHz en escritorio. Se llegaron a ver
2014. De hecho, Samsung lanza un módulo de 2 GB DDR4 con una frecuencia de 2.133
MHz para testarlo. Los avances que trajo este tipo de memoria hablan por sí solos: Los
primeros procesadores que aprovecharon y soportaron esta memoria fueron los Intel Haswell-
EP, es decir, Intel Xeon e i7 Extreme Edition que usaban el socket LGA 2011-v3. En AMD,
habría que esperar hasta los Ryzen en 2017 para ver su socket AM4, el cual soporta dicha
memoria RAM.
Esta memoria supuso una auténtica revolución en aquel momento, aunque tuviese un precio
prohibitivo. Hasta 2016-2017, era una memoria RAM que sólo se veía en servidores,
Sólo el i7 de escritorio compatible rondaba los 600€, a lo que había que añadir una placa base
LGA 2011-v3, que superaba fácilmente los 200€, y la memoria DDR4, que era carísima.
Cuando se empezaron a comercializar las DDR4 con mayor frecuencia (+3000 MHz), vimos
como la latencia aumentaba bastante, así como el precio. Para que os hagáis una idea, la
latencia mínima es de CL14 en 2133 MHz, cosa que se dispara cuando se sube de esa
frecuencia.Aún tenemos más latencia cuando subimos de 3.200 MHz, teniendo como mínimo
un CL16. Por no hablar de las frecuencias mayores a 3.866 MHz que llegan a CL19
frecuencias partirán desde los 3200 MHz. Según SK Hynix, la velocidad máxima de las
memorias DDR5 serán 8400 MHz. Este fabricante anunció que la capacidad por módulo será
En resumen, SK Hynix empezará a fabricar DDR5 en masa este año en colaboración con
Micron, mientras que Samsung lo hará en 2021. Por el momento, Samsung ya está fabricando
Como veis, la evolución del tamaño de las memorias ha sido espectacular. Empezamos con
bits y con memorias soldadas en la placa base, para luego acabar con 16 GB por módulo y
Tarjetas de video
Abril 11, 2000
Tarjetas de GeForce Mx
las tarjetas gráficas más vendidas de la historia. Con cuatro píxel pipelines capaz de
Nvidia fue usurpado en la corona de rendimiento por la ATI R300, la primera GPU
con DirectX 9. Con ocho píxel pipelines en una GPU 325 MHz y 256 MB de 620
Abril 5, 2004
Nvidia contraatacó con la GeForce 6800 Ultra, un producto que recuperó el título de
la tarjeta más rápida. Contaba con 16 pixel pipelines en una GPU de 400 MHz y 512
MB de memoria a 1100 MT / s. No sólo fue la tarjeta más rapida, sino que podrían
utilizarse 2 tarjetas en simultaneo con las nuevas tecnologias NVIDIA Scalable Link
3dfx
Junio 10, 2004
Nvidia lanzó la GeForce 7800 GTX con 24 pipelines de renderizado, una GPU de 430
tarjeta tuvo pocos problemas para tomar la corona de rendimiento, ya que no había
una fuerte competencia de ATI hasta noviembre de 2005 con la Radeon X1800 XT.
mucho más rápida 1,7 GT / s y un núcleo de 550 MHz para mantener la corona.
Enero 7, 2006
La Radeon X1900 XT fue equipada con 48 pixel shaders, un núcleo de 650 MHz, y
GTX un par de meses más tarde, y mantuvo la presión sobre ATI con una tarjeta que
AMD finalmente atrapó el título de nuevo con el rendimiento de la Radeon HD 3870 X2, la
primera tarjeta de doble GPU desde la Rage Fury MAXX. Con 640 procesadores de flujo
combinado, un GPU de 825 MHz , y dos bancos de 512 MB de memoria GDDR3 a 1,8 GT /
s, esta carta pasó junto a la GeForce 8800 Ultra a altas resoluciones. El reinado de la Radeon
HD 3870 X2 fue de corta duración, aunque, como Nvidia tenía su propia tarjeta de doble
Junio 1, 2008
Se trata de un chip basado en la misma arquitectura que las GeForce 8 y 9 pero con
mejoras muy significativas. El chip pasa de tener 128 procesadores stream a tener 240
Radeon HD 5970, la primera doble GPU Radeon equipado sin el X2 suffix. Este
monstruo alardeó 3200 procesadores de flujo total, un GPU de 725 MHz, y dos
Aunque Nvidia lanzó la impresionante GeForce GTX 480 unos meses más tarde, no
En marzo de 2011, tanto de AMD como Nvidia nos mostraron su ultra high-end dual-
GeForce GTX 590 cuenta con un total de 1.024 núcleos CUDA, un GPU de 607
MHz, un núcleo de 1215 MHz shader, y dos bancos de memoria RAM a 3412 MT / s.
Con las GTX 600 lanzadas en 2012, NVIDIA escribe otro capítulo para la historia con
Kepler, una arquitectura que fue utilizada bajo las GPUs «GK», que tenía un proceso de
28nm. La más potente fue la GTX 680, que utilizaba la GK104 con el doble de TMUs y el
El rendimiento aumentó entre un 10-30% dependiendo del juego, pero lo que se aumentó
de la historia, pero, ¡vaya refrito! Podríamos decir que fue una de las grandes familias de la
Dentro de la misma familia, vimos la GK110: la GTX Titan. Esta GPU aterrizaba en el
mundo de los superordenadores, ofreciendo 2880 CUDA cores y 240 TMUs. NVIDIA tiró la
casa por la ventana y la puso a la venta por unos $1000, un precio demasiado alto para la
época. Eso sí, la GK110 venía «capada» y no contaba con todos esos núcleos CUDA.
Abril 9, 2014
ADM
Para crear esta tarjeta, los de AMD han unido dos GPU AMD Radeon Serie 9 en un diseño de
una única tarjeta. La AMD Radeon R9 295X2 viene equipada con un sistema de refrigeración
Podemos decir que una de las arquitecturas más importantes de la historia de NVIDIA es
Pascal, la cual vino con chips que seguían un proceso de fabricación FinFet de 16nm.
Directamente, se mejoró la eficiencia y se subió la frecuencia, siendo la GTX 1060 una de las
mítica NVIDIA GeForce GTX 1080. Llegábamos a contar con 7.200 millones de transistores,
superaba con creces a la GTX 980. De hecho, fijaros si fue tan buena generación, que todavía
Con esta generación empezábamos a ver como algo normal que una GPU tuviese 8 GB de
memoria VRAM, incluso la GTX 1080 Ti vino con 11 GB GDDR5X. Mientras la gama
GeForce se vendía «como churros», NVIDIA lanzaba la GPU más potente de la historia (en
NVIDIA pasa de lanzar una nueva generación de tarjetas gráficas cada año, a tardar 2 años
en lanzar la siguiente. Todavía no sabíamos nada, pero los de Jensen Huang estaban
trabajando en una tecnología llamada Ray Tracing, la cual sería el plato fuerte de la siguiente
generación de GPUs.
apostado de forma oficial por la Inteligencia Artificial y el Deep Learning en GPUs. Muestra
Google Assistant.
Jensen Huang presenta la arquitectura Turing bajo el apodo del «Santo Grial» de la industria
de tarjetas gráficas. Si «flipamos» con Pascal, con Turing volveríamos a hacerlo, y es que no
era una arquitectura cualquiera: habían trabajado 7 años en ella. Se puede decir honestamente
viable presentan los Tensor Cores y los RT Cores, 2 grupos de núcleos nuevos que están
enfocados para procesar y renderizar gráficos. No obstante, los RT Cores son unos núcleos
Ampere hacía realidad los sueños de NVIDIA: mejoraba a Turing en todo. Se produjeron
muchas filtraciones sobre esta generación, y NVIDIA enseñó Ampere por primera vez en su
GTC 2020. Mientras que el evento se producía a principios de 2020, las RTX 3000 no
Ampere como el que se produjo desde las GTX 200 a las GTX 400. Para no hacer eterna esta
Sorprendió tanto el rendimiento de AMD RDNA 2 que hicimos una comparativa enfrentando
a las RTX 3000 vs RX 6000. Las GPUs NVIDIA seguían por delante, pero por muy poca
diferencia, aunque en Ray Tracing dejaban claro qué marca tiene más experiencia.
Aller, Á. (2021c, octubre 4). NVIDIA, la historia de las tarjetas gráficas 3D y el paso
https://www.profesionalreview.com/2021/06/06/nvidia-historia-3d-al-ray-tracing/
T. (2014, 8 abril). AMD presenta la tarjeta gráfica «más rápida y potente del
09/amd-ha-presentado-la-tarjeta-grafica-mas-rapida-y-potente-del-mundo_113670/
https://www.timetoast.com/timelines/evolucion-de-las-tarjetas-graficas-a-lo-largo-del-
tiempo-hasta-la-actualidad