Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Tema Microprocesadores

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

Sistemas de Computación Ing.

Revilla

TEMA 2
MICROPROCESADORES

2.1 GENERACION DE COMPUTADORAS

Desde su inicio, la computadora ha pasado varias etapas de desarrollo. Por lo general, los
escritores clasifican estos avances tecnológicos como generaciones, un término de mercadeo.
Las computadoras han sido divididas en seis generaciones, las cuales se muestran a continuación.

PRIMERA GENERACION

La primera generación de computadoras comenzó en los años 1940 y se extendió hasta los 1950.
Durante este periodo, las computadoras empleaban tubos al vacío para conducir la electricidad.
El uso de los tubos al vacío hacía que las computadoras fueran grandes, voluminosas y costosas
porque los tubos tenían que ser continuamente reemplazados debido a que se quemaban con
frecuencia. Hasta este tiempo, las computadoras fueron clasificadas por su dispositivo principal
para el almacenaje en memoria. La UNIVAC I empleaba un ingenioso dispositivo llamado línea
de demora de mercurio (mercury delay line), la cual dependía de pulsos de ultrasonido.

ENIAC
La ENIAC (Electronic Numerical Integrator and Computer) fue lanzada al público el 14 de
febrero de 1946, diseñado y construido bajo la supervisión de John Mauchly y John Presper Eckert
en la Universidad de Pennsylvania, fue el primer computador electrónico de propósito general del
mundo. Este fue el primer ordenador de propósito general totalmente digital, es decir, ejecutaba
sus procesos y operaciones mediante instrucciones en lenguaje máquina. Cuando el ENIAC
requería modificaciones, se tardaban semanas en su instalación y reprogramación, debido a todo
esto se realizaba de forma manual. El 2 de octubre de 1955 fue desactivada para siempre (Osuna
y Busón, 2007).
El ENIAC era una máquina decimal y no binaria. Es decir, los números estaban representados en
forma decimal y la aritmética se realizaba también en el sistema decimal. Su memoria consistía
en veinte acumuladores, cada uno capaz de contener un número decimal de diez dígitos. Cada
dígito estaba representado por un anillo de diez tubos de vacío. En un momento dado, solo uno
de los tubos de vacío estaba en estado ON, representando uno de los diez dígitos. Uno de los
Sistemas de Computación Ing. Revilla

mayores inconvenientes del ENIAC era que tenía que ser programado manualmente mediante
conmutadores y conectando y desconectando cables

La máquina de von Neumann


La tarea de cargar y modificar programas para el ENIAC era extremadamente tediosa. El proceso
de programación podría ser más fácil si el programa se representara en una forma adecuada para
ser guardado en la memoria junto con los datos. Entonces, un computador podría conseguir sus
instrucciones leyéndolas de la memoria, y se podría hacer o modificar un programa colocando los
valores en una zona de memoria.

Esta idea conocida como concepto del programa-almacenado, se atribuye a los diseñadores del
ENIAC, sobre todo al matemático John von Neumann, que era asesor del proyecto ENIAC. La
idea fue también desarrollada aproximadamente al mismo tiempo por Turing. La primera
publicación de la idea fue en una propuesta de von Neumann para un nuevo computador en 1945,
el EDVAC (Electronic Discrete Variable Computer).

En 1946 von Neumann y sus colegas empezaron, en el Instituto para Estudios Avanzados de
Princeton, el diseño de un nuevo computador de programa-almacenado, que llamaron IAS. El
computador IAS, no completado hasta 1952, es el prototipo de toda una serie de computadores
de propósito general.

UNIVAC I
Fue el primer computador comercial de éxito. Estaba diseñado, como su nombre indica, tanto
para aplicaciones científicas como comerciales. El primer documento que describía el sistema
mencionaba como ejemplos de tareas que podía realizar operaciones algebraicas con matrices,
problemas de estadística, reparto de primas para las compañías de seguros de vida y problemas
logísticos.

UNIVAC II
Tenía una capacidad de memoria mayor y más aplicaciones que el UNIVAC I, salió al mercado
al final de los cincuenta e ilustra varias tendencias que han permanecido como características de
la industria de computadores. Primera, los avances en la tecnología permiten a las compañías
seguir construyendo computadores más grandes y más potentes. Segunda, cada compañía
intenta hacer sus nuevas máquinas superiores y compatibles con las anteriores. Esto significa
que los programas escritos para las viejas máquinas pueden ejecutarse en las nuevas máquinas.
Esta estrategia se adopta para retener la base de clientes; es decir, que cuando un cliente decide
comprar una máquina nueva, probablemente la comprará a la misma compañía para evitar
perder su inversión en programas.

MARK I
Como señala Barceló (2008) la máquina diseñada por Howard H. Aiken en Harvard y desarrollada
conjuntamente con IBM, era una calculadora automática de secuencia controlada, que utilizaba
elementos electromecánicos, tenía más de 7000 relés y 800 kilómetros de cable eléctrico.
El programa era introducido con una cinta de papel perforada, pero los datos se ingresaban con
conmutadores manuales o con tarjetas perforadas. Tenía aritmética decimal e introducía la idea
de un registro interno especializado.
Sistemas de Computación Ing. Revilla

1951 – Remington Rand


Desarrolló la primera computadora eléctrica digital, la UNIVAC I (UNIVersal Automatic
Computer).

1953 – IBM 650


Para esta época, por primera vez se emplea ampliamente como sistemas de computadora el
modelo de IBM 650. Originalmente se planificaron producir 50 máquinas, pero el sistema fue tan
exitoso que eventualmente IBM manufactura más de 1,000. Con las series de máquinas IBM 700,
la compañía dominaría el mercado de las supercomputadoras para la próxima década.

1957 – IBM 305 RAMAC


En el 1957, el sistema de IBM 305 RAMAC es el primero en su clase en utilizar disco magnético
para almacenaje externo. El sistema provee capacidad de almacenamiento similar a la cinta
magnética que fue usada previamente, pero ofrece la ventaja de capacidad de acceso semi-
aleatorio.

Resumiendo:

 Usaban tubos al vacío para procesar información.


 Usaban tarjetas perforadas para entrar los datos y los programas.
 Usaban cilindros magnéticos para almacenar información e instrucciones internas.
 Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran
cantidad de calor y eran sumamente lentas.
 Se comenzó a utilizar el sistema binario para representar los datos.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000
dólares).

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron
varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor
magnético, que es el antecesor de los discos actuales.

Segunda generación

El primer cambio importante en los computadores electrónicos vino con la sustitución de los tubos
de vacío por transistores. El transistor es más pequeño, más barato, disipa menos calor y puede
ser usado de la misma forma que un tubo de vacío en la construcción de computadores. Mientras
que un tubo de vacío requiere cables, placas de metal, una cápsula de cristal y vacío, el transistor
es un dispositivo de estado sólido, hecho con silicio.
El transistor fue inventado en los Laboratorios Bell en 1947 y en los años cincuenta y provocó
una revolución electrónica. Sin embargo, los computadores completamente transistorizados no
estuvieron disponibles comercialmente hasta el final de los cincuenta. IBM no fue la primera
compañía que lanzó esta nueva tecnología. NCR y, con más éxito, RCA fueron los primeros en
sacar pequeñas máquinas de transistores. IBM los siguió pronto con la serie 7000.
Sistemas de Computación Ing. Revilla

El uso del transistor define la segunda generación de computadores. La clasificación de los


computadores en generaciones basándose en la tecnología hardware empleada fue ampliamente
aceptada
Cada nueva generación se caracteriza por la mayor velocidad, mayor capacidad de memoria y
menor tamaño que la generación anterior.
También hay otros cambios. En la segunda generación se introdujeron unidades lógicas y
aritméticas y unidades de control más complejas, el uso de lenguajes de programación de alto
nivel, y se proporcionó un software del sistema con el computador.
La segunda generación es destacable también por la aparición de la empresa Digital Equipment
Corporation (DEC). DEC fue fundada en 1957 y en este año sacó su primer computador, el PDP-
1.
Este computador y esta compañía iniciaron el desarrollo de los minicomputadores que fue de gran
importancia en la tercera generación.

El IBM 7094

Desde la introducción en 1952 de la serie 700 y la introducción del último miembro en 1964 de
la serie 7000, esta línea de productos sufrió la evolución típica de los computadores. Los
productos sucesivos de la línea presentaron un aumento de prestaciones y capacidad y/o la
disminución de precios.
El incremento de velocidad se logró mejorando la electrónica (por ejemplo, una implementación
con transistores es más rápida que con tubos de vacío) y con una circuitería más compleja. Por
ejemplo, el IBM 7094 incluye un registro de respaldo de instrucciones, usado como buffer de la
siguiente instrucción. La unidad de control capta las dos palabras adyacentes de la memoria para
captar una instrucción. Excepto en una instrucción de salto, que suele ser poco frecuente, esto
significa que la unidad de control tiene que acceder a la memoria en busca de una instrucción en
solo la mitad de los ciclos de instrucción. Esta precaptación reduce considerablemente el tiempo
medio de ciclo de instrucción.

La Figura 2.5 muestra una configuración (con muchos periféricos) del IBM 7094, que es
representativo de los computadores de la segunda generación [BELL71a]. Merece la pena señalar
varias diferencias con el computador IAS. La más importante es el uso de canales de datos. Un
canal de datos es un módulo de E/S independiente con su propio procesador y su propio conjunto
de instrucciones.
En un computador con tales dispositivos, la CPU no ejecuta instrucciones detalladas de E/S.
Tales instrucciones son almacenadas en una memoria principal para ser ejecutadas con un
procesador de uso específico para el canal de datos mismo. La CPU inicia una transferencia de
E/S enviando señales de control al canal de datos, instruyéndolo para ejecutar una secuencia de
instrucciones en memoria. El canal de datos realiza esta tarea independientemente de la CPU y
de las señales de la CPU hasta que la operación se completa. Esta disposición libera a la CPU de
una carga de procesamiento considerable.
Sistemas de Computación Ing. Revilla

Resumiendo
 Usaban transistores para procesar información.
 Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
 Usaban pequeños anillos magnéticos para almacenar información e instrucciones.
 Se mejoraron los programas de computadoras que fueron desarrollados durante la primera
generación.
 Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los
cuales eran comercialmente accsesibles.
 Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del
tráfico aéreo y simulaciones de propósito general.
 La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
 Surgieron las minicomputadoras y los terminales a distancia.
 Se comenzó a disminuir el tamaño de las computadoras
Tercera generación
Sistemas de Computación Ing. Revilla

A través de los años cincuenta y principios de los sesenta, los equipos electrónicos estaban
compuestos en su mayoría por componentes discretos (transistores, resistencias, capacidades,
etc.). Los componentes discretos se fabricaban separadamente, encapsulados en sus propios
contenedores, y soldados o cableados juntos en tarjetas de circuitos en forma de panel, que eran
instalados en computadores, osciloscopios y otros equipos electrónicos. Cuando un dispositivo
necesitaba un transistor, había que soldar este, que tenía una forma de un pequeño tubo de metal
y contenía una pieza de silicio del tamaño de la cabeza de un alfiler, en una tarjeta de circuitos.
Todo el proceso de fabricación desde el transistor hasta el panel de circuitos era caro y engorroso.
Estos hechos fueron el comienzo del surgimiento de problemas en la industria de computadores.
Los primeros computadores de la segunda generación contenían alrededor de 10 000 transistores.
Esta cantidad creció a cientos de miles, haciendo cada vez más difícil la fabricación de máquinas
nuevas y más potentes.
En 1958 ocurrió algo que revolucionó la electrónica y comenzó la era de la microelectrónica: la
invención del circuito integrado. El circuito integrado define la tercera generación de
computadores.

El circuito integrado define la tercera generación de computadores.


En esta sección haremos una breve introducción a la tecnología de circuitos integrados. Después
veremos los que quizá sean los dos miembros más importantes de la tercera generación, que
surgieron al principio de la era: el IBM Sistema/360 y el DEC PDP-8.

Microelectrónica
Microelectrónica significa literalmente «pequeña electrónica». Desde los comienzos de la
electrónica digital y la industria de computadores, ha habido una tendencia persistente y
consistente hacia la reducción del tamaño de los circuitos electrónicos digitales. Antes de
examinar las implicaciones y beneficios de esta tendencia, necesitamos decir algo sobre la
naturaleza de la electrónica digital.
Los elementos básicos de un computador digital, como ya sabemos, deben ofrecer
almacenamiento, procesamiento y control de funciones. Solo se requieren dos tipos
fundamentales de componentes (Figura 2.6): puertas y celdas de memoria. Una puerta es un
dispositivo que implementa una función lógica o booleana simple, como SI AAND B ES CIERTO
ENTONCES C ES CIERTO (puerta AND). A tales dispositivos se les llama puertas porque
controlan el flujo en cierta manera, como lo hacen las puertas de un canal. La celda de memoria
es un dispositivo que puede almacenar un dato de un bit; es decir, el dispositivo puede estar, en
un instante dado, en uno de dos estados estables. Interconectando muchos de estos dispositivos
fundamentales, podemos construir un computador. Podemos relacionar esto con nuestras cuatro
funciones básicas de la siguiente forma:
Sistemas de Computación Ing. Revilla

Podemos relacionar esto con nuestras cuatro funciones básicas de la siguiente forma:
 Almacén de datos: proporcionado por las celdas de memoria.
 Procesamiento de datos: proporcionado por las puertas.
 Transferencias de datos: los caminos entre componentes se usan para llevar datos de
memoria a memoria y de memoria, a través de las puertas, a memoria.
 Control: los caminos entre componentes pueden llevar las señales de control. Por ejemplo,
una puerta tendrá dos entradas de datos más una entrada de control que activará la puerta.
Cuando la señal de control está en ON, la puerta realiza su función con los datos de entrada
y produce un dato de salida. De manera similar, las celdas de memoria almacenarán el bit en
su entrada si la señal de control WRITE está ON y situarán el bit en la salida cuando la
señal de control READ esté ON.

Por tanto, un computador consta de puertas, celdas de memoria e interconexiones entre estos
elementos. Las puertas y las celdas de memoria están constituidas por componentes electrónicos
simples.
Los circuitos integrados utilizaron el hecho de que componentes como transistores, resistencias y
conductores podían ser fabricados a partir de un semiconductor como el silicio. Es simplemente un
avance del arte del estado sólido consistente en fabricar un circuito entero en un pequeño trozo de
silicio, en vez de ensamblar componentes discretos hechos a partir de trozos de silicio separados en el
mismo circuito. Se pueden construir cientos e incluso miles de transistores al mismo tiempo en una
sola oblea de silicio. Igualmente importante es que estos transistores pueden ser conectados con un
proceso de metalización para formar circuitos.
La Figura 2.7 muestra los conceptos clave de un circuito integrado. Se divide una fina oblea de silicio
en una matriz de pequeñas áreas, cada una de unos pocos milímetros cuadrados. Se fabrica el mismo
patrón de circuito en cada área, y la oblea se divide en chips. Cada chip consiste en muchas puertas
más una serie de puntos para conexiones de entrada y salida. El chip es encapsulado en una carcasa
que lo proteje y proporciona patas para conectar dispositivos fuera del chip. Varios de estos elementos
pueden ser interconectados en una tarjeta de circuito impreso para producir circuitos más complejos y
mayores.
Inicialmente solo podían fabricarse y encapsularse juntas, con fiabilidad, unas pocas puertas o celdas
de memoria. A estos primeros circuitos integrados se les llama de pequeña escala de integración
(SSI, Small-Scale Integration). A medida que el tiempo pasó, fue posible encapsular más y más
componentes en un mismo chip.
Sistemas de Computación Ing. Revilla

Ley de Moore, que fue propuesta por Gordon Moore, cofundador de Intel, en 1965 [MOOR65].
Moore observó que el número de transistores que se podrían integrar en un solo chip se duplicaba
cada año y se predecía correctamente que esto continuaría en un futuro cercano. Para sorpresa de
muchos, incluido Moore, este ritmo continuaría año tras año y década tras década. El ritmo
disminuyó duplicándose cada dieciocho meses en los setenta, pero ha mantenido esta velocidad
desde entonces.
Las consecuencias de la ley de Moore son profundas:
1. El precio de un chip ha permanecido prácticamente invariable a través de este periodo de
rápido crecimiento en densidad. Esto significa que el coste de la lógica del computador y
de la circuitería de la memoria ha caído a una velocidad drástica.
2. Ya que los elementos de la lógica y la memoria están más próximos en chips más
densamente encapsulados, la longitud de las interconexiones eléctricas ha disminuido,
incrementándose así la velocidad operativa.
3. El computador es ahora más pequeño, lo que lo hace más adecuado para más entornos.
4. Hay una reducción de las necesidades de potencia y refrigeración.
5. Las interconexiones de los circuitos integrados son mucho más fiables que las conexiones
soldadas. Con más circuitos en cada chip hay menos conexiones entre chips.

En 1964, IBM tenía un firme dominio del mercado con sus máquinas de la serie 7000. Aquel año,
IBM anunció el Sistema/360, una nueva familia de productos de computadores, la línea de
productos 360 era incompatible con las máquinas IBM anteriores. El Sistema/360 fue la primera
Sistemas de Computación Ing. Revilla

familia de computadores de la historia que se planeó. La familia abarcaba un amplio rango de


prestaciones y precios.

DEC PDP-8
En el mismo año que IBM lanzó su primer Sistema/360 tuvo lugar otro lanzamiento trascendental:
el PDP-8 de DEC. En aquella época, cuando la mayoría de los computadores requerían una
habitación con aire acondicionado, el PDP-8 (llamado por la industria minicomputador) era lo
bastante pequeño para ser colocado en lo alto de una mesa de laboratorio o embutido en otro
equipo. No podía hacer todo lo que hacían los grandes computadores, pero a 16 000 dólares era
suficientemente barato para que cada técnico de laboratorio tuviera uno.
Por contra, los computadores de la serie Sistema/360, presentados solo unos meses antes costaban
cientos de miles de dólares.
El PDP-8 fue un éxito inmediato y logró el enriquecimiento de DEC. Esta máquina y los otros
miembros de la familia PDP-8 que la siguieron lograron un status de producción antes reservado
a los computadores IBM, con alrededor de 50 000 máquinas vendidas en los siguientes doce años.
Como se dice en la historia oficial de DEC, el PDP-8 estableció el concepto de minicomputador,
abriendo el camino a una industria de miles de millones de dólares. También estableció a DEC
como el vendedor de minicomputadores número uno y cuando el PDP-8 alcanzó el fin de su vida
útil, DEC era el segundo fabricante de computadores detrás de IBM.

1968 – Alan Shugart


Alan Shugard en IBM demuestra el primer uso regular del Disco flexible de 8-pulgadas (disco
de almacenaje magnético).

Resumiendo

 Se desarrollaron circuitos integrados para procesar información.


 Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una
pieza de silicio que contiene los componentes electrónicos en miniatura llamados
semiconductores.
 Los circuitos integrados recuerdan los datos, ya que almacenan la información como
cargas eléctricas.
 Surge la multiprogramación.
 Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis
matemáticos.
 Emerge la industria del "software".
 Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
 Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
 Consumían menos electricidad, por lo tanto, generaban menos calor.

Cuarta generación
Las computadoras de esta generación usan Circuitos Integrados CI a gran escala VLSIC (very
large scale integrated circuits), que contienen varios de miles, y a menudo millones de circuitos
por chip. Con la tecnología VLSIC, la memoria, la lógica y el control de la computadora se pueden
integrar en un solo chip; de ahí el nombre microprocesador. El tamaño de la memoria de las
computadoras ha alcanzado el orden de los gigabytes y las velocidades de procesamiento han
rebasado los mil millones de instrucciones por segundo.
Sistemas de Computación Ing. Revilla

La cuarta generación de las computadoras se da desde 1971 a 1981, lo más importante en esta
generación es el invento del microprocesador el cual unía los circuitos integrados en un solo
bloque. La creación del microprocesador hizo posible el desarrollo de las computadoras
personales o PC, lo cual marcaría una revolución en el mundo de la computación, esto cambiaría
la forma de trabajar e incluso de vivir de muchas personas hasta la actualidad.

En 1973 la marca de computadoras IBM introdujo en los modelos IBM 3340 los discos duros
Winchister, convirtiendo dichos dispositivos de almacenamiento en el estándar de la industria
informática
El término Winchester, varios años atrás se introdujo en 1973 cuando IBM desarrollo el modelo
3340 con un disco que tenía 30 MB de almacenamiento fijo y 30MB de almacenamiento extraíble;
sus inventores llamaron a la unidad “Winchester” en honor del rifle 30/30. Aunque las unidades
de disco modernos son más rápidos y tienen mayor capacidad de almacenamiento, la tecnología
básica es la misma.
El disco Winchester coloco las cabezas y los platos del disco dentro de una unidad sellada para
lograr mayor velocidad, convirtiéndose en el estándar para el desarrollo del disco duro mecánico.

En 1974 comenzó a lucirse la verdadera industria de la informática, cuando Intel Corporation


presentó el primer CPU (Unidad Central de Procesos) compuesto por un microchip de circuito
integrado denominado 8080. Este hecho cautivó el interés en hogares y pequeños negocios a lo
largo de 1975.
1975: William Henry Gates y Paul Allen crearon Microsoft. Este software fue el proveedor de la
versión del lenguaje BASIC para la computadora personal Altair, de la empresa MITS.
1975: Gary Kindall y John Torode fundan la Digital Research, que ingresa exitosamente al
mercado con su sistema operativo CPM (Control Program for Microcomputers). Este fue el
primer sistema operativo estándar.
1976: Steven Wozniak y Steven Jobs fundaron Apple Computer el 1 de abril de 1976. Ese mismo
año intentaron insertar en el mercado la Apple I, pero no fue bien aceptada.
1977: Apple lanza al mercado la Apple II y logra imponerse en el mercado de la informática.
1977: Durante la cuarta generación de computadoras, más precisamente a lo largo de este año, se
desarrolla el apogeo de las computadoras personales.
1977: La TRS-80 de Tandy/Radio Shack fue una de las computadoras más populares de la época.
1978: Intel fabricó el microprocesador Intel 8086, el cual provocó una demanda masiva y motivó
a la compañía IBM a crear su División de Computadoras Personales. El éxitos de ventas
alcanzado por Intel, lo posicionó dentro del ranking de las 500 empresas más grandes y exitosas
del mundo.
1980: Apple Disk II es la primera disquetera en el mercado.

Resume
 Se desarrolló el microprocesador.
 Se colocan más circuitos dentro de un "chip".
 "LSI - Large Scale Integration circuit".
 "VLSI - Very Large Scale Integration circuit".
 Cada "chip" puede hacer diferentes tareas.
 Un "chip" sencillo actualmente contiene la unidad de control y la unidad de
aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros
"chips".
Sistemas de Computación Ing. Revilla

 Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.


 Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
 Se desarrollan las supercomputadoras.

Quinta Generación (1983 al presente)

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea


de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las
computadoras. Surge la competencia internacional por el dominio del mercado de la computación,
en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea:
la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de
códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los
objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados.
Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos
semejantes, que pueden resumirse de la siguiente manera:

 Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.


 Se desarrollan las supercomputadoras.

Inteligencia artíficial:

La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento
humano usados en la solución de problemas a la computadora.

Robótica:

La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de


computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo
diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a
situaciones no estructuradas.

Sistemas expertos:

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento
de la experiencia humana para ayudar a la resolución de problemas.

Redes de comunicaciones:

Los canales de comunicaciones que interconectan terminales y computadoras se conocen como


redes de comunicaciones; todo el "hardware" que soporta las interconexiones y todo el "software"
que administra la transmisión.
Sistemas de Computación Ing. Revilla

2.2 Microprocesadores

El microprocesador (también llamado CPU) es un circuito integrado formado por millones de


transistores, cuya función es procesar los datos, controla el funcionamiento de todos los
dispositivos del ordenador y realiza operaciones lógico-matemáticas. Es la parte más importante
del ordenador, es “el cerebro” del ordenador”.
En 1971 se hizo una innovación sensacional, cuando Intel desarrolló el 4004 fue el primer chip
que contenía todos los componentes de la CPU en un solo chip: el microprocesador había nacido
El 4004 podía sumar dos números de cuatro bits y multiplicar solo con sumas sucesivas. Según
los estándares de hoy en día, el 4004 es muy primitivo, pero marcó el comienzo de la evolución
continua en capacidad y potencia de los microprocesadores.
El siguiente paso importante en la evolución de los microprocesadores fue la introducción en 1972
del Intel 8008. Este fue el primer microprocesador de ocho bits y era casi dos veces más complejo
que el 4004.
La introducción del Intel 8080 en 1974, fue el primer microprocesador de uso general. Mientras
que el 4004 y el 8008 habían sido diseñados para aplicaciones específicas, el 8080 fue diseñado
para ser la CPU de un microcomputador de propósito general. Al igual que el 8008, el 8080 es un
microprocesador de ocho bits. El 8080, sin embargo, es más rápido, tiene un conjunto de
instrucciones más rico y tiene una capacidad de direccionamiento mayor. Sobre la misma época
empezaron a desarrollarse los microprocesadores de 16 bits.

2.3 Evolución de los microprocesadores


El microprocesador es el desarrollo electrónico individual más importante desde el transistor y,
al igual que este, ha revolucionado todas las industrias en toda su amplia gama de aplicaciones,
por de su bajo costo, la pequeña área que ocupa, su bajo consumo de energía y su alto nivel de
confiabilidad. Estas características han fomentado nuevas aplicaciones, tanto en la industria,
como en el hogar. Se han lanzado al mercado cientos de paquetes de software listos para usarse,
los que simplifican la programación y reducen el costo de los sistemas.
Año tras año, el precio de los computadores continúa cayendo dramáticamente, mientras que las
prestaciones y la capacidad de estos sistemas siguen creciendo. En una tienda se puede conseguir
un computador, por menos de 1000 dólares, con muchas mejores prestaciones que un IBM de
hace diez años. Dentro de un computador personal, incluyendo el microprocesador y la memoria,
y otros chips, se pueden conseguir unos cien millones de transistores. Por tanto, tenemos
prácticamente la potencia del computador «gratis».
Esta continúa revolución tecnológica, ha habilitado el desarrollo de una sorprendente complejidad
y potencia. Por ejemplo, las aplicaciones de oficina que requieren la mayor potencia de los
sistemas de hoy en día basados en microprocesadores incluyen:
 Procesamiento de imágenes.
 Reconocimiento del habla.
 Vídeo conferencias.
 Aplicaciones multimedia.
 Almacenamiento de ficheros de voz y vídeo.
 Modelado de simulaciones.
Las estaciones de trabajo ahora soportan aplicaciones de ingeniería y ciencia altamente
sofisticadas, así como simulaciones, y pueden aplicar los principios de trabajo en grupo a
aplicaciones de imagen y vídeo.
Sistemas de Computación Ing. Revilla
Sistemas de Computación Ing. Revilla

2.4 MEJORAS EN LA ORGANIZACIÓN Y ARQUITECTURA DE CHIPS


Además del reto de los diseñadores de equilibrar las prestaciones del procesador con la memoria
principal y con otros componentes del computador, persiste la necesidad de aumentar la velocidad
del procesador. Hay tres formas de conseguir incrementar la velocidad del procesador:

• Incrementando la velocidad del hardware del procesador: esto se consigue


fundamentalmente disminuyendo el tamaño de las puertas lógicas del chip del procesador, de
forma que se puedan encapsular más puertas, más cercanas y así incrementar la frecuencia del
reloj. Con las puertas más juntas, el tiempo de propagación de las señales se reduce
significativamente, haciendo posible un aumento de la velocidad del procesador. Un incremento
en la velocidad del reloj implica que las operaciones individuales se ejecuten más rápidamente.
• Incrementando el tamaño y la velocidad de las cachés interpuestas entre el procesador y la
memoria principal. En particular, dedicando una parte del chip del procesador a la caché, el
tiempo de acceso de la caché disminuye considerablemente.
• Haciendo cambios en la organización y arquitectura del procesador de forma que se
incremente la velocidad efectiva de la ejecución de una instrucción. Usualmente, esto implica
utilizar paralelismo de una forma u otra.
Tradicionalmente, el factor dominante en la ganancia de prestaciones se debe al aumento de
la velocidad del reloj y a la densidad de la lógica. Sin embargo, al aumentar la velocidad de
reloj y la densidad de la lógica, una serie de obstáculos se hacen más significativos [INTE04b]:
• Potencia: a medida que la densidad de la lógica y la velocidad del reloj de un chip
aumentan, también lo hace la densidad de potencia (watios/cm2). La dificultad en disipar el calor
generado por la gran densidad y la alta velocidad en el chip se convierte en un problema de diseño
serio ([GIBB04], [BORK03]).
• Retardo RC: la velocidad a la que los electrones pueden fluir en un chip entre transistores
está limitada por la resistencia y capacidad de los hilos metálicos que los conectan; concretamente,
el retardo aumenta al hacerlo el producto RC. Como los componentes del chip disminuyen de
tamaño, los hilos que los interconectan son más finos, aumentando su resistencia. Además, los
hilos están más juntos, aumentando la capacidad.
• Latencia de memoria: la velocidad de la memoria ralentiza la velocidad del procesador,
como se ha visto anteriormente.
Por tanto, es necesario hacer más énfasis en la organización y arquitectura para mejorar las
prestaciones

2.5 EVOLUCION Y DEL PENTIUM Y POWERPC


PENTIUM
Intel ha sido el número uno de los fabricantes de microprocesadores durante décadas, una posición
que no parece probable que abandone. La evolución de su microprocesador más representativo es
un buen indicador de la evolución de la tecnología de computadores en general.
POWERPC
En 1975, el proyecto minicomputador 801 de IBM fue el primero en muchos de los conceptos de
arquitectura usados en sistemas RISC. El 801, junto con el procesador RISC I de Berkeley, inició
el movimiento RISC. El éxito del proyecto 801 permitió a IBM desarrollar una estación de trabajo
RISC comercial. En 1990, IBM produjo un tercer sistema que incorporaba las lecciones
aprendidas con el 801 y el RT PC. El IBM RISC System/6000 era una máquina superescalar RISC
comercializada como una estación de trabajo de altas prestaciones; poco después de su
introducción, IBM comenzó a llamarla arquitectura POWER.
Sistemas de Computación Ing. Revilla

IBM se alió con Motorola, que había desarrollado las series 68000 de microprocesadores, y Apple,
que usaba el chip de Motorola en sus computadores Macintosh. El resultado es una serie de
máquinas que implementan la arquitectura PowerPC.

El Pentium representa el resultado de décadas de esfuerzo de diseño en computadores de


repertorio complejo de instrucciones (CISC). Incorpora los sofisticados principios de diseño que
antes se encontraban solo en ordenadores grandes y supercomputadores, y es un excelente
ejemplo de diseño CISC. El PowerPC es descendiente directo del primer sistema RISC, el IBM
801, y es uno de los sistemas basados en RISC más potentes y mejor diseñados del mercado.

También podría gustarte