Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

capitulo 2_Hardware_Software-2021

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 46

CAPITULO II: HARDWARE Y SOFTWARE

1. HARDWARE

HARDWARE: Es un vocablo del inglés que significa “chatarra” o “ferretería”. Se denomina así a
la parte física o material de la computadora, aquellas que se pueden tocar, componentes
electrónicos, periféricos, cables de conexión, etc., entrarían dentro de esta clasificación.

Las palabras inglesas “hardware” y “software”, que no tienen un equivalente adecuado en


castellano, se utilizan corrientemente para designar los dos componentes fundamentales de
cualquier sistema de procesamiento de datos.

El hardware comprende todos los elementos materiales del equipo, físicamente visualizables,
como la computadora y los equipos periféricos, por ejemplo: los circuitos, teclados, llaves,
visores, las unidades de lectura y/o impresión, etc.

El software es una colección organizada de programas que permite la utilización del equipo, es
un conjunto de instrucciones que se suministran a la máquina para que resuelva algún
problema. Generalmente el software reside en algún soporte adecuado como el disco duro,
diskettes, etc.
Al inicio de la corta historia de la computación digital era fácil distinguir el hardware del software,
pero, a medida que avanzan los desarrollos tecnológicos se vuelve más sutil la barrera que
separa uno del otro, porque ahora buena parte de la programación de sistemas de muchas
computadoras reside en un nivel intermedio (“microprogramado”) que algunos llaman firmware.
Es un hardware programable, o sea un tipo especial de programa grabado en pequeñas piezas
de hardware llamadas ROM o PROM, que sirven para reemplazar algunos componentes o
circuitos del hardware.

1. 1. ESTRUCTURA BÁSICA DE UN COMPUTADOR

Veremos en forma global cómo se clasifican e interrelacionan los distintos elementos


constitutivos de una computadora, y luego profundizaremos más sobre las características
técnicas de cada uno de ellos.

Puede decirse que una computadora digital se compone de los siguientes elementos:

Unidad Central de Proceso o CPU, es la computadora propiamente dicha, el cerebro. La CPU


consta de tres partes bien diferenciadas, que son: la memoria dinámica (RAM y ROM), la
unidad aritmético lógica y la unidad de control (UC).

La memoria, al igual que en los seres humanos constituye una parte del cerebro, es el lugar
donde se almacenan los datos y las instrucciones que componen los programas.

La información genética que posee nuestro cuerpo al momento de nacer no sólo determina
nuestras características físicas, si no que también nos provee de potenciales herramientas

1
físicas e intelectuales, las cuales serán desarrolladas en mayor o menor medida según la
información que adquiramos del medio.

En una computadora sucede lo mismo, el fabricante le provee de calidad y características


tecnológicas determinadas (físicas) e información básica para su funcionamiento (potenciales
herramientas), esta información viene grabada en una parte de la memoria llama ROM (Read
Only Memory), la cual no podrá ser modificada, sólo consultada.
Por otro lado está la información que la computadora adquiere del usuario o programador
(medio), la cual irá determinando su comportamiento, esta información pueden ser programas
los cuales combinan y potencian la información grabada en la ROM, y/o simplemente datos a
ser procesados por los programas. Tanto los programas como los datos serán almacenados en
otra parte de la memoria llamada RAM (Random Access Memory), donde el usuario o
programador podrán grabar, consultar, borrar y modificar información tantas veces como sea
necesario. Esta memoria de rápido acceso tiene el inconveniente que al apagar la computadora
se borra su contenido, sucede lo mismo, por ejemplo, con una receta de comida que acabamos
de leer en el periódico, a los tres días es muy probable que no nos acordemos los pasos a
seguir (programa), como así tampoco de los ingredientes que utiliza (datos).

La unidad aritmético-lógica (ALU) tiene por función realizar operaciones aritméticas y hacer
comparaciones lógicas. Aunque parezca increíble, las únicas operaciones elementales que
realiza una computadora son las lógicas de comparar si es mayor, menor o igual, y las
aritméticas de sumar y restar, todo otro procesamiento que observemos que realiza una
computadora serán combinaciones y más combinaciones de estas 5 operaciones elementales.
En la ALU existe la información necesaria para realizar estas operaciones elementales y otras
de un segundo nivel (combinaciones de las anteriores) que el fabricante considera de uso
frecuente. Para aplicaciones especiales en las que se necesiten combinaciones tanto de las de
segundo nivel como de primer nivel se utilizan los programas.
A su vez, la unidad de control tiene la misión de regular el caudal de datos dentro del ámbito de
la unidad central y en circulación entre la unidad central y los dispositivos periféricos o las
memorias exteriores; su misión es, pues, coordinar la actividad combinada de toda la
instalación.

La unidad central nuclea en un mueble tres partes principales del Sistema de Computación: la
computadora propiamente dicha, las unidades de almacenamiento y la fuente de alimentación.
La fuente de alimentación es el dispositivo mediante el cual el sistema computacional
transforma la energía que recibe de la red (220 V 110 V= en el voltaje que necesita para
funcionar.
En algunos equipos se encuentra además la cerradura de traba del teclado de manera que no
pueda ser utilizado y de esta forma enviar mensajes a la computadora.
La computadora tiene un parlante interno mediante el cual emite mensajes sonoros, música,
frases, etc.

Pero, sin lugar a dudas, los componentes claves de un computador se ubican dentro de la
MOTHERBOARD o placa madre, entre los cuales citaremos como los más importantes, el
microprocesador, el coprocesador matemático, los bancos de memoria (RAM), el ROM BIOS,
los slots o ranuras de expansión (donde se pueden conectar la placa de video, las tarjetas
adaptadoras de los discos, del scanner, del modem/fax, etc.) y el circuito impreso o buses.

Motherboard: es el esqueleto de nuestra máquina. Sin ella, los demás componentes, como la
CPU, la RAM o las tarjetas de expansión no tendrían donde ubicarse. Hay varias marcas y
modelos, para distintos tipos de procesador, con diferentes velocidades de bus y otras con

2
componentes onboard (como placa de sonido, video, módem y procesador). La velocidad del
bus determina cuán rápido será nuestro sistema, y es recomendable que esté en relación con la
velocidad de bus del micro.
Un elemento fundamental que ya hemos nombrado dentro de la MOTHERBOARD son los
buses o líneas de comunicación o líneas de circuito impreso que vinculan el microprocesador y
la memoria entre sí, y a éstos con el exterior, tanto para recibir datos como para enviar
resultados. Por estos buses circulan los impulsos eléctricos (bits), que para su llegada desde el
exterior o salida hacia los periféricos atraviesan los llamados puertos o ports (según la
denominación inglesa). Precisamente una de las diferencias de los microprocesadores es la
cantidad de bits que pueden manejar a la vez. Ellos oscilan entre 8 y 64 bits. Cuantos más bits
pueda manejar a la vez, más rápido y poderoso será.
Dispuestos sobre las líneas del BUS se encuentran los slots o ranuras de expansión que
permitirán conectar al bus los distintos periféricos que se desea instalar a la PC. Cada línea del
bus se suelda con un contacto del slot permitiendo vincular la tarjeta que se inserte en él, con
cada línea en particular del bus.

El microprocesador, que también lo llamamos procesador o CPU (Central Processing Unit -


Unidad Central de Procesamiento), constituye el cerebro de una computadora. Éste se encarga
de tomar la información que recibe de diferentes fuentes, efectuar los procesos necesarios de
dicha información y enviar el resultado al destino que se le indicó. A ese modelo se lo conoce
con las siguientes siglas EPS (Entrada de información; Procesamiento; Salida) y lo podemos
observar en la Figura 2.2.

El microprocesador o micro constituye el cerebro de una computadora. Es el encargado de


ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo
ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones
aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y
accesos a memoria.
Se encarga de tomar la información que recibe de diferentes fuentes, efectuar los procesos
necesarios a dicha información y enviar el resultado al destino que se le indicó. Dentro de él se
encuentran la UC (Unidad de Control y la UAL (Unidad Aritmético Lógica). También puede tener
integrado a él la memoria caché y el coprocesador matemático.

3
Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores
trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios
núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador
cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es
la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento.
Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador,
aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados
están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses
y procesadores dedicados de vídeo.
El ancho máximo de las instrucciones que puede utilizar el microprocesador se mide en bits y
puede ser de 2 n bits: 8, 16, 32 bits, 64 bits, etc.
El microprocesador está gobernado por un reloj de cuarzo. A mayor velocidad del reloj, más
operaciones se pueden realizar en el mismo período de tiempo. La velocidad de este reloj se
mide en Megahertz (millones de ciclo por segundo), y así tendremos microprocesadores que
oscilan entre 1,5 MHZ, hasta de 4 GHZ.

El microprocesador puede dividirse en varios bloques, de los cuales vamos a tomar los dos más
importantes para analizar el funcionamiento básico:
• La CU o UC (Control Unit - Unidad de Control)
• La ALU o ULA (Arithmetic and Logic Unit - Unidad aritmética y lógica).

Además de estos dos bloques, según el tipo de microprocesador puede tener mucho más como
FPU o UPF (Floating Point Unit - Unidad de Punto Flotante), las memorias caché internas, etc.

Cada procesador de hoy en día cuenta con un número concreto de celdas de memoria interna
que podemos denominar registros. Cada registro tiene una capacidad determinada que va
directamente relacionada con cuánta información puede ser procesada con cada comando o
instrucción. Los procesadores de 32 bits pueden por ejemplo trabajar con números entre 0 a 4
billones en un sólo paso.

La relación entre los registros y la memoria es realmente importante. El tamaño de los registros
siempre va en concordancia al tamaño del bus, y los registros grandes se benefician de la
rapidez con la que se ejecutan ciertas operaciones. Un procesador de 64 bits puede traer
mucha más información de memoria que uno de 32 bits. Aparte, el espacio de direcciones
aumenta con el número de bits del bus.

El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras,


el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un
programa de control. El microprocesador utiliza el mismo tipo de lógica que es usado en la
unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas
veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una
unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:

⮚ Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia,


impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los
conectores externos que lo acoplaran a su zócalo a su placa base.
⮚ Memoria caché: es una memoria ultrarrápida que emplea el procesador para tener
alcance directo a ciertos datos que «predeciblemente» serán utilizados en las
siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el
tiempo de espera para adquisición de datos. Todos los micros compatibles con PC

4
poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del
micro, encapsulada junto a él. Los micros más modernos (Core i3, Core i5, Core i7,
etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo
menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria
caché de nivel 3, o L3.
⮚ Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte está considerada como una parte
«lógica» junto con los registros, la unidad de control, memoria y bus de datos.
⮚ Registros: son básicamente un tipo de memoria pequeña con fines especiales que el
micro tiene disponible para algunos usos particulares. Hay varios grupos de registros
en cada procesador. Un grupo de registros está diseñado para control del
programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y
dos registros.
⮚ Memoria: es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están almacenados en
memoria, y el procesador las accede desde allí. La memoria es una parte interna de la
computadora y su función esencial es proporcionar un espacio de almacenamiento
para el trabajo en curso.
⮚ Puertos: es la manera en que el procesador se comunica con el mundo externo. Un
puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la
computadora con la cual el procesador necesita comunicarse, tiene asignado un
«número de puerto» que el procesador utiliza como si fuera un número de teléfono
para llamar circuitos o a partes especiales.

Velocidad de procesamiento

El tiempo que tarda la computadora en buscar una instrucción de la memoria, interpretarla y


traer los datos seleccionados, se denomina “ciclo de CPU”.
Este tiempo normalmente se mide en nanosegundos, siendo un nanosegundo igual a la mil
millonésima parte de un segundo.
Por tal motivo la velocidad de una computadora, se mide en MIPS: Millones de Instrucciones
(ciclos de CPU) por Segundo.

Otra forma de medir la velocidad de una computadora es según los ciclos por segundos que
produce un reloj interno, el cual marca los tiempos de ejecución. Estos ciclos del reloj por
segundo se denominan Hertz, siendo la unidad más común un millón de Hertz, o sea un
Mega Hertz (MHz).
La velocidad de una computadora junto con su capacidad de almacenar datos (memoria) son
unos de los parámetros más importantes a tener en cuenta en el momento de seleccionar un
equipo. Ambos parámetros tienen que estar equiparados, nada hacemos con una máquina
muy veloz si no tiene la suficiente memoria y viceversa.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen
diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por
procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que
permite comparar procesadores con núcleos de la misma familia, siendo este un indicador
muy limitado dada la gran variedad de diseños con los cuales se comercializan los
procesadores de una misma marca y referencia.

5
La memoria de acceso aleatorio (RAM) (en inglés: random-access memory), se utiliza como
memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí
donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de
cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición
de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir
un orden para acceder a la información de la manera más rápida posible. Durante el encendido
del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de
manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas
madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado
ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando
fallos mayores en la misma.

La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria
utilizados en los computadores personales y servidores. En el sentido estricto, esta memoria es
solo una variedad de la memoria de acceso aleatorio: las ROM, memorias Flash, caché
(SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la
cualidad de presentar retardos de acceso iguales para cualquier posición.
Como ya vimos, cuanta más memoria tengamos, mayor cantidad de información podrá ser
procesada a alta velocidad.
Agregar más RAM será una buena ayuda para la performance de la computadora.
Las dos formas principales de RAM moderna son:
1. SRAM (Static Random Access Memory), RAM estática, memoria estática de
acceso aleatorio.
1. volátiles.
2. no volátiles:
■ NVRAM (non-volatile random access memory), memoria de
acceso aleatorio no volátil
■ MRAM (magnetoresistive random-access memory),
memoria de acceso aleatorio magnetorresistiva o
magnética
2. DRAM (Dynamic Random Access Memory), RAM dinámica, memoria dinámica
de acceso aleatorio.
1. DRAM Asincrónica (Asynchronous Dynamic Random Access
Memory), memoria de acceso aleatorio dinámica asincrónica.
■ FPM RAM (Fast Page Mode RAM)
■ EDO RAM (Extended Data Output RAM)
2. SDRAM (Synchronous Dynamic Random-Access Memory,
memoria de acceso aleatorio dinámica sincrónica)
■ Rambus:
■ RDRAM (Rambus Dynamic Random Access
Memory)
■ XDR DRAM (eXtreme Data Rate Dynamic
Random Access Memory)
■ XDR2 DRAM (eXtreme Data Rate two
Dynamic Random Access Memory)
■ SDR SDRAM (Single Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
simple)

6
■ DDR SDRAM (Double Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
doble)
■ DDR2 SDRAM (Double Data Rate type two SDRAM,
SDRAM de tasa de datos doble de tipo dos)
■ DDR3 SDRAM (Double Data Rate type three SDRAM,
SDRAM de tasa de datos doble de tipo tres)
■ DDR4 SDRAM (Double Data Rate type four SDRAM,
SDRAM de tasa de datos doble de tipo cuatro).
■ DDR5 SDRAM (Double Data Rate type five SDRAM,
SDRAM de tasa de datos doble de tipo cinco).
■ DDR6 SDRAM (Double Data Rate type six SDRAM,
SDRAM de tasa de datos doble de tipo seis).

Memorias RAM con tecnologías usadas en la actualidad.

Tipos de Memoria RAM

Placa de Video

Características técnicas
Sin duda los tres parámetros más importantes que posee una tarjeta gráfica son las
características de su procesador (GPU, o Graphics Processing Unit), la cantidad de memoria
con la que cuenta y el bus de datos que une ambos componentes.

7
GPU
La GPU es un procesador, como la CPU, pero que se dedica al procesamiento de gráficos en
general y de efectos 3D. Su labor es aligerar la carga de trabajo que tiene el microprocesador,
debido a lo cual está optimizado para el cálculo en coma flotante y procesamiento paralelo, que
es lo que predomina en las funciones de gráficos 3D.

La relación que permite la velocidad de procesamiento gráfico se da entre la GPU, los buses
internos y la memoria de video del dispositivo.

Bus de datos
El bus de una tarjeta gráfica es algo fundamental y en la mayoría de los casos determina de qué
gama es el producto. Es un parámetro muy importante y no suele ser uno de los más exhibidos
en las especificaciones; por eso, es uno de los primeros aspectos que debemos conocer al
comprar una nueva tarjeta.

Todo bus de datos tiene un ancho, que se mide en bits. Hoy en día, las tarjetas más
económicas, o de gama baja, tienen bus de 128 bits, lo que limita mucho el uso que le puede
dar. Para que una tarjeta gráfica, en términos de ancho de bus, tenga un buen rendimiento
gamer, se necesitan como mínimo 128 bits de ancho de bus. Este es, al menos, el valor que
ofrece una calidad decente en resoluciones 1080p (1920×1080 píxeles). Actualmente en el
mercado existen modelos de 128, 256, 384 y 512 bits de ancho de bus. Cuanto mayor sea este
valor, más rápida y más costosa será la tarjeta.

Memoria de las tarjetas gráficas


La memoria (cantidad, tipo, frecuencia) de las tarjetas gráficas es un aspecto crucial en la
elección de una nueva unidad.

Los modelos actuales pueden tener entre 1 y 12 GB de memoria RAM, aunque existen modelos
de tarjetas gráficas profesionales (que no apuntan al mercado gamer, sino al ámbito profesional)
que incluso pueden llegar a tener más.
Actualmente se producen y comercializan tarjetas gráficas con memoria GDDR3, GDDR4
y GDDR5 (hay rumores sobre el desarrollo de GDDR6 pero al menos por el momento no existe
en el mercado). La memoria GDDR4 y GDDR5 están basadas en GDDR3, con algunas
mejoras.
Pero no todo es la cantidad y el tipo, también hay que tener en cuenta la frecuencia de
trabajo de la memoria RAM y la frecuencia efectiva, variante que resulta de multiplicar la
frecuencia por el factor DDR que corresponda según el tipo de RAM (2 en GDDR3 y GDDR4, y
4 en GDDR5).
Por último, el ancho de banda es un parámetro que se obtiene multiplicando la frecuencia
efectiva de la memoria RAM por el ancho de su bus (en bits) y luego se divide ese resultado por
8 (para pasar de gigabits a gigabytes). El valor final obtenido se expresa en GB/s. Básicamente,
este valor expresa la velocidad con que el bus es capaz de transferir datos desde la memoria a
la GPU.

Placa de Sonido

8
Es la encargada de traducir las señales digitales de sonido en
señales analógicas y viceversa. Sin ella no podríamos reproducir
CD’s de audio, escuchar MP3’s o grabar sonidos en nuestra PC.
El uso típico de las tarjetas de sonido consiste en hacer, mediante un
programa que actúa de mezclador, que las aplicaciones multimedia
del componente de audio suenen y puedan ser gestionadas. Estas
aplicaciones incluyen composición de audio y en conjunción con la
tarjeta de videoconferencia también puede hacerse una edición de
video, presentaciones y entretenimiento. Algunos equipos tienen la tarjeta ya integrada a la
motherboard, mientras que otros requieren tarjetas de expansión.

1.2. PERIFÉRICOS DE ENTRADA/SALIDA

Los dispositivos que se usan para introducir o extraer datos de la computadora se denominan
equipos periféricos.

Estos equipos son los que permiten la comunicación entre la computadora y el operador. A su
vez, el medio que contiene los datos se denomina soporte de información.

Los equipos periféricos pueden hacer disminuir el rendimiento de una computadora, dado que
los mismos se encuentran constituidos con una alta proporción de elementos mecánicos. Es por
ello, que al comparar distintos periféricos, interesa mucho analizar la velocidad de transferencia
de cada uno, entendiendo por tal, la velocidad con que los datos se transfieren entre el
procesador y las unidades periféricas.

Las unidades de entrada/salida más comunes son:

ENTRADA SALIDA ENTRADA/SALIDA


Teclado Impresoras Unidad de disco magnético
rígido
Mouse Plotters
Lector Óptico Terminales de video Unidad magnética
Lector de caracteres Parlantes Modem
magnéticos
Scanner CDROM – RW
DVDROM (Digital Video Disk)

Tipos de ranuras o slots:

PCI (Miden unos 8,5 cm y son de color blanco, mas cortas que las ISA, con los
contactos más juntos que la ISA y una pequeña mella): Las ranuras PCI tienen 32
contactos-bits con una frecuencia de trabajo de 33 Mhz hasta los 133 Mhz dependiendo
de la placa base. Estas ranuras son de propósito general y son multidestino y
multimaestras, son las que predominan en este momento. Se está desarrollando el

9
estándar PCI64, que permitirá 64 bits a 66 Mhz, que permitirán a los procesadores de 64
bits trabajar utilizando toda la capacidad y velocidad que tienen.

PCIe (PCI-Express)
Este bus está estructurado como enlaces punto a punto, full-duplex, trabajando en serie. En
PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0
duplica esta tasa y PCIE 3.0 la duplica nuevamente.
En 2006 fue percibido como un estándar de las placas base para PC, especialmente en tarjetas
gráficas. Marcas como ATI Technologies y nVIDIA, entre otras, tienen tarjetas gráficas en
PCI-Express permitiendo una mejor resolución.

Para periféricos exteriores se usan los siguientes tipos de puertos o conectores:

Puertos de memoria
A estos puertos se conectan las tarjetas de memoria RAM. Los puertos de memoria son
aquellos puertos, o bahías, donde se pueden insertar nuevas tarjetas de memoria, con la
finalidad de extender la capacidad de la misma. Existen bahías que permiten diversas
capacidades de almacenamiento que van desde los 256MB (megabytes) hasta 64 GB
(gigabytes). Conviene recordar que en la memoria RAM es de tipo volátil, es decir, si se apaga
repentinamente la computadora los datos almacenados en la misma se pierden. Dicha memoria
está conectada con la CPU a través de buses de muy alta velocidad. De esta manera, los datos
ahí almacenados se intercambian con el procesador a una velocidad unas 1000 veces más
rápida que con el disco duro.

Puertos inalámbricos
Las conexiones en este tipo de puertos se hacen sin necesidad de cables, a través de la
conexión entre un emisor y un receptor, utilizando ondas electromagnéticas. Si la frecuencia de
la onda, usada en la conexión, se encuentra en el espectro de infrarrojos se denomina puerto
infrarrojo. Si la frecuencia usada en la conexión es la usual en las radio frecuencias entonces
sería un puerto Bluetooth.

La ventaja de esta última conexión es que el emisor y el receptor no tienen por qué estar
orientados el uno con respecto al otro para que se establezca la conexión. Esto no ocurre con el
puerto de infrarrojos. En este caso los dispositivos tienen que "verse" mutuamente, y no se
debe interponer ningún objeto entre ambos ya que se interrumpiría la conexión.

Puerto USB
Artículo principal: Universal Serial Bus

10
Símbolo del puerto USB.
Es totalmente plug and play, es decir, con sólo conectar el dispositivo (con la computadora ya
encendida), el dispositivo es reconocido e instalado de manera inmediata. Sólo es necesario
que el sistema operativo lleve incluido el correspondiente controlador o driver.
A través del cable USB no sólo se transfieren datos, además es posible alimentar dispositivos
externos.

Antes de comenzar a describir las unidades periféricas una por una, conviene aclarar el
concepto de archivo (en inglés file). Mas Adelante se profundizará más sobre el mismo. Hasta
ahora hemos visto que la unidad de información es el byte, por otro lado también vimos que
pequeñas agrupaciones de éstos forman lo que se denomina palabra. Una agrupación mucho
mayor de bytes realizada con el criterio de la necesidad de su uso se denomina archivo. O sea,
con el objeto de clasificar la información es que existen los archivos. Gracias a los archivos se
puede diferenciar la información de un texto determinado con la de otro. Son paquetes de
información, los cuales se distinguen uno de otros con nombres, los que permiten grabarlos
para luego recuperarlos por dicho nombre.

Pantalla o Monitor

El monitor es una pieza clave en el sistema de una computadora personal. Tiene la


importantísima misión de permitir la interacción del usuario con el equipo. En él vemos reflejado
lo que le decimos y conocemos de primera mano lo que nos responde.
Dentro de la concepción de facilidad de uso e identificación hombre-máquina, el monitor juega
un papel decisivo. Lo normal en los equipos actuales, es que el monitor sea una pieza
independiente y su aspecto es muy similar al de un televisor LED. El tamaño de la pantalla más
difundida es de 18 pulgadas (medidas sobre la diagonal), aunque las hay 19, 20, 21, 22
pulgadas generalmente para usos gráficos especializados.

Monitor con tecnología LED

El monitor con tecnología LED en vez de utilizar lámparas fluorescentes de cátodos fríos
(CCFL), que contienen mercurio -un material vital en los sistemas CCFL pero tóxico para los
humanos y agresivo con el ambiente, y ampliamente usado en pantallas LCD convencionales.
La tecnología LED (Light-Emitting Diode usan sistemas de retroiluminación, una tecnología que
ofrece ventajas sobre la tecnología de iluminación convencional por lámparas fluorescentes de
cátodos fríos evitando de ese modo la contaminación que provoca y las emisiones de CO2.
Además disminuyen el consumo eléctrico dejándolo por debajo del 50% respecto a los LCD.
También aporta ventajas visuales con mayor uniformidad del brillo y de intensidad, alcanza su
punto máximo de brillo mucho antes que otras pantallas. Aumento del contraste dinámico,
manejo más depurado de la luz por zonas y procesamiento del color, con negros y blancos de
mayor intensidad, y grises profundos, todo ello resulta en imágenes vibrantes y fluidas.

11
Los monitores LED además son extrafinos, con espesores de alrededor de 20mm, lo cual hace
que estos sean más ligeros y ocupen todavía menos espacio.
En resumen, en general son de mayor calidad, gastan menos energía, ayudan a cuidar el medio
ambiente y presentan mejor imagen que un LCD.

Monitor LED Vs Monitor LCD

Para comenzar con esta comparación entre monitores LED y LCD, vamos a explicar las
diferencias fundamentales entre ellos.

La diferencia principal Los monitores LED y LCD poseen la misma tecnología para la
visualización de imágenes, pero la diferencia está en el tipo de iluminación que utiliza cada uno.
Los monitores LCD utilizan lámparas fluorescentes de cátodo frío para la iluminación de fondo,
mientras que los monitores LED usan diodos emisores de luz. Esta es la principal diferencia
entre las dos tecnologías de visualización. Se puede decir que los LED son "un tipo" de
monitores LCD.

Los monitores LED ofrecen una mayor graduación en la intensidad de la luz, dando mayor
calidad a los colores. También poseen una mejor relación de contraste dinámico, es por eso que
en caso de elegir un monitor para juegos y otro tipo de aplicaciones de gráficos intensivos los
monitores LED son la mejor opción.

Existen actualmente dos tipos de técnicas de iluminación de fondo LED, uno es el LED RGB
dinámico y el otro es el LED. El primer tipo de luz de fondo (utilizado en los LCD) utiliza LED
ubicados detrás del televisor o de las pantallas de los monitores LCD, mientras que el segundo
utiliza LED colocados alrededor del borde del monitor, desde donde la luz se hace difusa detrás
de la pantalla. Es la ubicación de los LED lo que permite que los monitores LED sean mucho
más delgados que los LCD convencionales.

Consumo de energía

Otra de las ventajas que tienen los monitores LED sobre los LCD es el factor de consumo de
energía, ya que su consumo de energía es hasta un 40% menor que el de los monitores LCD y
son considerados "ecológicos" gracias a que no se utiliza mercurio para su producción.

Está comprobado que los LED ocasionan menos daño a los ojos de aquellas personas que
pasan mucho tiempo frente a un monitor.

Scanners

La traducción de este vocablo es explorador, y en informática se refiere a un periférico de


entrada cuya actividad está ligada a la conversión de una imagen o fotografía a la forma digital,
tal que pueda ser almacenada y procesada por la computadora. La imagen digital recibe el
nombre de scan.

Estos modelos son usados, además, para aplicaciones con OCR, (Optical Character
Recognition - Carácter Óptico de Reconocimiento. Este proceso consiste en decodificar
caracteres de los documentos explorados por el scanner. Los mismos son almacenados en un
disco en formato de código ASCII, permitiendo a los procesadores de textos y base de datos,
procesarlo de acuerdo a su necesidad.

12
Cuando hablamos de resolución del scanner nos referimos al número de puntos que puede
imprimir en cada pulgada de las líneas del documento. La cuenta es sencilla: a igual superficie
mayor cantidad de puntos. La resolución óptica de los scanners promedia los 600 dpi (puntos
por pulgada), aunque a través del proceso de interpolación realizado por el software pueden
alcanzar resoluciones muy superiores, hasta 9600 dpi. Varios scanners ofrecen selectores de
resolución, lo que permite seleccionar formatos variados de filas, imágenes pequeñas con mejor
resolución.

Otro de los factores a tener en cuenta es la profundidad del color.


Los scanners más simples trabajan a dos tonos en dibujos sencillos y gráficos que puedan ser
representados en blanco y negro. Cuando existen tonos continuos o half tone, se pierden la
mayoría de los detalles, por eso se usa una escala de grises.

En el caso de los scanners color, la luz reflejada es separada por filtros en tres colores básicos:
rojo, verde y azul – RGB- y a través de ellos componen todo el espectro de colores.

Cuantos más tonos contenga el scanner, mejor será su resolución, lo que implica más bits por
cada dots de la imagen. Así, por ejemplo, un scanner de 36 bits, utiliza entre 10 y 12 bits para
cada color –R G y B- dándole mejor salida a las diferentes tonalidades.

Modems

El término modem es la abreviatura de MODulador - DEModulador. Es un dispositivo que


permite usar la computadora personal en aplicaciones de comunicaciones. Con un modem, las
computadoras personales pueden transmitirse información entre sí, así como con grandes
computadoras.
El soporte de este tipo de comunicaciones es la red telefónica o cablemodem. Puesto que la red
telefónica trabaja con señales de audio (analógicas), es necesario contar con un dispositivo que
convierta las señales digitales de la computadora a analógicas, para que puedan ser
transmitidas por las líneas telefónicas, y luego las transforme de nuevo en señales digitales.
Esta es precisamente la función de un modem.
Para que dos computadoras puedan comunicarse por esa
vía, es imprescindible, por supuesto, que ambas tengan
instalados modems y que sean compatibles entre sí.
Además se necesita un software especial de
comunicaciones que regule el proceso
Los modems pueden ser externos o internos, en cuyo caso
tienen la forma de una tarjeta de expansión y se ubican
dentro de la unidad central.

Compatibilidad y velocidad de transmisión son los factores


básicos a tener en cuenta. La velocidad de transmisión se
mide en baudios, un baudio es igual al número de cambios
de una señal en un segundo. La relación entre baudios y bits por segundos depende del diseño
del modem, en algunos esta relación es uno a uno.

Lector óptico lector magnético

13
Los lectores de caracteres ópticos son periféricos que permiten leer caracteres especiales
impresos en papel común.
Actualmente se usan mucho en los comercios minoristas que imprimen en las etiquetas de sus
productos un código individualizador del artículo.
Cuando una transacción se produce este código será detectado por el lector óptico, quien
transmitirá los datos a la caja registradora para emitir el ticket de facturación, y transmitirá los
datos al computador central para procesar la transacción.
Los códigos ópticos más conocidos son los OCR (cualquier carácter impreso) y los códigos de
barras (UPC) usados en artículos de venta minoristas.
Los lectores de caracteres magnéticos MICR (Magnetic Ink Character Recognition) permiten
procesar documentos que contienen datos escritos en tinta magnética. Son de uso habitual en
los bancos (cheques), aunque también se utilizan en otros ámbitos, como por ejemplo en la
liquidación de impuestos.
Los lectores de banda magnética son utilizados en los sistemas de tarjetas de crédito y de
cajeros automáticos de los bancos. Consisten en lectores de las bandas magnéticas colocadas
al dorso de las tarjetas plásticas provistas a los usuarios de estos sistemas, y cuya finalidad es
identificar a los usuarios y autorizar sus transacciones.

Mouse

Palabra del idioma inglés cuyo significado es ratón.


Se trata de una cajita, con dos o más pulsadores en la parte superior, conectada mediante un
cable (la cola) al ordenador personal; recibe este nombre por su aspecto, semejante al de un
ratoncillo.
Generalmente está fabricado en plastico, y se utiliza con una de las manos. Detecta su
movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose
habitualmente a través de un puntero, cursor o flecha en el monitor.
El ratón se puede conectar de forma alámbrica (puertos PS/2 y USB) o inalámbricamente
(comunicación inalámbrica o wireless, por medio de un adaptador USB se conecta a la
computadora y esta manda la señal al ratón, también pueden ser por medio de
conectividad bluetooth o infrarrojo).

Al igual que el teclado, el mouse es el elemento periférico que más se utiliza en un PC. El
mouse ha sido el elemento que más variaciones han sufrido en su diseño. Es difícil ver dos
modelos y diseños de mouses iguales, incluso siendo del mismo fabricante.

Impresoras

Para la computadora, un carácter es una combinación codificada de bits, sin embargo para el
hombre el mismo carácter es un símbolo impreso.

La computadora procesa los datos en forma codificada, pero cuando prepara la salida final para
que la emplee el hombre, utiliza una impresora.

Las impresoras constituyen uno de los tipos más comunes de dispositivos de salida usados por
la computadora. Una impresora es un equipo que convierte los datos de salida codificados del
compilador en símbolos gráficos impresos.

Detallaremos las distintas tecnologías que existen en el mercado:

14
Impresoras matriciales o de matriz de puntos: Es una de las más conocidas impresoras de
impacto. Los caracteres son muy parecidos a los de las impresoras térmicas, pero la impresión
de los mismos es diferente, ya que se realiza al incidir las agujas sobre una cinta entintada
(contenida en un cartucho) que se desplaza sobre el papel. Este cartucho una vez que se acaba
la cinta, podrá ser cambiado por otro.

Su velocidad de impresión oscila entre los 80 y 400 cps. Los caracteres son escritos durante el
movimiento del carro en ambos sentidos, aprovechando la fase de retorno. Esta técnica,
llamada escritura bidireccional, aumenta notablemente la velocidad de impresión.
Ventaja: Las impresoras matriciales permiten imprimir varias copias de una sola vez
(naturalmente las otras copias deberán tener una capa especial o deberemos poner entre medio
papel carbónico).

Desventajas: Tanto el carro como las agujas poseen movimiento, por lo que tienen una
mecánica compleja. Requieren así un mantenimiento periódico y, a la larga, la sustitución de
alguna que otra pieza. La calidad de impresión no es de las mejores. Para corregir este defecto,
algunas impresoras realizan dos pasadas en la escritura de cada línea, desplazando el papel
horizontalmente de forma que en la segunda pasada los nuevos puntos queden representados
en el espacio dejado entre los puntos de la primera. Este tipo de escritura es denominada near
letter quality o pseudo character quality. Este método tiene el inconveniente de necesitar el
doble de tiempo para realizar la misma labor. El ruido es tan grande que puede llegar a
molestar.

Actualmente las impresoras más utilizadas son: chorro a tinta y láser.

Impresoras de inyección o chorro de tinta: Utilizan una tecnología muy interesante y, a la


vez, un mecanismo sencillo. En este caso el elemento impresor está constituido por un tubo,
generalmente de cristal, con un pequeño orificio en el extremo, orientado hacia el papel. En este
tubo se halla la tinta que, al ser expulsada a través del orificio de forma continua, conforma el
carácter con el movimiento del elemento impresor.
Las impresoras color que responden a esta naturaleza se diferencian de las monocromáticas
desde el momento que hacen uso de cartuchos con tinta coloreada en lugar de negro. Los
colores son obtenidos mediante la conjugación de tintas cyan, amarillo, magenta y negro
(norma CMYK).
La resolución máxima soportada en la actualidad supera los 1200 X 1200 dpi y una velocidad
promedio de 30 páginas por minuto.

Ventajas: El nivel de ruido es nulo debido a la falta de elementos mecánicos que inciden sobre
el papel. La cosecha actual de estas impresoras ofrece texto con calidad cercana al láser y una
excelente salida de color que en algunos casos compite con la de las tecnologías más caras de
impresión velocidad obtenida es buena. Su costo se ha reducido bastante en los últimos
tiempos, por lo que resulta la compra aconsejada para hogares y oficinas.

Desventajas: No es posible obtener varias copias de una sola vez. La tinta es bastante cara. La
salida de la tinta puede obturarse, especialmente si no se imprime a menudo.

Impresoras Láser: Claramente, la tecnología predilecta para la impresión empresarial es la


láser. Es silenciosa, limpia y económica.

15
Hoy están casi al alcance de todos; por eso explicamos en profundidad los distintos aspectos de
la tecnología y analizamos la oferta en nuestro mercado.

Si consideramos todos los tipos de impresoras, en el extremo superior en cuanto a posibilidades


(y también en cuanto a precio) se hallan las impresoras láser. Las mismas son capaces de
realizar virtualmente cualquier tarea de impresión de manera impecable.

En primer lugar cabe destacar que si bien se utiliza el término genérico de impresoras láser,
algunas de ellas no se valen de haces láser. Sin embargo, todas ellas imprimen de una página,
por lo cual hay quienes las llaman simplemente impresoras de página.

En la actualidad, existen tres tecnologías utilizadas en las impresoras de página. Todas ofrecen
prestaciones similares, la misma resolución y velocidad de impresión.

La más frecuente es la láser, que adquirió popularidad en parte ante el éxito de los motores
Canon (mas pequeños que los hasta ese momento existentes, ofreciendo una performance
adecuada). En este tipo de impresoras, un láser diodo genera un haz que es reflejado en un
espejo poligonal rotatorio. De esta forma, el haz barre todo el ancho del tambor.

Una segunda tecnología hoy empleada es la de LEDs (Diodos Emisores de Luz). En ésta no se
utiliza una única fuente de luz sino un conjunto de miles de LEDs. A cada pixel de la línea de
impresión de 720 dpi (dots per inch = puntos por pulgada) le corresponde su propia lucecita que
se prende y se apaga a medida que el tambor gira, exponiéndose sólo una pequeña porción del
tambor para crear su parte de la imagen.

La tercera tecnología es la de cristal líquido (LCS). El proceso de impresión es un compromiso


entre los dos anteriores: si bien cuenta con una sola fuente de luz (generalmente de un
halógeno), cada pixel se controla por separado. En este caso también posee un conjunto de
shutters (persianas) de cristal líquido que se abren y se cierran para permitir que la luz llegue al
tambor.

La velocidad de impresión es uno de los factores más importantes que los usuarios toman en
consideración a la hora de elegir la impresora que mejor se ajuste a sus necesidades. Sin
embargo, no existe ningún estándar en el mercado para medir el rendimiento real de las
impresoras láser.

Se suele igualar la velocidad en la cual se imprime un documento a la velocidad del motor,


definido en páginas por minuto (ppm). La velocidad estimada del motor no es necesariamente
un indicador adecuado del tiempo que demora en imprimir un documento; sólo establece cual
es la velocidad en la que el motor puede mover el papel en la impresora.

Para obtener una visión más realista de la velocidad de


impresión, es necesario conocer el tiempo que transcurre
desde que se ejecuta un comando PRINT en la computadora
hasta que el documento está impreso en la bandeja de salida.
Una velocidad de motor de 16 ppm no es relevante si se
tardan 15 minutos en imprimir la primera página.

La velocidad real de impresión varía según el trabajo,


dependiendo del tamaño y complejidad del documento y del

16
software y hardware que se esté utilizando en el proceso de impresión.

1.3. PERIFÉRICOS DE ALMACENAMIENTO SECUNDARIO

Disco magnético
Un disco duro interno es un dispositivo de almacenamiento de información que utiliza un
sistema de grabación magnética para almacenar datos digitales que se encuentra dentro de
cualquier ordenador de sobremesa o portátil.
A diferencia de los discos duros externos, es una unidad interna que debe permanecer en el
cuerpo del dispositivo a utilizar, mientras que los primeros se conectan por cable bus serie
universal (USB). Ésta es su principal diferenciación, además del precio, que suele ser menor y
en los equipos prefabricados ya viene incluido.

Tipos de discos duros internos

Discos FB (Fiber Channel) El canal de fibra es una tecnología de red que se puede encontrar a
velocidades de 1, 2, 4 y 8 Gbit/s. Suele ser utilizado en almacenamiento para el ámbito
empresarial.
SATA (Serial ATA) SATA es “Serial Advanced Technology Attachment” o “Tecnología Avanzada
Adjunta Serial”. Se trata de un dispositivo electromecánico capaz de almacenar y leer grandes
cantidades de información a alta velocidad por medio de electroimanes que se encuentran
sobre un disco cerámico cubierto de limadura magnética.
Tiene arquitectura punto a punto, lo que quiere decir que la conexión entre el dispositivo y el
puerto es directa.
SCSI (Small Computers System Interface) Los discos duros internos SCSI (o Interfaz de Sistema
para Pequeñas Computadoras) cuentan con una interfaz estándar para transferir datos entre
distintos dispositivos del bus de la computadora. Aportan mayor duración, fiabilidad y menor
tasa de transferencia de datos. Se suelen utilizar en servidores y estaciones de trabajo con alto
rendimiento y entornos profesionales.
SAS (Serial attached SCSI) Un disco duro SAS es un dispositivo electromecánico capaz de
almacenar y leer grandes cantidades de información a alta velocidad con electroimanes que se
encuentran en un disco recubierto de ligadura magnética que se suele utilizar en servidores y
para guardar información de grandes empresas, al contrario que los SATA o IDE que son más
para los hogares.
Los discos SAS tienen mejor rendimiento en condiciones de estrés, aportan una mayor
fiabilidad en usos intensivos y consumen menos energía que los SATA, pero también son más
caros. Fueron creados para ser el reemplazo de los SCSI.
¿Magnéticos o SSD?
Los discos duros magnéticos son los discos duros tradicionales que permiten almacenar datos
de forma habitual para poder acceder a ellos cuando se necesita. Se componen por un conjunto
de discos, uno encima del otro, unidos por un eje.
En cada plato y en cada una de sus caras, un cabezal de lectura/escritura lee o graba tus datos
sobre los discos.
Cuanto más finos sean los discos mejor será la grabación, y cuanto más rápido giran a mayor
velocidad se transmiten los datos, tanto a la hora de leerlos como al escribirlos
En cuanto al tamaño, las cajas de los discos duros mecánicos pueden ser de 2,5" o de 3,5". Su
precio puede variar dependiendo de este tamaño, pero sobre todo de su capacidad de

17
almacenamiento. De hecho, la gran ventaja de estos discos duros con respecto a los SSD es
que son bastante más económicos.

Los discos duros SSD (Solid State Drive) son más rápidos que los convencionales ya que
tienen un acceso mucho más rápido a los datos. Se caracterizan por ser sólidos, lo que aporta
un menor desgaste, menor calor y ausencia de ruidos. Su estructura de disco es una placa de
circuitos con componentes fijos y chips de memoria.
Las unidades de estado sólido o SSD (Solid State Drive) son una alternativa a los discos duros.
La gran diferencia es que mientras los discos duros utilizan componentes mecánicos que se
mueven, las SSD almacenan los archivos en microchips con memorias flash interconectadas
entre sí. Por lo tanto, casi podríamos considerarlos como una evolución de las memorias USB.
Los SSD suelen utilizar memorias flash basadas en NAND, que como también son no-volátiles
mantienen la información almacenada cuando el disco se desconecta. No tienen cabezales
físicos para grabar los datos, en su lugar incluyen un procesador integrado para realizar
operaciones relacionadas con la lectura y escritura de datos.
Estos procesadores, llamados controladores, son los que toman las "decisiones" sobre cómo
almacenar, recuperar, almacenar en caché y limpiar los datos del disco, y su eficiencia es uno
de los factores que determinan la velocidad total de la unidad. Además, al no depender del giro
de un componente físico, también se logra una unidad más silenciosa que los discos
mecánicos.
En cuanto al tamaño, estos discos suelen ser de 2,5", y tienen un diseño casi idéntico al de los
discos duros mecánicos, lo que ayuda a que puedan encajar en las mismas carcasas y ranuras
donde van montados los discos duros convencionales en un ordenador.

Velocidad de los discos duros internos

La velocidad de este tipo de discos puede ir de los 133 mb/a a los 8 gbits/s, aunque los que
tienen una mayor velocidad suelen ser utilizados para un entorno más profesional debido a su
alto precio.
Las velocidades para un entorno doméstico pueden ir de las 5.400 a las 10.000 revoluciones
por minuto, aunque las más habituales son las 7.200 rpm. Los discos SAS pueden llegar a las
15.000 rpm.

Interfaz de discos duros internos

Una interfaz se refiere al punto de conexión entre dos componentes. En el caso de los discos
duros estamos acostumbrados a hablar de IDE, SATA o USB, aunque también hay otras hasta
ahora minoritarias como eSATA, Firewire o Thunderbolt.

Lo más habitual en los discos duros multimedia actuales es que utilicen discos duros
tradicionales con interfaz SATA2, o SATA3 en los modelos más modernos. Reproduciendo
contenido en alta definición, estas interfaces sirven un ancho de banda más que suficiente para
las labores de reproducción multimedia.

Pero no sólo la interfaz marca el límite. Por muy rápida que ésta sea, el disco duro debe estar
también a la altura. Si por ejemplo estamos utilizando en SATA3 (6 Gbps, unos 768 MB/s) un
disco duro antiguo que trabaje a 50 MB/s, nuestros datos se moverán a esos 50 MB/s. Si nos
remontamos un poco más allá y por ejemplo re utilizamos un viejo disco duro SATA1 que se
mueva a 15 MB/s, quizá tengamos problemas en la reproducción.

18
En esta entrada vamos a mostrar las principales interfaces del mercado y sus características
más importantes mediante una tabla comparativa. Indicaremos el ancho de banda de cada
interfaz y su velocidad de transferencia correspondiente, un aspecto fundamental si se quiere
reproducir cierto tipo de contenido.

Año Ancho de Velocidad Longitud Corriente


banda teórica máxima máxima del transmitida
soportado (Bytes/s) cable
(bits/s)

USB 1.0 1996 12 Mbps 1.5 MB/s 3m Sí, desconocida

USB 2.0 2000 480 Mbps 60 MB/s 5m 2.5 W, 5 V

USB 3.0 2008 5 Gbps 640 MB/s 3m 4,5 W, 5 V

eSATA 2004 3 Gbps 384 MB/s 1 o 2m no

eSATAp 2008 3 Gbps 384 MB/s 1 o 2m 5-12 V

SATA 2003 1.5 Gbps 192 MB/s 1m no

SATA2 2005 3 Gbps 384 MB/s 1m no

SATA3 2009 6 Gbps 768 MB/s 1m no

19
Capacidad de los discos duros internos

La capacidad de los discos duros internos es muy variada, pudiendo llegar actualmente a
sobrepasar los 6 terabytes (TB).

HDD vs SSD: principales diferencias

SSD HDD
PRINCIPALES
VENTAJAS

CAPACIDAD En general entre 256 GB y 4 TB En general entre 1 y 10 TB

CONSUMO Menor consumo Mayor consumo

COSTE Bastante más caros Mucho más económicos

RUIDO Más silencioso por no tener Algo más ruidoso por tener partes
partes móviles móviles

VIBRACIONES No vibra por no tener partes El giro de sus discos puede


móviles provocar leves vibraciones

FRAGMENTACIÓN No tiene Puede darse

20
DURABILIDAD Sus celdas pueden reescribirse Con partes mecánicas que pueden
un número limitado de veces dañarse con movimientos

TIEMPO DE 7 segundos 16 segundos

ARRANQUE DE SO

TRANSFERENCIA En general, entre 200 y 550 MB/s En general entre 50 y 150 MB/s

DE DATOS

AFECTADO POR EL No El magnetismo puede eliminar

MAGNETISMO datos

En esta tabla podrás ver cuales son las principales diferencias entre ambas tecnologías de
almacenamiento. La principal diferencia tiene que ver con capacidades máximas y precio.

El PenDrive
También llamado memoria USB (Universal Serial Bus) es un tipo de dispositivo de
almacenamiento de datos que utiliza memoria flash para guardar datos e información.
Las empresas Trek Technology e IBM comenzaron a vender las primeras unidades de memoria
USB en el año 2000. Trek vendió un modelo bajo el nombre comercial de Thumbdrive e IBM
vendió las primeras unidades en Norteamérica bajo la marca DiskOnKey, desarrolladas y
fabricadas por la empresa israelí M-Systems en capacidades de 8 MiB, 16 MiB, 32 MiB y
64 MiB. Estos fueron promocionados como los «verdaderos reemplazos del disquete», y su
diseño continuó hasta los 256 MiB. Los modelos anteriores de este dispositivo utilizaban
baterías, en vez de la alimentación de la PC.
Posteriormente se evoluciono a una segunda generación de dispositivos con conectividad a
través de la norma USB 2.0.
Las velocidades de transferencia de archivos varían considerablemente. Se afirma que las
unidades rápidas típicas leen a velocidades de hasta 480 Mbit/s y escribir a cerca de la mitad de
esa velocidad. Esto es aproximadamente 20 veces más rápido que en los dispositivos USB 1.1,
que poseen una velocidad máxima de 24 Mbit/s.

21
La norma USB 3.0 ofrece tasas de cambio de datos mejoradas enormemente en comparación
con su predecesor, además de compatibilidad con los puertos USB 2.0. La norma USB 3.0 fue
anunciada a finales de 2008, pero los dispositivos de consumo no estuvieron disponibles hasta
principios de 2010. La interfaz USB 3.0 dispone las tasas de transferencia de hasta 4,8 Gbit/s,
en comparación con los 480 Mbit/s de USB 2.0. A pesar de que la interfaz USB 3.0 permite
velocidades de datos muy altas de transferencia, a partir de 2011 la mayoría de las unidades
USB 3.0 Flash no utilizan toda la velocidad de la interfaz USB 3.0 debido a las limitaciones de
sus controladores de memoria, aunque algunos controladores de canal de memoria llegan al
mercado para resolver este problema. Algunas de estas memorias almacenan hasta 256 GiB de
memoria (lo cual es 1024 veces mayor al diseño inicial de M-Systems).
Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica
procedente del puerto USB. Estas memorias son resistentes a los rasguños (externos), al polvo,
y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento
portátil, como los disquetes, discos compactos y los DVD.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de
datos más utilizado. Se pueden encontrar en el mercado fácilmente memorias de 8, 16, 32, 64,
128, 256, 512 GB, y hasta 1 TB.

1.4. COMPUTADORAS PERSONALES PORTÁTILES

Un ultrabook es en realidad un notebook liviano y delgado, pero con una aceptable capacidad
de procesamiento para ser verdaderas estaciones de trabajo, a diferencia de los "netbooks",
que también son notebooks pequeños, pero de escasa capacidad, más pensados para navegar
de manera casual por Internet o realizar tareas simples.

La idea es ofrecer un notebook muy liviano y delgado, con una capacidad sobresaliente en
cuanto a su poder y duración de la batería. Esto suena muy parecido a lo que ofrecen algunas
tablets, pero la verdad es que aún no pueden reemplazar a un PC convencional para muchas
tareas más complejas o de mayor demanda.

Como concepto fue introducido por Intel durante el año 2011, y se planteó como la siguiente
generación de computadoras portátiles de alto rendimiento.

Es parte de la estrategia de fabricantes de piezas para computadoras de tal manera de hacer


frente a la amenaza de las tablets como el iPad, por lo que además los ultrabooks integran
algunas de sus características.

De manera técnica, las especificaciones han ido evolucionando, pero de manera general su
grosor va entre los 18 y 23 milímetros (dependiendo de la pantalla, 18 para las menores a 13,3
pulgadas y 21 o más para las más grnades), una duración de por lo menos 5 horas de batería, y
sólo unos segundos para recuperar el sistema tras una hibernación. El sistema de
almacenamiento interno es "sólido", es decir en base a memoria tipo flash para un mejor
desempeño y menor peso.

22
NOTEBOOKS Y NETBOOKS

Una notebook por lo general incluye un potente procesador y memorias de gran capacidad, ya
que cuenta con una serie de componentes similares a los que utiliza una computadora de
escritorio.

En el caso de las notebooks, los elementos de hardware han sido fabricados con materiales
especiales, que permiten lograr un tamaño físico significativamente menor que aquellos
componentes que incluyen las PCs de escritorio.
Por lo general, una notebook de buena calidad incluye un procesador de bajo consumo, un
disco rígido de 2,5 pulgadas o menor, uno o más módulos de memoria RAM del tipo SO DIMM,
placa de video, además por supuesto de su pantalla TFT o WXGA integrada, teclado y
touchpad o trackpad.

Por el contrario, en el caso de las netbooks, están han sido concebidas con el fin de ofrecer un
tipo de computadora portátil de bajo costo y tamaño reducido, con el objetivo de brindar un
equipo altamente transportable para la realización de tareas básicas desde cualquier lugar.

Como su nombre lo indica, es el equipo adecuado para navegación por Internet, aunque
también permiten realizar algunos trabajos básicos, tales como lectura de PDF, y correr
aplicaciones como procesadores de textos y hojas de cálculos.
En cuanto a la autonomía que brindan ambos equipos, cabe destacar que por lo general las
netbook poseen baterías más pequeñas que las que incluyen las notebooks, por lo cual no
logran soportar más de tres horas de uso continuo del equipo, punto que en las notebooks es
claramente una ventaja, ya que en la mayoría de los modelos más modernos permiten obtener
una autonomía realmente superior.
Una notebook incluye por lo general memoria RAM de gran capacidad, placa de video, un
potente microprocesador, entre otros componentes de hardware, que nos permiten utilizar
sofisticadas y modernas aplicaciones.
Por su parte, la mayoría de las netbook, que han sido pensadas para ofrecer un equipo
totalmente ligado a la conectividad, cuentan con webcam incorporada, puerto USB, Bluetooth,
conexión Wi-Fi, lector de tarjetas de memoria extraíbles, parlantes y micrófonos, ofreciéndonos
de esta manera un completo equipo portátil para mantenernos permanentemente conectados a
al a red.
Al tratarse de equipos más pequeños, las netbooks poseen un peso realmente inferior al de
cualquier notebook, por lo que su ventaja más notable es la verdadera portabilidad que ofrece.

Ipad: El iPad es un dispositivo electrónico tipo tablet desarrollado por Apple Inc. Anunciado el
27 de enero de 2010, se sitúa en una categoría entre un "teléfono inteligente" (Smartphone) y
un portátil, enfocado más al acceso que a la creación de contenido.

Las funciones son similares al resto de dispositivos portátiles


de Apple, como es el caso del iPhone o iPod touch, aunque la
pantalla es más grande y su hardware más potente. Funciona
a través de una NUI (Interfaz natural de usuario) sobre una
versión adaptada del sistema operativo iOS.[2] [3] Esta interfaz
de usuario esta rediseñada para aprovechar el mayor tamaño
del dispositivo y la capacidad de utilizar software para lectura
de libros electrónicos y periódicos, navegación web y correo
electrónico, además de permitir el acceso al usuario a otras
23
actividades de entretenimiento como películas, música y videojuegos.[4] Posee una pantalla con
retroiluminación LED y capacidades multitáctiles de 9,7 pulgadas (24,638 cm), de 16 a 64
gigabytes (GB) de espacio en memoria flash, Bluetooth, y un conector dock de 30 pines que
permite la sincronización con el software iTunes además de proporcionar conexión para
diversos accesorios.[5] Existen dos modelos: uno con conectividad a redes inalámbricas Wi-Fi
802.11n y otro con capacidades adicionales de GPS y soporte a redes 3G (puede conectarse a
redes de telefonía celular HSDPA). Ambos modelos pueden ser adquiridos en tres capacidades
de almacenamiento distintas.

iPhone: El iPhone es un teléfono inteligente multimedia con conexión a Internet, pantalla táctil
capacitiva (con soporte multitáctil) y una interfaz de hardware minimalista de la compañía Apple
Inc..

Ya que carece de un teclado físico, contiene uno virtual en la pantalla táctil en orientación tanto
vertical como apaisada. El iPhone 3GS dispone de una cámara
de fotos de 3 megapíxeles y un reproductor de música
(equivalente al del iPod) además de software para enviar y recibir
mensajes de texto y mensajes de voz. También ofrece servicios
de Internet como leer correo electrónico, cargar páginas web y
conectividad por Wi-Fi. La primera generación de teléfonos eran
GSM cuatribanda con la tecnología EDGE; la segunda
generación ya incluía UMTS con HSDPA.

El iPhone se introdujo inicialmente en los Estados Unidos el 29 de junio de 2007. Fue nombrado
«Invento del año» por la revista Time en el 2009.[4] El 11 de julio de 2008 el iPhone 3G salió a la
venta, estando disponible en 22 países[5] y se prevé que sean 70 para finales de año. Esta
versión soporta la transmisión de datos por 3G a una velocidad más rápida y tecnología AGPS.

Para el evento WWDC'09 se presentó el iPhone 3GS (S de Speed, velocidad), presentando el


mismo diseño que el 3G, pero completamente renovado por dentro. El iPhone 3GS es hasta
dos veces más rápido que su predecesor cargando páginas web o ejecutando aplicaciones,
saca partido del estándar OpenGL ES 2.0 para ofrecer mejores gráficos 3D, soporta HSDPA a
7,2 MB (también conocido como 3.5G), cuenta con una nueva cámara de 3 megapíxeles con
enfoque automático y grabación de vídeo, control por voz, brújula y soporte integrado para el
Nike+iPod.

Mientras que el día 7 de junio de 2010 en la WWDC'10 Apple presentó el iPhone 4, con un
diseño renovado, tanto estéticamente al abandonar su estética redondeada, como en el
Hardware. Contiene el procesador Apple A4, creado por Intrensity y Samsung, aunque
posteriormente comprado por Apple, que es el mismo que contiene el iPad, 512 MiB de
memoria RAM, una panel de alta resolución apodado por Apple Retina Display, 2 cámaras, una
de 5 megapíxeles con opción de grabar en HD 720p y la otra VGA.

Tablet

Una tableta, en muchos lugares también llamada Tablet (del inglés: tablet o tablet computer),
es una computadora portátil de mayor tamaño que un teléfono inteligente , integrada en
una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o

24
un estilete (pasivo o activo), sin necesidad de teclado físico ni ratón. Estos últimos se ven
reemplazados por un teclado virtual y, en determinados modelos, por un mini trackball o "bola
de seguimiento" integrada en uno de los bordes de la pantalla.
El término puede aplicarse a una variedad de formatos que difieren en el tamaño o la posición
de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (Slate),
habitualmente de 7 a 12 pulgadas, y carece de teclado integrado aunque puede conectarse a
uno inalámbrico (por ejemplo, Bluetooth) o mediante un cable USB (muchos sistemas
operativos reconocen directamente teclados y ratones USB).
Las minitabletas son similares pero de menor tamaño, frecuentemente de 7 a 8 pulgadas. Otro
formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra
o se desliza debajo de la pantalla, pudiéndose manejar como un portátil clásico o bien como
una tableta. Lo mismo sucede con los aparatos de formato híbrido, que disponen de un teclado
físico pero pueden separarse de él para comportarse como una pizarra.
Los tabléfonos son teléfonos inteligentes grandes y combinan las características de estos con
las de las tabletas, o emplean parte de ambas.
Las utilidades de las tabletas son.
● Lectura de libros electrónicos
● Lectura sin conexión de páginas web (p. ejemplo, con el navegador Opera).
● Lectura de cómics
● Consulta y edición de documentos de suites ofimáticas
● Navegación web (mediante Wi-Fi, USB o 3G interno).
● Llamadas telefónicas, si son 3G, sustituyendo así al teléfono móvil; se suele utilizar un
manos libre bluetooth.
● GPS
● Reproducción de música
● Visualización de vídeos y películas, cargadas desde la memoria interna, memoria o
disco duro USB o Wi-Drive y con salida mini-HDMI.
● Cámara fotográfica y de vídeo HD
● Videoconferencia
La tableta funciona como una computadora, solo que más ligera en peso y más orientada
al multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que
pueda leerse una memoria o disco duro externo USB, debe contar con USB On-The-Go,
también denominado USB Host.

Ejercicio 2:

Realice un cuadro comparativo sobre los nuevos dispositivos de medios, ventajas, desventajas
y utilización de los mismos en Argentina (tendencias)

25
2. SOFTWARE

2.1. CONCEPTO Y CLASIFICACION DEL SOFTWARE

2.1.1. Conceptos de software

El software, también llamado programa (informático) o aplicación, es una de las partes


fundamentales de cualquier computadora o sistema de cómputo tales como PCs de escritorio,
netbooks, notebooks, teléfonos inteligentes o tablets. Sin estos programas, la computadora no
sería más que un aparato decorativo.

Es por ello, que para que cualquiera de los dispositivos mencionados pueda funcionar, es
necesario que el hombre le dé instrucciones. Este conjunto de instrucciones agrupadas en
programas, constituye el llamado SOFTWARE que es pensado y realizado por el hombre.
De ahí que podamos equiparar el sistema informático con un triángulo equilátero, en cuyos
vértices se encuentran: el hardware o equipo físico, el software o conjunto lógico, y el hombre o
elemento coordinador, los tres elementos de igual importancia para decidir el rendimiento de
cualquier proyecto informático.

En consecuencia decimos que la característica fundamental de una computadora -o tablet, o


teléfono, etc.- es la posibilidad de almacenar en su memoria programas que pueden modificarse
y ejecutarse automáticamente. Pero esa ejecución automática implica que existan otros
programas que permitan a la máquina coordinar el que varios programas puedan ejecutarse,
bien en un orden preestablecido, ó secuencialmente ó simultáneamente, de forma tal que el
usuario no tenga que preocuparse de ello.
Esto es el software también denominado “el componente lógico del sistema informático”.

En un sentido amplio, el Software es el conjunto de programas asociados a un computador que


le indica que es lo que debe hacer; sin el cual, el Hardware carecería de sentido.

2.1.2. Tipos o clases de software

El software lo podemos clasificar en dos grandes grupos:


Existen dos principales tipos de software disponible en el mercado para el usuario de
computadoras:
• Software de Base
• Software de Aplicación

1) Software de Base: es el conjunto de programas proporcionados por los fabricantes de


computadoras o por empresas de software especializadas, que facilitan al usuario una
operación eficiente del equipo. Dentro de este grupo se encuentran los sistema operativos,
programas utilitarios y los lenguajes de programación.

2) Software de Aplicación: también llamado específico, puesto que como su nombre lo indica,
está constituido por programas confeccionados para fines determinados, como ser
procesamiento de texto, contabilidad, científicos, de control de gestión, etc.

26
2.1.3. Software Libre

El concepto de "Software Libre" se refiere al derecho irrestricto de ejecutar, copiar, distribuir,


estudiar, cambiar y mejorar el software. Para ejercer estas libertades, el acceso al código fuente
es una precondición.

Según la Fundación para el Software Libre (http://www.gnu.org/philosophy/free-sw.es.html), un


programa es software libre si los usuarios tienen las cuatro libertades esenciales:

▪ La libertad de ejecutar el programa como se desea, con cualquier propósito (libertad 0).
▪ La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que
usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para
ello.
▪ La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
▪ La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto
le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las
modificaciones. El acceso al código fuente es una condición necesaria para ello.

De René Mérou - http://es.gnu.org/~reneme/map/es/, CC BY-SA 3.0,


https://commons.wikimedia.org/w/index.php?curid=8903504

Cuando los usuarios no pueden controlar el programa se dice que el software no es libre, sino
privativo o propietario. Para utilizar tales programas y/o sistemas, es menester comprar (en

27
realidad, meramente licenciar) el derecho correspondiente al "propietario" de ese software, so
pena de violar las leyes que protegen la propiedad intelectual y/o el derecho de autor.

Las consecuencias legales de las infracciones a las citadas leyes difieren en las diversas
legislaciones nacionales, pero en casi todas son importantes, tanto en el orden civil como en el
penal.

A través de la restricción explícita que los contratos de licenciamiento imponen al usuario


respecto del acceso al código fuente, las compañías desarrolladoras de software propietario
obligan de hecho a los usuarios a contratar permanentemente todas las actualizaciones y
mejoras de los programas y/o sistemas, lo que origina grandes erogaciones presupuestarias.

Los sistemas operativos y programas de aplicación de software libre son múltiples y variados y
abarcan las más corrientes necesidades de los usuarios. Están siendo permanentemente
perfeccionados a través de la interacción de quienes los usan, quienes pueden modificarlos y
adaptarlos fácilmente a sus necesidades.

Se plantea así una alternativa válida para aquellos que aspiran a utilizar sistemas y programas
informáticos eficaces, seguros y estables sin la amenaza de sanciones legales por su uso no
autorizado. Para ello, es necesario que la utilización y el mantenimiento del software no
dependan de la buena voluntad de los proveedores, ni de las condiciones monopólicas,
impuestas por éstos. Se precisan sistemas cuya evolución pueda ser garantizada gracias a la
disponibilidad del código fuente.

En la administración pública argentina, varias dependencias empezaron a usar Linux en los


últimos años para cubrir necesidades y tapar los huecos que deja la falta de recursos
económicos. Sin ir más lejos, la página Web de la Presidencia de la Nación fue desarrollada con
software libre. Otro de los ejemplos es el de Brasil, donde se pretende que al menos el 80 por
ciento de las computadoras que el Estado compre el año próximo tengan software libre.

En Córdoba, desde el año 2000 actúa la Fundación Vía Libre (www.vialibre.org.ar) cuyo objetivo
es el de difundir el uso del software libre y prestar asistencia técnica a quienes deseen
utilizarlo, en particular a Pequeñas y Medianas Empresas, Organizaciones No
Gubernamentales, Organismos o Dependencias del Estado, Entidades de Bien Público, etc.
También el Grupo de Usuarios de GNU/Linux de Córdoba (GRULIC- www.grulic.org.ar/) tiene
una lista de soporte muy activa, además de organizar ferias de demo de tecnología, festivales
de instalación y reuniones de solución de problemas técnicos.

Software Libre y Universidades

Desde el año 2000 la Universidad Nacional de Córdoba sigue una política de uso de software
libre y apoyo a proyectos de software libre. Esto se traduce en un uso intensivo de software
libre en la infraestructura de servicios, lo que incluye, uso del Sistema operativo GNU/Linux en
todos los servidores, el Servidor de Web Apache, cortafuegos basados en Linux y
la Plataforma educativa Moodle para las aulas virtuales de las unidades académicas.

28
Cabe aclarar que Software Libre no es sinónimo de Software Gratuito. Este último término
específicamente significa que tiene precio cero, y la filosofía del Software Libre es cuestión de
libertad, no de precio. Las copias de Software libre frecuentemente están libres de cargo, pero
también están disponibles por un precio de descarga. El concepto erróneo se debe básicamente
a que en inglés el término free significa tanto libre como gratuito.

Con el Software Libre se permite al usuario el control, corrección y modificación del programa
para adecuarlo a sus necesidades. Para el caso del Software Propietario, el usuario está
habilitado para ejecutar un programa, pero no necesariamente para inspeccionarlo ni
modificarlo, entonces no puede aprender de él, se vuelve dependiente de una tecnología que no
sólo no comprende sino que le está expresamente vedada. Los profesionales técnicos locales,
que podrían ayudarlo a alcanzar sus metas, están igualmente limitados: como el funcionamiento
del programa es secreto y su inspección está prohibida, no es posible la asistencia técnica. Con
el Software Libre esto no ocurre y, por lo tanto, se estarían ampliando las posibilidades
laborales de profesionales informáticos y fomentando el desarrollo local y la creatividad.
Además, el trabajo cooperativo que existe tras el desarrollo del Software Libre genera productos
en muchos casos más confiables que los Propietarios. El hecho de que toda la comunidad
trabaje unida para arreglar los problemas deriva en que los usuarios no sólo informan los
errores, sino que incluso los arreglan y envían los arreglos al resto de los usuarios.

Por otra parte, con el empleo de Software Libre se elimina la posibilidad de utilización de
Software ilegal, que atenta contra los derechos de propiedad intelectual.

2.2. SISTEMAS OPERATIVOS

2.2.1. Concepto

El sistema operativo es desde un primer momento, compañero inseparable de los usuarios de


computadoras. Pero no todos los usuarios saben con exactitud qué es y cuáles son sus
posibilidades.

Las computadoras son en sí un enmarañado conjunto de circuitos, plaquetas y otros


componentes que posibilitan su funcionamiento. Poner toda esa masa electrónica en marcha
requiere de una serie muy compleja de instrucciones y procedimientos que harían inaccesible la
computación a los usuarios neófitos. Sería necesario ser un experto para lograr la más simple
de las operaciones en una computadora.

Los sistemas operativos son conjuntos de programas interrelacionados que controlan el


funcionamiento automático del equipo. Son programas internos de la máquina, para la ejecución
de determinadas órdenes. Esta serie de programas facilitan y optimizan los recursos de un
computador, minimizando la intervención externa.

En la actualidad el usuario no tiene por qué saber cómo gestiona el computador la memoria o
los discos, o cómo recibe los datos; lo único que pretende es utilizar el sistema de la manera
más sencilla para obtener resultados. Para este propósito sirven los sistemas operativos, los
cuales permiten encadenar trabajos, conectar y manejar los periféricos, proporcionar protección
contra errores, gestionar la utilización de memoria, etc.

Digamos simplemente que el sistema operativo es el traductor entre el equipo y el hombre. Si


no hubiera sistema operativo, el usuario tendría que dominar todos los códigos internos de la

29
máquina para hacerla funcionar. Y como cada fabricante hace una máquina distinta, imagínense
lo que sería operar una computadora sin este tipo de programa. Por ello decimos que un
sistema operativo no es más que un conjunto de programas y rutinas que asumen el control de
todas las operaciones de la máquina y permiten que el usuario se pueda entender con ella a
través de de comandos e instrucciones relativamente sencillas. Esto va desde cargar archivos
desde cualquier medio de almacenamiento, almacenar información en él, copiar o borrar datos,
recibir mensajes en pantalla, ejecutar un programa, etc. Pero aún más, el sistema operativo
estandariza máquinas diferentes (por supuesto con características similares) y permite la
utilización común del software.

2.2.2. Funciones del sistema operativo

¿Qué pasa cuando encendemos nuestra computadora?


Inmediatamente después de encender nuestra computadora, comienza automáticamente a
ejecutarse un programa interno (grabado en la memoria ROM) cuya función es:
• Ejecutar una revisión sobre la memoria y todos los periféricos que componen el equipo, para
ver si se encuentran operativos.
• Convocar el sistema operativo desde el dispositivo que se le indique y hacerlo residente en
memoria RAM.

Es entonces cuando viene en nuestro auxilio el sistema operativo, permitiéndonos fácilmente


manejar nuestra computadora sin otra preocupación que saber lo que queremos lograr y cuál es
la acción que nos permite lograrlo.

El sistema operativo es, entonces, el programa o conjunto de programas entregados y


confeccionados por el fabricante de la máquina para permitir y facilitar las tareas del usuario.

Hoy en día, los sistemas operativos que se proveen para computadoras están incorporando
mayores y mejores recursos tendiendo a hacer cada vez más simple el trabajo para aquellos
usuarios que utilicen la computadora.

2.2.2.1. Tareas básicas del sistema operativo

a) Administrar el uso del microprocesador


Es decir que organiza, mediante un algoritmo, cómo se distribuirá el procesador entre
los distintos programas.
La función que realiza el SO como administrador, consiste básicamente en planificar y
controlar el tráfico de procesos que se ejecutan.

b) Administrar el uso de la memoria


Está referida a la asignación de memoria física (RAM) a los distintos procesos que van a
ejecutarse. Cuando se ejecuta un solo proceso no hay inconveniente, el problema surge
cuando se ejecutan varios procesos al mismo tiempo en cuyo caso la memoria debe ser
compartida y debe asignarse una porción de la misma a cada tarea.

c) Administrar las unidades de Entrada/Salida

30
Las operaciones de entrada/salida no son realizadas por el procesador central sino por
los procesadores de E/S esto posibilita que la CPU siga realizando operaciones. El
sistema operativo se comunica con estos canales con instrucciones específicas.

d) Administrar los archivos de información


Se encarga de todo lo relacionado con el almacenamiento físico de los archivos, por ej.
la asignación de espacio, formas de almacenamiento, protección y administración de
archivos compartidos etc.

2.2.2.2. Esquematización de funciones

El estudio de los sistemas operativos suele dividirse en funciones jerárquicas, que van desde
niveles muy cercanos a la máquina misma hasta niveles más “virtuales”, en el sentido de que
tratan a la computadora ya no como una máquina (dotada de procesador, memoria, etc.), sino
como un esquema diseñado para manejar información.

Esta es una idea fundamental: un sistema operativo convierte a una máquina computadora
“real” en una computadora “virtual”, que es capaz de hacer cosas cualitativamente diferentes a
las de su contraparte física.

El esquema que suele seguirse para el estudio de los sistemas operativos recibe el nombre de
“modelo de cebolla”, debido a que está formado por “capas concéntricas” alrededor de un
núcleo, en forma similar a la de una cebolla.

La parte interna del conjunto jerárquico de programas que forma un sistema operativo recibe el
nombre de núcleo o kernel (en inglés). Algunas de las otras capas se encargan del manejo de la
memoria, del manejo del procesador, del manejo de los dispositivos de entrada/salida, del
manejo de archivos, etc.

Las funciones del núcleo consisten en tomar control del procesador y determinar cuándo y
cómo se le va a repartir entre diversos usuarios.

Aparece entonces el concepto de “multiprogramación” o ejecución simultánea de varios


programas en el computador, en función de los recursos disponibles (memoria, procesador,
periféricos) en un determinado momento.
El siguiente paso consiste en conectar varios ordenadores, con lo que el sistema operativo pasa
a controlar el “multiproceso”.

Otra mejora de explotación de los equipos aparece con el “tiempo real”, gracias al cual el
usuario puede obtener respuesta inmediata a su problema. Esta característica permite al
usuario disponer de todo el ordenador, por lo que el sistema operativo se perfecciona para
lograr minimizar los tiempos de respuesta para lograr el “tiempo compartido” de la explotación
de un solo ordenador por varios usuarios.
El sistema operativo por lo general reside en un dispositivo de almacenamiento en línea y cada
vez que se enciende la máquina, se convoca a la memoria.

31
2.2.3. Evolución de los sistemas operativos

El concepto de Sistema Operativo data de la década de los 50. Se puede considerar al primer
Sistema Operativo de la historia al creado en 1956 para un ordenador IBM 704, básicamente lo
único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.

En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema
en tiempo real.

Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas
Operativos que existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos


al público general de manera impensable hasta entonces. Esto hace que se multiplique el
desarrollo, creándose el lenguaje de programación C (diseñado específicamente para reescribir
por completo el código UNIX).

Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin
ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a
la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras
interfaces de usuario.

En los 80 nacieron sistemas como CPM, Mac OS, MS-DOS y, hacia el final de dicha década, las
primeras versiones de Windows.

El UNIX, surgido en los ´60, es considerado universalmente como el máximo exponente de


comodidad para el programador. Desde hace unos años se está popularizando, sobre todo en el
ambiente universitario la implementación de una versión más simplificada del UNIX denominada
LINUX que funciona muy aceptablemente en redes de computadoras y como plataforma para
INTERNET.

Linux fue concebido por un finlandés de 21 años llamado Linus Torvalds estudiante de la
universidad de Helsinki, quien comenzó trabajando sobre los fuente de Minix (un pequeño UNIX
desarrollado por Andy Tenembaum) para lograr un Unix mínimo, capaz de correr un shell y un
compilador por lo menos.

Actualmente GNU-Linux lo sigue desarrollando, pero a estas alturas el principal autor es la red
Internet, desde donde un gigantesco grupo de programadores y usuarios aportan su tiempo y
ayuda, tanto al núcleo Linux como al resto de las aplicaciones.

Linux es una muy buena alternativa frente a los demás sistemas operativos. Más allá de las
ventajas evidentes de costo, ofrece algunas características muy notables.

En comparación con las otras versiones de Unix para PC, la velocidad y confiabilidad de Linux
son muy superiores. También está en ventaja sobre la disponibilidad de aplicaciones, ya que no
hay mucha difusión de estos otros Unix (como Solaris, XENIX o SCO) entre los usuarios de PC
por sus altos costos.

32
A diferencia de IBM que adoptó el sistema operativo de otra firma, Microsoft, Apple desarrolló
su propio sistema operativo para su equipo Macintosh, de gran avanzada, y con una
complejidad menor a la de cualquier otro sistema, cubriendo todas las necesidades previstas
por su equipo.

Pero, sin lugar a duda el mayor desafío de Microsoft ha sido la implementación del sistema
operativo WINDOWS, que ha tenido una gran aceptación en el mundo informático y del cual nos
ocupamos en el próximo capítulo.

Desde las primeras versiones como la 3.1, el Windows 98, el Windows XP o el Windows NT
(muy útil para los administradores de redes y con una gran cantidad de servicios de red para la
época) hasta las últimas como Windows 7, Windows 8 y Windows 10, la empresa Microsoft ha
dominado el mercado mundial de computadoras personales, con más del 90% del mercado.

El Sistema Operativo Mac OS no fue la primera interfaz gráfica, pero fue la primera con gran
éxito por su accesibilidad de precio. El nombre de esta Apple fue un capricho de Steve Jobs por
su hija.
Su evolución arranca en 1984 con el Sistema 1 hasta 1990 con el Sistema 7, pasa luego a
comercializarse como Mac OS 8, Mac OS 9 y Mac OS X, en sus múltiples versiones. La
empresa Apple Inc. incluyó los sistemas operativos mencionados en sus computadoras
Macintosh.

2.2.4. Sistemas operativos para móviles

Los sistemas operativos que hemos visto fueron hechos para computadores de escritorio o
computadores portátiles, pero los dispositivos móviles como teléfonos, tabletas y reproductores
de mp3 son muy diferentes, por eso sus sistemas operativos son más simples, orientados hacia
la conectividad inalámbrica y a necesidades específicas.
Dentro de los más populares sistemas operativos para móviles se encuentran Android, e iOS,
seguidos por Symbian, Blackberry OS y Windows Phone.

Cada empresa fabricante de teléfonos móviles elige el sistema operativo que introducirá en su
dispositivo, intentando mejorar a la competencia y dar el mejor servicio a sus usuarios.
Algunos de los sistemas operativos utilizados en los dispositivos móviles están basados en el
modelo de capas.

Capas de un sistema operativo móvil

Núcleo

El núcleo o kernel proporciona el acceso a los distintos elementos del hardware del dispositivo.
Ofrece distintos servicios a las superiores como son los controladores o drivers para el
hardware, la gestión de procesos, el sistema de archivos y el acceso y gestión de la memoria.

Middleware

El middleware es el conjunto de módulos que hacen posible la propia existencia de aplicaciones


para móviles. Es totalmente transparente para el usuario y ofrece servicios claves como el

33
motor de mensajería y comunicaciones, códecs multimedia, intérpretes de páginas web, gestión
del dispositivo y seguridad.

Entorno de ejecución de aplicaciones

El entorno de ejecución de aplicaciones consiste en un gestor de aplicaciones y un conjunto de


interfaces programables abiertas y programables por parte de los desarrolladores para la
creación de software.

Interfaz de usuario

Las interfaces de usuario facilitan la interacción con el usuario y el diseño de la presentación


visual de la aplicación. Los servicios que incluye son el de componentes gráficos (botones,
pantallas, listas, etc.) y el del marco de interacción.

Aparte de estas capas también existe una familia de aplicaciones nativas del teléfono que
suelen incluir los menús, el marcador de números de teléfono etc...

Mercado
A medida que los teléfonos móviles crecen en popularidad, los sistemas operativos con los que
funcionan adquieren mayor importancia. La cuota de mercado de sistemas operativos móviles
en el 2018 era el siguiente:1​
1. Android 84,5 %.
2. iOS 14,5 %
3. Otros 1,0 %
Android tiene la mayor cuota, desde enero de 2011, con más de la mitad del mercado,
experimentó un creciente aumento y en solo dos años (2009 a comienzos de 2011) ha pasado a
ser el SO móvil más utilizado.

Algunas características de Android:


Android es un sistema operativo basado en Linux, por lo que continúa siendo de distribución
libre y código abierto. Actualmente es comercializado por la compañía Google para sus
teléfonos y tablets, igualmente está disponible para cualquier fabricante interesado en utilizarlo
para sus dispositivos móviles.
Debido a sus características de distribución libre y código abierto, una de las grandes ventajas
que posee este sistema operativo radica en que actualmente existe una importante
disponibilidad de aplicaciones gratuitas y de pago que los usuarios pueden aprovechar
para optimizar el uso de su dispositivo con Android.
Asimismo, otro de los beneficios de esta plataforma radica en el hecho de que permite una
excelente integración con todos los servicios brindados por Google, tales como Hangouts,
Drive, Youtube, Google +, Gmail, etc., lo que amplía notablemente las posibilidades del sistema.
Además, al tratarse de un sistema de código abierto, permite que los usuarios realicen una
personalización realmente profunda, ajustando la plataforma a sus necesidades y a los recursos
del dispositivo en el que correrá Android.

34
Técnicamente se adapta a diferentes resoluciones de pantalla, es soporte de HTML, HTML5,
Adobe Flash Player, etc., es de tipo multitarea real de aplicaciones. Por último, es posible
controlar el teléfono móvil desde la computadora de forma muy sencilla.

2.3. LOS LENGUAJES DE PROGRAMACIÓN


Un programa de computadora es un conjunto de instrucciones que la dirigen en la ejecución de
una tarea de procesamiento de datos. Un lenguaje de programación de computadoras es una
serie de caracteres, palabras y reglas sintácticas que se pueden emplear para escribir un
programa de computadora.

Un lenguaje de programación debe contener instrucciones comprendidas en las siguientes


categorías:
• Instrucciones que me permitan realizar entrada y salida de datos.
• Instrucciones de cálculo: suma, resta, multiplicación etc.
• Instrucciones de comparación lógica: mayor que, igual que.
• Instrucciones que me permitan almacenar, consultar y mover datos.

2.3.1. Clasificación de los lenguajes de programación


Cada modelo de computadora tiene su propio lenguaje, el cual está determinado por la
estructura del hardware. Estos lenguajes nativos reciben el nombre de Lenguaje de Máquina.
Estos lenguajes, claro está, son dependientes de la máquina y a primera vista parecen
demasiados confusos porque consisten en largas hileras de códigos numéricos. La primera
programación de computadores era casi exclusivamente programación en lenguaje de máquina.
A pesar de que el lenguaje de máquina es natural para el hardware del computador, para los
programadores humanos es totalmente artificial.

Lenguaje de Máquina
100111010
101000101
110011001
101010101

Un poco de Historia

Un paso que permitió hacer más fácil la programación, fue el desarrollo de los Lenguajes
Simbólicos. Los lenguajes simbólicos utilizan códigos nemónicos tal como ADD (suma), para
representar las instrucciones de la máquina. Por ejemplo, una instrucción de máquina, tal como
21300400, que significa sumar el valor almacenado en la posición 300 al valor almacenado en
la posición 400, puede escribirse como ADD cantidad1, cantidad2. Naturalmente el computador
no entiende los nemónicos y por eso deben ser traducidos a lenguaje de máquina.
Un ensamblador es un programa en lenguaje de máquina que traduce instrucciones en
lenguaje simbólico a instrucciones en lenguaje máquina. Los lenguajes simbólicos son
dependientes de la máquina por cuanto un conjunto de códigos nemónicos sólo es aplicable a
un modelo particular de computadoras; de ahí que el programador debe estar familiarizado con
el repertorio especial de instrucciones de la máquina que se está programando.

Lenguaje Simbólico
LD A

35
SUB C
STD T
MPVI 2

La siguiente etapa en el desarrollo de los lenguajes de programación fue la llegada de los


Lenguajes de Alto Nivel, que están orientados más hacia el procedimiento que hacia la
máquina. Dichos lenguajes están enfocados más hacia el procedimiento de procesamiento de
datos que se debe cumplir, que hacia los requerimientos de codificación de máquinas
particulares. Además, los lenguajes de alto nivel no son dependientes de las máquinas: el uso
de estos programas no está restringido a modelos particulares de computadores.
Dentro de este nivel se encuentran gran cantidad de lenguajes, algunos de ellos con
orientaciones determinadas. Por Ejemplo:

● BASIC: (Beginner’s All purpuse Symbolic Instruction Code) es un lenguaje muy popular
cuya gran masificación se debe a su fácil uso.
● LOGO, MICROMUNDOS y SCRATCH: son lenguajes especiales para la enseñanza
asistida por computadora, especialmente para los niños.
● COBOL: Lenguaje de programación estándar para aplicaciones administrativas del
computador en la industria y en las actividades estatales.
● FORTRAN: (Formula Translator) Este es un lenguaje usado con fines científicos y
matemáticos debido a la facilidad con que permite expresar fórmulas matemáticas.
● PASCAL: Es útil tanto para procesos comerciales como científicos.
● CYCTT: Es un lenguaje de empleo general que ha sido estrechamente relacionado con
el sistema operativo Unix. Es uno de los lenguajes más modernos y potentes y es uno
de los lenguajes más usados para la construcción de compiladores, sistemas operativos
y software de aplicación de gran envergadura.
● PROLOG: Pertenece al grupo de lenguajes destinados a ser utilizados en ordenadores
de la denominada “quinta generación” o “inteligencia artificial”. Se basa en la “resolución”
(forma de lógica matemática) mediante la cual se indican los problemas y normas a
seguir para buscar la solución apropiada.
● LENGUAJE de Base de Datos, como FOXPRO, el DBASE o el CLIPPER.
● LENGUAJES VISUALES, como el VISUAL BASIC o VISUAL FOX orientados al uso de
la interface gráfica, combinada con las últimas prestaciones de la programación
moderna y por último, el reciente de todos

Recapitulando, el proceso de traducción se usa para obtener el programa en el lenguaje de


máquina requerido. Un programa de computadora escrito en un lenguaje de alto nivel, se
denomina programa fuente. Un compilador es un programa en lenguaje de máquina que
traduce (o compila) el programa fuente en un programa de lenguaje máquina, el cual se
denomina programa objeto, y que luego se introduce en la máquina para realizar la tarea
requerida. De este modo un compilador es un programa cuya función principal consiste en
convertir los programas fuente en programas objeto.

36
2.4 VIRUS INFORMATICOS: Concepto. Detección y Eliminación

2.4.1. ¿Qué son los virus?:

Son programas que se introducen en nuestros ordenadores de formas muy diversas. Este tipo
de programas son especiales ya que pueden producir efectos no deseados y nocivos. Una vez
el virus se haya introducido en el ordenador, se colocará en lugares donde el usuario pueda
ejecutarlos de manera no intencionada. Hasta que no se ejecuta el programa infectado o se
cumple una determinada condición, el virus no actúa. Incluso en algunas ocasiones, los efectos
producidos por éste, se aprecian tiempo después de su ejecución.

2.4.2. ¿Qué elementos infectan los virus?

El objetivo primordial de los virus son los ficheros que se encuentran en un medio de
almacenamiento como los discos duros, pendrives u otras memorias. Más concretamente serán
infectados todos aquellos archivos, ficheros o documentos (los tres términos indican el mismo
concepto, en general) que tengan la característica de ser programas. Un programa no es más
que un fichero cuya extensión es EXE o COM, que se puede ejecutar para que realice
determinadas operaciones.

También existen virus que se encargan de infectar ficheros que no son programas. No obstante,
estos ficheros contendrán elementos, denominados macros, incluidos en ellos. Estas macros
son programas que el usuario puede incluir dentro de un determinado tipo de archivos.

Otro de los objetivos fijados por los virus para sus ataques suelen ser los propios medios de
almacenamiento. De esta forma, atacando a los lugares en los que se guardan ficheros, el daño
provocado afectará a toda la información contenida en ellos.

2.4.3. Medios de entrada más habituales para los virus

La primera pregunta que debemos plantearnos es a través de qué medio un virus puede atacar
o introducirse en nuestro ordenador. Si conocemos perfectamente la respuesta, seremos
capaces de proteger esas posibles vías de entrada para impedir posteriores infecciones. Los
virus utilizan los siguientes medios para ello:

● Medios de almacenamiento removibles: por ejemplo pendrives, tarjetas de memoria


(como las utilizadas en los teléfonos y cámaras fotográficas), CDs, DVDs, entre otros. Si
alguno de ellos se encontrase infectado y trabajásemos con él en un ordenador, éste
será infectado.
● Redes de ordenadores: Una red es un conjunto o sistema de ordenadores conectados
entre sí físicamente, para facilitar el trabajo de varios usuarios. Esto quiere decir que
existen conexiones entre cualquiera de los ordenadores que forman parte de la red,
pudiendo transferirse información entre ellos. Si alguna de esta información transmitida
de un ordenador a otro estuviese infectada, el ordenador en el que se recibe será
infectado.
● Internet: Cada día más se utilizan las posibilidades que brinda Internet para obtener
información, realizar envíos y recepciones de ficheros, recibir y publicar noticias, o
descargar ficheros. Todas estas operaciones se basan en la transferencia de
información, así como en la conexión de diferentes ordenadores en cualquier parte del

37
mundo. Por tanto, cualquier virus puede introducirse en nuestro ordenador al mismo
tiempo que la información recibida. A través de Internet la infección podría realizarse
empleando diferentes caminos como los siguientes:
o Correo electrónico: en un mensaje enviado o recibido se pueden incluir
documentos o ficheros (fichero adjunto o anexado, "attached"). Estos ficheros
podrían estar infectados, contagiando al ordenador destinatario.
o Programas P2P: en los programas Peer to peer, no existe una red centralizada
sino que cada nodo es a la vez cliente y servidor. Cada uno de estos nodos
puede enviar y recibir archivos, compartiéndolos con otros nodos-usuarios. Así,
los programas de este tipo como Ares, Torrent o Emule, pueden ser fuente de
virus de muy rápida propagación.
o Páginas Web: las páginas que visitamos en Internet son ficheros de texto o
imágenes escritos en un lenguaje denominado HTML. No obstante también
pueden contener programas denominados Controles ActiveX y Applets de Java
que son programas. Estos sí pueden estar infectados y podrían infectar al
usuario que se encuentre visitando esa página.
o Spywares o Programas Espía: son aplicaciones que se dedican a recopilar
información del sistema en el que se encuentran instaladas para luego enviarla a
través de Internet, generalmente a alguna empresa de publicidad. Todas estas
acciones se enmascaran tras confusas autorizaciones al instalar terceros
programas, por lo que rara vez el usuario es consciente de ello.
o Adware: cualquier programa que automáticamente muestra publicidad web al
usuario durante su instalación o durante su uso para generar lucro a sus autores.
'Ad' en la palabra 'adware' se refiere a 'advertisement' (anuncios) en idioma
inglés.

2.4.4. Tipos de virus


Los diferentes virus que existen se pueden clasificar dependiendo del medio a través del cual
realizan su infección y las técnicas utilizadas para realizarla. Aunque bastantes de ellos tendrán
una característica especial por la que se asociarán a un tipo concreto dentro de esta
clasificación, otros podrán formar parte de varios grupos diferentes.
Los diferentes virus que existen se pueden clasificar dependiendo del medio a través del cual
realizan su infección y las técnicas utilizadas para realizarla. Aunque bastantes de ellos tendrán
una característica especial por la que se asociarán a un tipo concreto dentro de esta
clasificación, otros podrán formar parte de varios grupos diferentes.

Virus de Fichero: Este tipo de virus se encarga de infectar programas o ficheros


ejecutables (archivos con extensiones EXE o COM). Al realizar la ejecución de uno de
estos programas, de forma directa o indirecta, el virus se activa produciendo los efectos
dañinos que le caractericen en cada caso. La mayoría de los virus existentes son de este
tipo, pudiéndose clasificar cada uno de ellos en función de su modo de actuación.

Virus Residentes: Cuando se ponen en marcha, la primera acción que realizan consiste en
comprobar si se cumplen todas las condiciones para atacar (fecha, hora,... etc.). De no ser
así, se colocan en una zona de la memoria principal, esperando que se ejecute algún
programa. Si en alguna de las operaciones que realiza el sistema operativo se trabajase
con un fichero ejecutable (programa) no infectado el virus lo infectará. Para ello, el virus se
añadirá al programa que infecta, añadiendo su código al propio código del fichero
ejecutable (programa).

38
Virus de Acción Directa: En el momento de su ejecución, el virus trata de replicarse a sí
mismo. Esto implica que creará copias de sí mismo. Cumpliéndose unas determinadas
condiciones, propias en cada caso, se activará pasando a realizar infecciones dentro del
directorio o carpeta en el que nos encontremos y dentro de los directorios que se
encuentran especificados en la línea PATH (camino o ruta de directorios). Es posible llevar
a cabo la desinfección de los ficheros afectados por el virus, dejándolos en un estado
correcto.

Virus de Boot: El término Boot o Boot Sector representa lo que también se denomina
"sector de arranque". Se trata de una sección muy importante en un disco, en la cual se
guarda la información sobre las características de ese disco, además de incluir un
programa que permite arrancar el ordenador. El virus se activa cuando la computadora es
encendida y el sistema operativo es cargado.

Virus de Macro: A diferencia de los tipos de virus comentados anteriormente, los cuales
infectan programas (ficheros EXE o COM) o aplicaciones, los virus de macro realizan
infecciones sobre los ficheros que se han creado con determinadas aplicaciones o
programas. Con ellos es posible crear documentos de texto, bases de datos, hojas de
cálculo,...etc. Cada uno de estos tipos de ficheros puede tener adicionalmente unos
pequeños programas, denominados macros. Una macro no es más que un micro-programa
que el usuario asocia al fichero que ha creado con determinadas aplicaciones y que no
depende del sistema operativo sino de acciones determinadas que el usuario puede realizar
dentro del documento que la contiene. Mediante ellos es posible automatizar conjuntos de
operaciones para que se lleven a cabo como una sola acción del usuario de forma
independiente sin necesidad de realizarlas una a una manualmente.

Pues bien, estas macros son susceptibles de infección, lo que significa que los virus (más
concretamente los de macro) pueden fijar sus objetivos de infección en ellas. En este caso,
al abrir un documento que contenga macros, éstas se cargarán de forma automática
(ejecutándose o esperando que el usuario decida ejecutarlas). En ese instante o
posteriormente, el virus actuará realizando cualquier tipo de operación perjudicial. A
diferencia de lo que se piensa habitualmente, los virus de macro pueden realizar acciones
dañinas de bastante importancia, propagándose en poco tiempo de forma muy rápida.

2.4.5. Daños y perjuicios

Dado que una característica de los virus es el consumo de recursos, los virus ocasionan
problemas tales como pérdida de productividad, baja en el rendimiento del equipo, cortes en los
sistemas de información o daños a nivel de datos.

Otra de las características es la posibilidad que tienen de ir replicándose en otras partes del
sistema de información. Las redes, en la actualidad, ayudan a dicha propagación.

Los daños que los virus causan a los sistemas informáticos son:

● Pérdida de información (evaluable y actuable según el caso).


● Horas de contención (técnicos de SI, horas de paradas productivas, pérdida productiva,
tiempos de contención o reinstalación, cuantificables según el caso y horas de asesoría
externa).

39
● Pérdida de imagen (valor no cuantificable).

Hay que tener en cuenta que cada virus es una situación nueva, por lo que es difícil cuantificar
en una primera valoración lo que puede costar una intervención.

2.4.6. Los virus en los nuevos medios

En la actualidad usamos permanentemente diferentes tipos de dispositivos digitales como


teléfonos celulares, tablets o IPODs que tienen acceso a internet. Los virus también pueden
atacar y perjudicar el funcionamiento de estos aparatos, los "adware" o programas dedicados a
instalar publicidad de forma invasiva en los celulares también se han convertido en una
amenaza para sus usuarios. Por el momento son casos aislados, pero el temor entre los
especialistas en seguridad digital es que con la propagación de una inmensa cantidad de
dispositivos con acceso a internet, se van a empezar a interesar cada vez más por atacar a
estos nuevos medios de acceso a internet.

El funcionamiento de estos virus, su forma de contagio y métodos de prevención son


básicamente los mismos que para las computadoras personales.
De una u otra forma, el usuario tiene que ejecutar algún archivo infectado. Puede que el archivo
sea un troyano que haga creer al usuario que es un juego, o puede ser un adjunto en algún
mensaje.
Existen tres formas principales de que el celular o tablet se infecte con un virus:

● Bajando datos de Internet: al igual que en la PC, se baja y/o ejecuta un archivo
infectado.
● Por conexión Bluetooth: al tener Bluetooth activado, se puede recibir el virus mediante
conexión inalámbrica desde otro celular infectado que esté cerca nuestro.
● Mensajes MMS: en un adjunto al mensaje viene el virus. De manera similar a los
adjuntos en los emails. Este mensaje puede venir de una persona conocida, sin que este
lo sepa.

Según los especialistas la mejor forma de prevenir que los virus se descarguen en estos
dispositivos es utilizar las tiendas oficiales para bajar aplicaciones, evitando así que los
malwares se instalen en el sistema.

2.5. ANTIVIRUS

Los antivirus son una herramienta simple cuyo objetivo es detectar y eliminar virus
informáticos. Nacieron durante la década de 1980.

Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha
hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo
buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de
los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware,
adwares, rootkits, etc.

El funcionamiento de un antivirus varía de uno a otro, aunque su comportamiento habitual se


basa en contar con una lista de virus conocidos y su formas de reconocerlos (las llamadas

40
firmas o vacunas), y analizar contra esa lista los archivos almacenados o transmitidos desde y
hacia un ordenador.

Adicionalmente, muchos de los antivirus actuales han incorporado funciones de detección


proactiva, que no se basan en una lista de malware conocido, sino que analizan el
comportamiento de los archivos o comunicaciones para detectar cuáles son potencialmente
dañinas para el ordenador, con técnicas como heurística, HIPS, etc.

Usualmente, un antivirus tiene uno o varios componentes residentes en memoria que se


encargan de analizar y verificar todos los archivos abiertos, creados, modificados, ejecutados y
transmitidos en tiempo real, es decir, mientras el ordenador está en uso.

Asimismo, cuentan con un componente de análisis bajo demanda (los conocidos scanners,
exploradores, etc.) y módulos de protección de correo electrónico, Internet, etc.

El objetivo primordial de cualquier antivirus actual es detectar la mayor cantidad de amenazas


informáticas que puedan afectar un ordenador y bloquearlas antes de que la misma pueda
infectar un equipo, o poder eliminarla tras la infección.

Actualmente hay una gran variedad de antivirus, pero no todos se asemejan al pretendido por
todos: un antivirus eficaz en todos los sentidos.

2.5.1. Antivirus activos

Normalmente un antivirus tiene un componente que se carga en memoria (antivirus activo) y


permanece en ella para verificar todos los archivos abiertos, creados, modificados y ejecutados
en tiempo real. Es habitual que estos programas posean componentes que revisen los archivos
adjuntos de los correos electrónicos salientes y entrantes, así como los scripts y programas que
pueden ejecutarse en un navegador web (ActiveX, Java, JavaScript).

Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de
infección y notificando al usuario de posibles incidencias de seguridad.

Como todo programa que está continuamente funcionando, el antivirus tiene un efecto adverso
sobre el sistema en funcionamiento. Una parte importante de los recursos se destinan al
funcionamiento del mismo. Además, dado que están continuamente comprobando la memoria
de la máquina, dar más memoria al sistema no mejora las prestaciones del mismo.

Otro efecto adverso son los falsos positivos; es decir, notificar al usuario de posibles incidencias
en la seguridad. De esta manera, el antivirus funcionando da una sensación de falsa seguridad.

2.5.2. ¿Cómo funcionan?

A medida que evolucionan las técnicas empleadas por los virus y éstas son investigadas, los
programas antivirus incorporan medidas de búsqueda de virus y protección más avanzadas
como las siguientes:

● Firmas o búsqueda de cadenas: Cada uno de los virus contiene determinadas


cadenas de caracteres que le identifican. Estas son las denominadas firmas del virus.

41
Los programas antivirus incorporan un fichero denominado "fichero de firmas de virus"
en el que guardan todas las cadenas correspondientes a cada uno de los virus que
detecta. De esta forma, para encontrarlos, se analizarán todos los ficheros especificados
comprobando si alguno de ellos las contiene. Si un fichero no contiene ninguna de estas
cadenas, se considera limpio, mientras que si el programa antivirus la detecta en el
interior del fichero avisará acerca de la posibilidad de que éste se encuentre infectado.

● Análisis heurísticos: Cuando no existe información que permita la detección de un


nuevo o posible virus desconocido, se utiliza esta técnica. Se caracteriza por analizar los
ficheros obteniendo información sobre cada uno de ellos (tamaño, fecha y hora de
creación, posibilidad de colocarse en memoria, etc.).
Los heurísticos analizan el código de cada archivo con métodos genéricos y detectan
virus nuevos que todavía no se han incluido en la base de datos de virus del programa
antivirus. Los heurísticos analizan el código de cada archivo y detectan virus nuevos que
todavía no se han incluido en la base de datos de virus del programa antivirus.

● Detección por comportamiento: Cuando se detecta un fallo en el comportamiento del


sistema, se lo escanea. Por lo general, mediante este mecanismo se pueden detectar
software ya identificado o no, pero es una medida que se usa tras la infección.

● Detección por caja de arena (o sandbox): consiste en ejecutar el software en


máquinas virtuales y determinar si el software ejecuta instrucciones maliciosas o no. A
pesar que este mecanismo es seguro, toma bastante tiempo ejecutar las pruebas antes
de ejecutar el software en la máquina real.

● Vacunación: Mediante esta técnica, el programa antivirus almacena información sobre


cada uno de los ficheros. En caso de haberse detectado algún cambio entre la
información guardada y la información actual del fichero, el antivirus avisa de lo ocurrido.
Existen dos tipos de vacunaciones: Interna (la información se guarda dentro del propio
fichero, de tal forma que al ejecutarse él mismo comprueba si ha sufrido algún cambio) y
Externa (la información que guarda en un fichero especial y desde él se contrasta la
información).

2.5.3. Planificación o Preparación del Plan de Contingencia

La planificación consiste en tener preparado un plan de contingencia en caso de que una


emergencia de virus se produzca, así como disponer de la formación adecuada para reducir al
máximo las acciones que puedan presentar cualquier tipo de riesgo. Cada antivirus puede
planear la defensa de una manera, es decir, un antivirus puede hacer un escaneado completo,
rápido o de vulnerabilidad según elija el usuario.

● Formación del usuario

El usuario de un sistema informático debe ser capaz de comprender las


vulnerabilidades y amenazas a las que su computadora, smartphone o red de trabajo se

42
encuentra expuesto a fin de determinar los controles adecuados para aceptar, disminuir,
transferir o evitar la ocurrencia del riesgo.

Teniendo en cuenta que la explotación de un riesgo causaría daños o pérdidas


financieras o administrativas a una persona, como en mayor medida a una empresa u
organización, se tiene la necesidad de poder estimar la magnitud del impacto del riesgo
a que se encuentra expuesta mediante la aplicación de controles. Dichos controles, para
que sean efectivos, deben ser implementados en conjunto formando una arquitectura de
seguridad con la finalidad de preservar las propiedades de confidencialidad, integridad y
disponibilidad de los recursos objetos de riesgo.

● Consideraciones de software

El software es otro de los elementos clave en la parte de planificación. Se debería tener


en cuenta la siguiente lista de comprobaciones:

1. Tener el software imprescindible para el funcionamiento de la actividad, nunca


menos pero tampoco más. Tener controlado el software asegura la calidad de la
procedencia del mismo (no debería permitirse software pirata o sin garantías). En
todo caso un inventario de software proporciona un método correcto de asegurar la
reinstalación en caso de contagio.
2. Disponer del software de seguridad adecuado. Cada actividad, forma de trabajo y
métodos de conexión a Internet requieren una medida diferente de aproximación al
problema. En general, las soluciones domésticas, donde únicamente hay un equipo
expuesto, no son las mismas que las soluciones empresariales.
3. Métodos de instalación rápidos. Para permitir la reinstalación rápida en caso de
contingencia.
4. Buscar alternativas seguras. Existe software que es famoso por la cantidad de
agujeros de seguridad que introduce. Es imprescindible conocer si se puede
encontrar una alternativa que proporcione iguales funcionalidades pero permitiendo
una seguridad extra.

● Consideraciones de la red

Disponer de una visión clara del funcionamiento de la red permite poner puntos de
verificación filtrado y detección ahí donde la incidencia es más claramente identificable.
Sin perder de vista otros puntos de acción es conveniente:

1. Mantener al máximo el número de recursos de red en modo de sólo lectura. De esta


forma se impide que computadoras infectadas los propaguen.
2. Centralizar los datos. De forma que detectores de virus en modo batch puedan
trabajar durante la noche.
3. Realizar filtrados de firewall de red. Eliminar los programas que comparten datos,
como pueden ser los P2P. Mantener esta política de forma rigurosa
4. Reducir los permisos de los usuarios al mínimo, de modo que sólo permitan el
trabajo diario.
5. Controlar y monitorizar el acceso a Internet. Para poder detectar en fases de
recuperación cómo se ha introducido el virus, y así determinar los pasos a seguir.

43
● Antivirus

Es conveniente disponer de una licencia activa de antivirus. Dicha licencia se empleará


para la generación de discos de recuperación y emergencia. Sin embargo no se
recomienda en una red el uso continuo de antivirus.

El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema,
reduciendo el valor de las inversiones en hardware realizadas.

Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.

Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de
esta forma se asegurará una reducción importante de decisiones de usuarios no
entrenados que pueden poner en riesgo la red.

● Firewalls

Su significado es barrera de fuego y no permite que otra persona no autorizada tenga


acceso desde otro equipo al tuyo. Se utilizan para filtrar contenidos y puntos de acceso.
Eliminar programas que no estén relacionados con la actividad. Tener monitorizado los
accesos de los usuarios a la red, permite asimismo reducir la instalación de software que
no es necesario o que puede generar riesgo para la continuidad del trabajo.

● Centralización y backup (copia de seguridad)

La centralización de recursos y garantizar el backup de los datos es otra de las pautas


fundamentales en la política de seguridad recomendada.

La generación de inventarios de software, centralización del mismo y la capacidad de


generar instalaciones rápidas proporcionan métodos adicionales de seguridad.

Control o separación de la informática móvil, dado que esta está más expuesta a las
contingencias de virus.

2.5.4. Algunos consejos para prevenirse de virus informáticos

Estamos conectados a Internet todo el tiempo, incluso cuando no estamos haciendo uso de la
conexión, por lo que nuestra computadora y otros dispositivos -como el celular y la tablet - están
permanentemente expuestos a la infección de distintos tipos de virus.

Para protegerlos -y proteger tus trabajos- seguí estos consejos:

● Tené instalado un software antivirus y mantenelo actualizado diariamente. La


mayoría tienen la opción para configurar la actualización automática, pero es
recomendable chequear de vez en cuando para asegurarse de que esté actualizado.

44
● Escaneá regularmente todos los archivos de la computadora. Esto puede llevar un rato
largo, pero siempre es mejor estar seguros de que nuestra computadora está libre de
virus.
● Eliminá inmediatamente, si aparece identificado un virus, eliminarlo inmediatamente.
Una vez que eliminás el virus, debes comprobar que no quede ninguno. Para esto,
reiniciá la PC y volver a hacer el scan.
● Escaneá cualquier dispositivo de almacenamiento que le conectemos a la PC como
un pendrive o disco externo que hayamos usado en otra computadora.
● Instalá herramientas antispyware: estas son tan importantes como el firewall o los
antivirus. Existen aplicaciones gratuitas que funcionan muy bien: Malwarebytes
Anti-Malware y Spybot hacen un excelente trabajo al eliminar el spyware, mientras que
SpywareBlaster instala programas residentes que evitan la descarga involuntaria de
spyware.
● Activá el firewall: este programa, que actúa como una especie de muro de contención,
impide el ingreso de programas clandestinos a tu PC desde Internet.
● Usá un bloqueador de ventanas emergentes: esta función del navegador puede ser
configurada para estar siempre activa o alertar cuando un sitio intente mostrar una
ventana emergente.
● Sospechá al instalar nuevos programas: si no es un complemento que reconoce
como Quicktime, Adobe Flash o Java, lo mejor es rechazar la instalación hasta que se
sepa que es de confianza. Los sitios de hoy son lo suficientemente sofisticados como
para realizar todas o casi todas las acciones dentro del navegador, requiriendo sólo un
mínimo de complementos.
● Use el botón Cerrar para cerrar las ventanas emergentes: evitá los botones como
"Cancelar" o "No gracias". En su lugar cierra la ventana con el botón Cerrar "X" en la
esquina de la barra de título.

***********************************

Bibliografía:

http://es.ccm.net/contents/651-sistema-operativo#funciones-del-sistema-operativo
http://www.informatica-hoy.com.ar/desarrollo-software/Tipos-de-software.php
http://www.areatecnologia.com/informatica/sistemas-operativos-moviles.html
https://www.xataka.com/perifericos/discos-duros-multimedia-principales-interfaces-y-caracteristi
cas#:~:text=Una%20interfaz%20se%20refiere%20al,como%20eSATA%2C%20Firewire%20o%2
0Thunderbolt.
http://www.gcfaprendelibre.org/tecnologia/curso/informatica_basica/sistemas_operativos/5.do
http://tabletzona.es/2015/05/25/ios-android-apertura-ventajas/
http://www.informatica-hoy.com.ar/soluciones-moviles/Cual-es-el-mejor-sistema-operativo-para-
un-smartphone.php
http://librosweb.es/libro/javascript/capitulo_1.html
http://informatica.uv.es/estguia/ATD/apuntes/laboratorio/Lenguaje-C.pdf
http://www.enseguridad.com/virus-celulares/

45
http://www.bbc.com/mundo/noticias/2015/11/151106_tecnologia_virus_adware_sin_solucion_loo
kout_amv
http://www.didepa.uaemex.mx/clases/DiTICAD/Antivirus.pdf
https://www.incibe.es/foro/forums/show/15.page
http://recursostic.educacion.es/usuarios/web/seguridad/47-consejos-para-evitar-la-infeccion-por-
virus-de-los-equipos-informaticos
http://espaciocloud.com.ar/paso-para-proteger-a-tu-pc-de-los-virus-informaticos/
https://es.wikipedia.org/wiki/Seguridad_inform%C3%A1tica
https://es.wikipedia.org/wiki/Antivirus
https://es.wikipedia.org/wiki/Adware

46

También podría gustarte