capitulo 2_Hardware_Software-2021
capitulo 2_Hardware_Software-2021
capitulo 2_Hardware_Software-2021
1. HARDWARE
HARDWARE: Es un vocablo del inglés que significa “chatarra” o “ferretería”. Se denomina así a
la parte física o material de la computadora, aquellas que se pueden tocar, componentes
electrónicos, periféricos, cables de conexión, etc., entrarían dentro de esta clasificación.
El hardware comprende todos los elementos materiales del equipo, físicamente visualizables,
como la computadora y los equipos periféricos, por ejemplo: los circuitos, teclados, llaves,
visores, las unidades de lectura y/o impresión, etc.
El software es una colección organizada de programas que permite la utilización del equipo, es
un conjunto de instrucciones que se suministran a la máquina para que resuelva algún
problema. Generalmente el software reside en algún soporte adecuado como el disco duro,
diskettes, etc.
Al inicio de la corta historia de la computación digital era fácil distinguir el hardware del software,
pero, a medida que avanzan los desarrollos tecnológicos se vuelve más sutil la barrera que
separa uno del otro, porque ahora buena parte de la programación de sistemas de muchas
computadoras reside en un nivel intermedio (“microprogramado”) que algunos llaman firmware.
Es un hardware programable, o sea un tipo especial de programa grabado en pequeñas piezas
de hardware llamadas ROM o PROM, que sirven para reemplazar algunos componentes o
circuitos del hardware.
Puede decirse que una computadora digital se compone de los siguientes elementos:
La memoria, al igual que en los seres humanos constituye una parte del cerebro, es el lugar
donde se almacenan los datos y las instrucciones que componen los programas.
La información genética que posee nuestro cuerpo al momento de nacer no sólo determina
nuestras características físicas, si no que también nos provee de potenciales herramientas
1
físicas e intelectuales, las cuales serán desarrolladas en mayor o menor medida según la
información que adquiramos del medio.
La unidad aritmético-lógica (ALU) tiene por función realizar operaciones aritméticas y hacer
comparaciones lógicas. Aunque parezca increíble, las únicas operaciones elementales que
realiza una computadora son las lógicas de comparar si es mayor, menor o igual, y las
aritméticas de sumar y restar, todo otro procesamiento que observemos que realiza una
computadora serán combinaciones y más combinaciones de estas 5 operaciones elementales.
En la ALU existe la información necesaria para realizar estas operaciones elementales y otras
de un segundo nivel (combinaciones de las anteriores) que el fabricante considera de uso
frecuente. Para aplicaciones especiales en las que se necesiten combinaciones tanto de las de
segundo nivel como de primer nivel se utilizan los programas.
A su vez, la unidad de control tiene la misión de regular el caudal de datos dentro del ámbito de
la unidad central y en circulación entre la unidad central y los dispositivos periféricos o las
memorias exteriores; su misión es, pues, coordinar la actividad combinada de toda la
instalación.
La unidad central nuclea en un mueble tres partes principales del Sistema de Computación: la
computadora propiamente dicha, las unidades de almacenamiento y la fuente de alimentación.
La fuente de alimentación es el dispositivo mediante el cual el sistema computacional
transforma la energía que recibe de la red (220 V 110 V= en el voltaje que necesita para
funcionar.
En algunos equipos se encuentra además la cerradura de traba del teclado de manera que no
pueda ser utilizado y de esta forma enviar mensajes a la computadora.
La computadora tiene un parlante interno mediante el cual emite mensajes sonoros, música,
frases, etc.
Pero, sin lugar a dudas, los componentes claves de un computador se ubican dentro de la
MOTHERBOARD o placa madre, entre los cuales citaremos como los más importantes, el
microprocesador, el coprocesador matemático, los bancos de memoria (RAM), el ROM BIOS,
los slots o ranuras de expansión (donde se pueden conectar la placa de video, las tarjetas
adaptadoras de los discos, del scanner, del modem/fax, etc.) y el circuito impreso o buses.
Motherboard: es el esqueleto de nuestra máquina. Sin ella, los demás componentes, como la
CPU, la RAM o las tarjetas de expansión no tendrían donde ubicarse. Hay varias marcas y
modelos, para distintos tipos de procesador, con diferentes velocidades de bus y otras con
2
componentes onboard (como placa de sonido, video, módem y procesador). La velocidad del
bus determina cuán rápido será nuestro sistema, y es recomendable que esté en relación con la
velocidad de bus del micro.
Un elemento fundamental que ya hemos nombrado dentro de la MOTHERBOARD son los
buses o líneas de comunicación o líneas de circuito impreso que vinculan el microprocesador y
la memoria entre sí, y a éstos con el exterior, tanto para recibir datos como para enviar
resultados. Por estos buses circulan los impulsos eléctricos (bits), que para su llegada desde el
exterior o salida hacia los periféricos atraviesan los llamados puertos o ports (según la
denominación inglesa). Precisamente una de las diferencias de los microprocesadores es la
cantidad de bits que pueden manejar a la vez. Ellos oscilan entre 8 y 64 bits. Cuantos más bits
pueda manejar a la vez, más rápido y poderoso será.
Dispuestos sobre las líneas del BUS se encuentran los slots o ranuras de expansión que
permitirán conectar al bus los distintos periféricos que se desea instalar a la PC. Cada línea del
bus se suelda con un contacto del slot permitiendo vincular la tarjeta que se inserte en él, con
cada línea en particular del bus.
3
Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores
trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios
núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador
cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es
la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento.
Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador,
aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados
están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses
y procesadores dedicados de vídeo.
El ancho máximo de las instrucciones que puede utilizar el microprocesador se mide en bits y
puede ser de 2 n bits: 8, 16, 32 bits, 64 bits, etc.
El microprocesador está gobernado por un reloj de cuarzo. A mayor velocidad del reloj, más
operaciones se pueden realizar en el mismo período de tiempo. La velocidad de este reloj se
mide en Megahertz (millones de ciclo por segundo), y así tendremos microprocesadores que
oscilan entre 1,5 MHZ, hasta de 4 GHZ.
El microprocesador puede dividirse en varios bloques, de los cuales vamos a tomar los dos más
importantes para analizar el funcionamiento básico:
• La CU o UC (Control Unit - Unidad de Control)
• La ALU o ULA (Arithmetic and Logic Unit - Unidad aritmética y lógica).
Además de estos dos bloques, según el tipo de microprocesador puede tener mucho más como
FPU o UPF (Floating Point Unit - Unidad de Punto Flotante), las memorias caché internas, etc.
Cada procesador de hoy en día cuenta con un número concreto de celdas de memoria interna
que podemos denominar registros. Cada registro tiene una capacidad determinada que va
directamente relacionada con cuánta información puede ser procesada con cada comando o
instrucción. Los procesadores de 32 bits pueden por ejemplo trabajar con números entre 0 a 4
billones en un sólo paso.
La relación entre los registros y la memoria es realmente importante. El tamaño de los registros
siempre va en concordancia al tamaño del bus, y los registros grandes se benefician de la
rapidez con la que se ejecutan ciertas operaciones. Un procesador de 64 bits puede traer
mucha más información de memoria que uno de 32 bits. Aparte, el espacio de direcciones
aumenta con el número de bits del bus.
4
poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del
micro, encapsulada junto a él. Los micros más modernos (Core i3, Core i5, Core i7,
etc.) incluyen también en su interior otro nivel de caché, más grande, aunque algo
menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria
caché de nivel 3, o L3.
⮚ Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el
exterior del procesador en otro chip. Esta parte está considerada como una parte
«lógica» junto con los registros, la unidad de control, memoria y bus de datos.
⮚ Registros: son básicamente un tipo de memoria pequeña con fines especiales que el
micro tiene disponible para algunos usos particulares. Hay varios grupos de registros
en cada procesador. Un grupo de registros está diseñado para control del
programador y hay otros que no son diseñados para ser controlados por el
procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y
dos registros.
⮚ Memoria: es el lugar donde el procesador encuentra las instrucciones de los
programas y sus datos. Tanto los datos como las instrucciones están almacenados en
memoria, y el procesador las accede desde allí. La memoria es una parte interna de la
computadora y su función esencial es proporcionar un espacio de almacenamiento
para el trabajo en curso.
⮚ Puertos: es la manera en que el procesador se comunica con el mundo externo. Un
puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la
computadora con la cual el procesador necesita comunicarse, tiene asignado un
«número de puerto» que el procesador utiliza como si fuera un número de teléfono
para llamar circuitos o a partes especiales.
Velocidad de procesamiento
Otra forma de medir la velocidad de una computadora es según los ciclos por segundos que
produce un reloj interno, el cual marca los tiempos de ejecución. Estos ciclos del reloj por
segundo se denominan Hertz, siendo la unidad más común un millón de Hertz, o sea un
Mega Hertz (MHz).
La velocidad de una computadora junto con su capacidad de almacenar datos (memoria) son
unos de los parámetros más importantes a tener en cuenta en el momento de seleccionar un
equipo. Ambos parámetros tienen que estar equiparados, nada hacemos con una máquina
muy veloz si no tiene la suficiente memoria y viceversa.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen
diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por
procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que
permite comparar procesadores con núcleos de la misma familia, siendo este un indicador
muy limitado dada la gran variedad de diseños con los cuales se comercializan los
procesadores de una misma marca y referencia.
5
La memoria de acceso aleatorio (RAM) (en inglés: random-access memory), se utiliza como
memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí
donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de
cómputo. Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición
de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir
un orden para acceder a la información de la manera más rápida posible. Durante el encendido
del computador, la rutina POST verifica que los módulos de memoria RAM estén conectados de
manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas
madres emiten una serie de pitidos que indican la ausencia de memoria principal. Terminado
ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando
fallos mayores en la misma.
La expresión memoria RAM se utiliza frecuentemente para describir a los módulos de memoria
utilizados en los computadores personales y servidores. En el sentido estricto, esta memoria es
solo una variedad de la memoria de acceso aleatorio: las ROM, memorias Flash, caché
(SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la
cualidad de presentar retardos de acceso iguales para cualquier posición.
Como ya vimos, cuanta más memoria tengamos, mayor cantidad de información podrá ser
procesada a alta velocidad.
Agregar más RAM será una buena ayuda para la performance de la computadora.
Las dos formas principales de RAM moderna son:
1. SRAM (Static Random Access Memory), RAM estática, memoria estática de
acceso aleatorio.
1. volátiles.
2. no volátiles:
■ NVRAM (non-volatile random access memory), memoria de
acceso aleatorio no volátil
■ MRAM (magnetoresistive random-access memory),
memoria de acceso aleatorio magnetorresistiva o
magnética
2. DRAM (Dynamic Random Access Memory), RAM dinámica, memoria dinámica
de acceso aleatorio.
1. DRAM Asincrónica (Asynchronous Dynamic Random Access
Memory), memoria de acceso aleatorio dinámica asincrónica.
■ FPM RAM (Fast Page Mode RAM)
■ EDO RAM (Extended Data Output RAM)
2. SDRAM (Synchronous Dynamic Random-Access Memory,
memoria de acceso aleatorio dinámica sincrónica)
■ Rambus:
■ RDRAM (Rambus Dynamic Random Access
Memory)
■ XDR DRAM (eXtreme Data Rate Dynamic
Random Access Memory)
■ XDR2 DRAM (eXtreme Data Rate two
Dynamic Random Access Memory)
■ SDR SDRAM (Single Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
simple)
6
■ DDR SDRAM (Double Data Rate Synchronous Dynamic
Random-Access Memory, SDRAM de tasa de datos
doble)
■ DDR2 SDRAM (Double Data Rate type two SDRAM,
SDRAM de tasa de datos doble de tipo dos)
■ DDR3 SDRAM (Double Data Rate type three SDRAM,
SDRAM de tasa de datos doble de tipo tres)
■ DDR4 SDRAM (Double Data Rate type four SDRAM,
SDRAM de tasa de datos doble de tipo cuatro).
■ DDR5 SDRAM (Double Data Rate type five SDRAM,
SDRAM de tasa de datos doble de tipo cinco).
■ DDR6 SDRAM (Double Data Rate type six SDRAM,
SDRAM de tasa de datos doble de tipo seis).
Placa de Video
Características técnicas
Sin duda los tres parámetros más importantes que posee una tarjeta gráfica son las
características de su procesador (GPU, o Graphics Processing Unit), la cantidad de memoria
con la que cuenta y el bus de datos que une ambos componentes.
7
GPU
La GPU es un procesador, como la CPU, pero que se dedica al procesamiento de gráficos en
general y de efectos 3D. Su labor es aligerar la carga de trabajo que tiene el microprocesador,
debido a lo cual está optimizado para el cálculo en coma flotante y procesamiento paralelo, que
es lo que predomina en las funciones de gráficos 3D.
La relación que permite la velocidad de procesamiento gráfico se da entre la GPU, los buses
internos y la memoria de video del dispositivo.
Bus de datos
El bus de una tarjeta gráfica es algo fundamental y en la mayoría de los casos determina de qué
gama es el producto. Es un parámetro muy importante y no suele ser uno de los más exhibidos
en las especificaciones; por eso, es uno de los primeros aspectos que debemos conocer al
comprar una nueva tarjeta.
Todo bus de datos tiene un ancho, que se mide en bits. Hoy en día, las tarjetas más
económicas, o de gama baja, tienen bus de 128 bits, lo que limita mucho el uso que le puede
dar. Para que una tarjeta gráfica, en términos de ancho de bus, tenga un buen rendimiento
gamer, se necesitan como mínimo 128 bits de ancho de bus. Este es, al menos, el valor que
ofrece una calidad decente en resoluciones 1080p (1920×1080 píxeles). Actualmente en el
mercado existen modelos de 128, 256, 384 y 512 bits de ancho de bus. Cuanto mayor sea este
valor, más rápida y más costosa será la tarjeta.
Los modelos actuales pueden tener entre 1 y 12 GB de memoria RAM, aunque existen modelos
de tarjetas gráficas profesionales (que no apuntan al mercado gamer, sino al ámbito profesional)
que incluso pueden llegar a tener más.
Actualmente se producen y comercializan tarjetas gráficas con memoria GDDR3, GDDR4
y GDDR5 (hay rumores sobre el desarrollo de GDDR6 pero al menos por el momento no existe
en el mercado). La memoria GDDR4 y GDDR5 están basadas en GDDR3, con algunas
mejoras.
Pero no todo es la cantidad y el tipo, también hay que tener en cuenta la frecuencia de
trabajo de la memoria RAM y la frecuencia efectiva, variante que resulta de multiplicar la
frecuencia por el factor DDR que corresponda según el tipo de RAM (2 en GDDR3 y GDDR4, y
4 en GDDR5).
Por último, el ancho de banda es un parámetro que se obtiene multiplicando la frecuencia
efectiva de la memoria RAM por el ancho de su bus (en bits) y luego se divide ese resultado por
8 (para pasar de gigabits a gigabytes). El valor final obtenido se expresa en GB/s. Básicamente,
este valor expresa la velocidad con que el bus es capaz de transferir datos desde la memoria a
la GPU.
Placa de Sonido
8
Es la encargada de traducir las señales digitales de sonido en
señales analógicas y viceversa. Sin ella no podríamos reproducir
CD’s de audio, escuchar MP3’s o grabar sonidos en nuestra PC.
El uso típico de las tarjetas de sonido consiste en hacer, mediante un
programa que actúa de mezclador, que las aplicaciones multimedia
del componente de audio suenen y puedan ser gestionadas. Estas
aplicaciones incluyen composición de audio y en conjunción con la
tarjeta de videoconferencia también puede hacerse una edición de
video, presentaciones y entretenimiento. Algunos equipos tienen la tarjeta ya integrada a la
motherboard, mientras que otros requieren tarjetas de expansión.
Los dispositivos que se usan para introducir o extraer datos de la computadora se denominan
equipos periféricos.
Estos equipos son los que permiten la comunicación entre la computadora y el operador. A su
vez, el medio que contiene los datos se denomina soporte de información.
Los equipos periféricos pueden hacer disminuir el rendimiento de una computadora, dado que
los mismos se encuentran constituidos con una alta proporción de elementos mecánicos. Es por
ello, que al comparar distintos periféricos, interesa mucho analizar la velocidad de transferencia
de cada uno, entendiendo por tal, la velocidad con que los datos se transfieren entre el
procesador y las unidades periféricas.
PCI (Miden unos 8,5 cm y son de color blanco, mas cortas que las ISA, con los
contactos más juntos que la ISA y una pequeña mella): Las ranuras PCI tienen 32
contactos-bits con una frecuencia de trabajo de 33 Mhz hasta los 133 Mhz dependiendo
de la placa base. Estas ranuras son de propósito general y son multidestino y
multimaestras, son las que predominan en este momento. Se está desarrollando el
9
estándar PCI64, que permitirá 64 bits a 66 Mhz, que permitirán a los procesadores de 64
bits trabajar utilizando toda la capacidad y velocidad que tienen.
PCIe (PCI-Express)
Este bus está estructurado como enlaces punto a punto, full-duplex, trabajando en serie. En
PCIE 1.1 (el más común en 2007) cada enlace transporta 250 MB/s en cada dirección. PCIE 2.0
duplica esta tasa y PCIE 3.0 la duplica nuevamente.
En 2006 fue percibido como un estándar de las placas base para PC, especialmente en tarjetas
gráficas. Marcas como ATI Technologies y nVIDIA, entre otras, tienen tarjetas gráficas en
PCI-Express permitiendo una mejor resolución.
Puertos de memoria
A estos puertos se conectan las tarjetas de memoria RAM. Los puertos de memoria son
aquellos puertos, o bahías, donde se pueden insertar nuevas tarjetas de memoria, con la
finalidad de extender la capacidad de la misma. Existen bahías que permiten diversas
capacidades de almacenamiento que van desde los 256MB (megabytes) hasta 64 GB
(gigabytes). Conviene recordar que en la memoria RAM es de tipo volátil, es decir, si se apaga
repentinamente la computadora los datos almacenados en la misma se pierden. Dicha memoria
está conectada con la CPU a través de buses de muy alta velocidad. De esta manera, los datos
ahí almacenados se intercambian con el procesador a una velocidad unas 1000 veces más
rápida que con el disco duro.
Puertos inalámbricos
Las conexiones en este tipo de puertos se hacen sin necesidad de cables, a través de la
conexión entre un emisor y un receptor, utilizando ondas electromagnéticas. Si la frecuencia de
la onda, usada en la conexión, se encuentra en el espectro de infrarrojos se denomina puerto
infrarrojo. Si la frecuencia usada en la conexión es la usual en las radio frecuencias entonces
sería un puerto Bluetooth.
La ventaja de esta última conexión es que el emisor y el receptor no tienen por qué estar
orientados el uno con respecto al otro para que se establezca la conexión. Esto no ocurre con el
puerto de infrarrojos. En este caso los dispositivos tienen que "verse" mutuamente, y no se
debe interponer ningún objeto entre ambos ya que se interrumpiría la conexión.
Puerto USB
Artículo principal: Universal Serial Bus
10
Símbolo del puerto USB.
Es totalmente plug and play, es decir, con sólo conectar el dispositivo (con la computadora ya
encendida), el dispositivo es reconocido e instalado de manera inmediata. Sólo es necesario
que el sistema operativo lleve incluido el correspondiente controlador o driver.
A través del cable USB no sólo se transfieren datos, además es posible alimentar dispositivos
externos.
Antes de comenzar a describir las unidades periféricas una por una, conviene aclarar el
concepto de archivo (en inglés file). Mas Adelante se profundizará más sobre el mismo. Hasta
ahora hemos visto que la unidad de información es el byte, por otro lado también vimos que
pequeñas agrupaciones de éstos forman lo que se denomina palabra. Una agrupación mucho
mayor de bytes realizada con el criterio de la necesidad de su uso se denomina archivo. O sea,
con el objeto de clasificar la información es que existen los archivos. Gracias a los archivos se
puede diferenciar la información de un texto determinado con la de otro. Son paquetes de
información, los cuales se distinguen uno de otros con nombres, los que permiten grabarlos
para luego recuperarlos por dicho nombre.
Pantalla o Monitor
El monitor con tecnología LED en vez de utilizar lámparas fluorescentes de cátodos fríos
(CCFL), que contienen mercurio -un material vital en los sistemas CCFL pero tóxico para los
humanos y agresivo con el ambiente, y ampliamente usado en pantallas LCD convencionales.
La tecnología LED (Light-Emitting Diode usan sistemas de retroiluminación, una tecnología que
ofrece ventajas sobre la tecnología de iluminación convencional por lámparas fluorescentes de
cátodos fríos evitando de ese modo la contaminación que provoca y las emisiones de CO2.
Además disminuyen el consumo eléctrico dejándolo por debajo del 50% respecto a los LCD.
También aporta ventajas visuales con mayor uniformidad del brillo y de intensidad, alcanza su
punto máximo de brillo mucho antes que otras pantallas. Aumento del contraste dinámico,
manejo más depurado de la luz por zonas y procesamiento del color, con negros y blancos de
mayor intensidad, y grises profundos, todo ello resulta en imágenes vibrantes y fluidas.
11
Los monitores LED además son extrafinos, con espesores de alrededor de 20mm, lo cual hace
que estos sean más ligeros y ocupen todavía menos espacio.
En resumen, en general son de mayor calidad, gastan menos energía, ayudan a cuidar el medio
ambiente y presentan mejor imagen que un LCD.
Para comenzar con esta comparación entre monitores LED y LCD, vamos a explicar las
diferencias fundamentales entre ellos.
La diferencia principal Los monitores LED y LCD poseen la misma tecnología para la
visualización de imágenes, pero la diferencia está en el tipo de iluminación que utiliza cada uno.
Los monitores LCD utilizan lámparas fluorescentes de cátodo frío para la iluminación de fondo,
mientras que los monitores LED usan diodos emisores de luz. Esta es la principal diferencia
entre las dos tecnologías de visualización. Se puede decir que los LED son "un tipo" de
monitores LCD.
Los monitores LED ofrecen una mayor graduación en la intensidad de la luz, dando mayor
calidad a los colores. También poseen una mejor relación de contraste dinámico, es por eso que
en caso de elegir un monitor para juegos y otro tipo de aplicaciones de gráficos intensivos los
monitores LED son la mejor opción.
Existen actualmente dos tipos de técnicas de iluminación de fondo LED, uno es el LED RGB
dinámico y el otro es el LED. El primer tipo de luz de fondo (utilizado en los LCD) utiliza LED
ubicados detrás del televisor o de las pantallas de los monitores LCD, mientras que el segundo
utiliza LED colocados alrededor del borde del monitor, desde donde la luz se hace difusa detrás
de la pantalla. Es la ubicación de los LED lo que permite que los monitores LED sean mucho
más delgados que los LCD convencionales.
Consumo de energía
Otra de las ventajas que tienen los monitores LED sobre los LCD es el factor de consumo de
energía, ya que su consumo de energía es hasta un 40% menor que el de los monitores LCD y
son considerados "ecológicos" gracias a que no se utiliza mercurio para su producción.
Está comprobado que los LED ocasionan menos daño a los ojos de aquellas personas que
pasan mucho tiempo frente a un monitor.
Scanners
Estos modelos son usados, además, para aplicaciones con OCR, (Optical Character
Recognition - Carácter Óptico de Reconocimiento. Este proceso consiste en decodificar
caracteres de los documentos explorados por el scanner. Los mismos son almacenados en un
disco en formato de código ASCII, permitiendo a los procesadores de textos y base de datos,
procesarlo de acuerdo a su necesidad.
12
Cuando hablamos de resolución del scanner nos referimos al número de puntos que puede
imprimir en cada pulgada de las líneas del documento. La cuenta es sencilla: a igual superficie
mayor cantidad de puntos. La resolución óptica de los scanners promedia los 600 dpi (puntos
por pulgada), aunque a través del proceso de interpolación realizado por el software pueden
alcanzar resoluciones muy superiores, hasta 9600 dpi. Varios scanners ofrecen selectores de
resolución, lo que permite seleccionar formatos variados de filas, imágenes pequeñas con mejor
resolución.
En el caso de los scanners color, la luz reflejada es separada por filtros en tres colores básicos:
rojo, verde y azul – RGB- y a través de ellos componen todo el espectro de colores.
Cuantos más tonos contenga el scanner, mejor será su resolución, lo que implica más bits por
cada dots de la imagen. Así, por ejemplo, un scanner de 36 bits, utiliza entre 10 y 12 bits para
cada color –R G y B- dándole mejor salida a las diferentes tonalidades.
Modems
13
Los lectores de caracteres ópticos son periféricos que permiten leer caracteres especiales
impresos en papel común.
Actualmente se usan mucho en los comercios minoristas que imprimen en las etiquetas de sus
productos un código individualizador del artículo.
Cuando una transacción se produce este código será detectado por el lector óptico, quien
transmitirá los datos a la caja registradora para emitir el ticket de facturación, y transmitirá los
datos al computador central para procesar la transacción.
Los códigos ópticos más conocidos son los OCR (cualquier carácter impreso) y los códigos de
barras (UPC) usados en artículos de venta minoristas.
Los lectores de caracteres magnéticos MICR (Magnetic Ink Character Recognition) permiten
procesar documentos que contienen datos escritos en tinta magnética. Son de uso habitual en
los bancos (cheques), aunque también se utilizan en otros ámbitos, como por ejemplo en la
liquidación de impuestos.
Los lectores de banda magnética son utilizados en los sistemas de tarjetas de crédito y de
cajeros automáticos de los bancos. Consisten en lectores de las bandas magnéticas colocadas
al dorso de las tarjetas plásticas provistas a los usuarios de estos sistemas, y cuya finalidad es
identificar a los usuarios y autorizar sus transacciones.
Mouse
Al igual que el teclado, el mouse es el elemento periférico que más se utiliza en un PC. El
mouse ha sido el elemento que más variaciones han sufrido en su diseño. Es difícil ver dos
modelos y diseños de mouses iguales, incluso siendo del mismo fabricante.
Impresoras
Para la computadora, un carácter es una combinación codificada de bits, sin embargo para el
hombre el mismo carácter es un símbolo impreso.
La computadora procesa los datos en forma codificada, pero cuando prepara la salida final para
que la emplee el hombre, utiliza una impresora.
Las impresoras constituyen uno de los tipos más comunes de dispositivos de salida usados por
la computadora. Una impresora es un equipo que convierte los datos de salida codificados del
compilador en símbolos gráficos impresos.
14
Impresoras matriciales o de matriz de puntos: Es una de las más conocidas impresoras de
impacto. Los caracteres son muy parecidos a los de las impresoras térmicas, pero la impresión
de los mismos es diferente, ya que se realiza al incidir las agujas sobre una cinta entintada
(contenida en un cartucho) que se desplaza sobre el papel. Este cartucho una vez que se acaba
la cinta, podrá ser cambiado por otro.
Su velocidad de impresión oscila entre los 80 y 400 cps. Los caracteres son escritos durante el
movimiento del carro en ambos sentidos, aprovechando la fase de retorno. Esta técnica,
llamada escritura bidireccional, aumenta notablemente la velocidad de impresión.
Ventaja: Las impresoras matriciales permiten imprimir varias copias de una sola vez
(naturalmente las otras copias deberán tener una capa especial o deberemos poner entre medio
papel carbónico).
Desventajas: Tanto el carro como las agujas poseen movimiento, por lo que tienen una
mecánica compleja. Requieren así un mantenimiento periódico y, a la larga, la sustitución de
alguna que otra pieza. La calidad de impresión no es de las mejores. Para corregir este defecto,
algunas impresoras realizan dos pasadas en la escritura de cada línea, desplazando el papel
horizontalmente de forma que en la segunda pasada los nuevos puntos queden representados
en el espacio dejado entre los puntos de la primera. Este tipo de escritura es denominada near
letter quality o pseudo character quality. Este método tiene el inconveniente de necesitar el
doble de tiempo para realizar la misma labor. El ruido es tan grande que puede llegar a
molestar.
Ventajas: El nivel de ruido es nulo debido a la falta de elementos mecánicos que inciden sobre
el papel. La cosecha actual de estas impresoras ofrece texto con calidad cercana al láser y una
excelente salida de color que en algunos casos compite con la de las tecnologías más caras de
impresión velocidad obtenida es buena. Su costo se ha reducido bastante en los últimos
tiempos, por lo que resulta la compra aconsejada para hogares y oficinas.
Desventajas: No es posible obtener varias copias de una sola vez. La tinta es bastante cara. La
salida de la tinta puede obturarse, especialmente si no se imprime a menudo.
15
Hoy están casi al alcance de todos; por eso explicamos en profundidad los distintos aspectos de
la tecnología y analizamos la oferta en nuestro mercado.
En primer lugar cabe destacar que si bien se utiliza el término genérico de impresoras láser,
algunas de ellas no se valen de haces láser. Sin embargo, todas ellas imprimen de una página,
por lo cual hay quienes las llaman simplemente impresoras de página.
En la actualidad, existen tres tecnologías utilizadas en las impresoras de página. Todas ofrecen
prestaciones similares, la misma resolución y velocidad de impresión.
La más frecuente es la láser, que adquirió popularidad en parte ante el éxito de los motores
Canon (mas pequeños que los hasta ese momento existentes, ofreciendo una performance
adecuada). En este tipo de impresoras, un láser diodo genera un haz que es reflejado en un
espejo poligonal rotatorio. De esta forma, el haz barre todo el ancho del tambor.
Una segunda tecnología hoy empleada es la de LEDs (Diodos Emisores de Luz). En ésta no se
utiliza una única fuente de luz sino un conjunto de miles de LEDs. A cada pixel de la línea de
impresión de 720 dpi (dots per inch = puntos por pulgada) le corresponde su propia lucecita que
se prende y se apaga a medida que el tambor gira, exponiéndose sólo una pequeña porción del
tambor para crear su parte de la imagen.
La velocidad de impresión es uno de los factores más importantes que los usuarios toman en
consideración a la hora de elegir la impresora que mejor se ajuste a sus necesidades. Sin
embargo, no existe ningún estándar en el mercado para medir el rendimiento real de las
impresoras láser.
16
software y hardware que se esté utilizando en el proceso de impresión.
Disco magnético
Un disco duro interno es un dispositivo de almacenamiento de información que utiliza un
sistema de grabación magnética para almacenar datos digitales que se encuentra dentro de
cualquier ordenador de sobremesa o portátil.
A diferencia de los discos duros externos, es una unidad interna que debe permanecer en el
cuerpo del dispositivo a utilizar, mientras que los primeros se conectan por cable bus serie
universal (USB). Ésta es su principal diferenciación, además del precio, que suele ser menor y
en los equipos prefabricados ya viene incluido.
Discos FB (Fiber Channel) El canal de fibra es una tecnología de red que se puede encontrar a
velocidades de 1, 2, 4 y 8 Gbit/s. Suele ser utilizado en almacenamiento para el ámbito
empresarial.
SATA (Serial ATA) SATA es “Serial Advanced Technology Attachment” o “Tecnología Avanzada
Adjunta Serial”. Se trata de un dispositivo electromecánico capaz de almacenar y leer grandes
cantidades de información a alta velocidad por medio de electroimanes que se encuentran
sobre un disco cerámico cubierto de limadura magnética.
Tiene arquitectura punto a punto, lo que quiere decir que la conexión entre el dispositivo y el
puerto es directa.
SCSI (Small Computers System Interface) Los discos duros internos SCSI (o Interfaz de Sistema
para Pequeñas Computadoras) cuentan con una interfaz estándar para transferir datos entre
distintos dispositivos del bus de la computadora. Aportan mayor duración, fiabilidad y menor
tasa de transferencia de datos. Se suelen utilizar en servidores y estaciones de trabajo con alto
rendimiento y entornos profesionales.
SAS (Serial attached SCSI) Un disco duro SAS es un dispositivo electromecánico capaz de
almacenar y leer grandes cantidades de información a alta velocidad con electroimanes que se
encuentran en un disco recubierto de ligadura magnética que se suele utilizar en servidores y
para guardar información de grandes empresas, al contrario que los SATA o IDE que son más
para los hogares.
Los discos SAS tienen mejor rendimiento en condiciones de estrés, aportan una mayor
fiabilidad en usos intensivos y consumen menos energía que los SATA, pero también son más
caros. Fueron creados para ser el reemplazo de los SCSI.
¿Magnéticos o SSD?
Los discos duros magnéticos son los discos duros tradicionales que permiten almacenar datos
de forma habitual para poder acceder a ellos cuando se necesita. Se componen por un conjunto
de discos, uno encima del otro, unidos por un eje.
En cada plato y en cada una de sus caras, un cabezal de lectura/escritura lee o graba tus datos
sobre los discos.
Cuanto más finos sean los discos mejor será la grabación, y cuanto más rápido giran a mayor
velocidad se transmiten los datos, tanto a la hora de leerlos como al escribirlos
En cuanto al tamaño, las cajas de los discos duros mecánicos pueden ser de 2,5" o de 3,5". Su
precio puede variar dependiendo de este tamaño, pero sobre todo de su capacidad de
17
almacenamiento. De hecho, la gran ventaja de estos discos duros con respecto a los SSD es
que son bastante más económicos.
Los discos duros SSD (Solid State Drive) son más rápidos que los convencionales ya que
tienen un acceso mucho más rápido a los datos. Se caracterizan por ser sólidos, lo que aporta
un menor desgaste, menor calor y ausencia de ruidos. Su estructura de disco es una placa de
circuitos con componentes fijos y chips de memoria.
Las unidades de estado sólido o SSD (Solid State Drive) son una alternativa a los discos duros.
La gran diferencia es que mientras los discos duros utilizan componentes mecánicos que se
mueven, las SSD almacenan los archivos en microchips con memorias flash interconectadas
entre sí. Por lo tanto, casi podríamos considerarlos como una evolución de las memorias USB.
Los SSD suelen utilizar memorias flash basadas en NAND, que como también son no-volátiles
mantienen la información almacenada cuando el disco se desconecta. No tienen cabezales
físicos para grabar los datos, en su lugar incluyen un procesador integrado para realizar
operaciones relacionadas con la lectura y escritura de datos.
Estos procesadores, llamados controladores, son los que toman las "decisiones" sobre cómo
almacenar, recuperar, almacenar en caché y limpiar los datos del disco, y su eficiencia es uno
de los factores que determinan la velocidad total de la unidad. Además, al no depender del giro
de un componente físico, también se logra una unidad más silenciosa que los discos
mecánicos.
En cuanto al tamaño, estos discos suelen ser de 2,5", y tienen un diseño casi idéntico al de los
discos duros mecánicos, lo que ayuda a que puedan encajar en las mismas carcasas y ranuras
donde van montados los discos duros convencionales en un ordenador.
La velocidad de este tipo de discos puede ir de los 133 mb/a a los 8 gbits/s, aunque los que
tienen una mayor velocidad suelen ser utilizados para un entorno más profesional debido a su
alto precio.
Las velocidades para un entorno doméstico pueden ir de las 5.400 a las 10.000 revoluciones
por minuto, aunque las más habituales son las 7.200 rpm. Los discos SAS pueden llegar a las
15.000 rpm.
Una interfaz se refiere al punto de conexión entre dos componentes. En el caso de los discos
duros estamos acostumbrados a hablar de IDE, SATA o USB, aunque también hay otras hasta
ahora minoritarias como eSATA, Firewire o Thunderbolt.
Lo más habitual en los discos duros multimedia actuales es que utilicen discos duros
tradicionales con interfaz SATA2, o SATA3 en los modelos más modernos. Reproduciendo
contenido en alta definición, estas interfaces sirven un ancho de banda más que suficiente para
las labores de reproducción multimedia.
Pero no sólo la interfaz marca el límite. Por muy rápida que ésta sea, el disco duro debe estar
también a la altura. Si por ejemplo estamos utilizando en SATA3 (6 Gbps, unos 768 MB/s) un
disco duro antiguo que trabaje a 50 MB/s, nuestros datos se moverán a esos 50 MB/s. Si nos
remontamos un poco más allá y por ejemplo re utilizamos un viejo disco duro SATA1 que se
mueva a 15 MB/s, quizá tengamos problemas en la reproducción.
18
En esta entrada vamos a mostrar las principales interfaces del mercado y sus características
más importantes mediante una tabla comparativa. Indicaremos el ancho de banda de cada
interfaz y su velocidad de transferencia correspondiente, un aspecto fundamental si se quiere
reproducir cierto tipo de contenido.
19
Capacidad de los discos duros internos
La capacidad de los discos duros internos es muy variada, pudiendo llegar actualmente a
sobrepasar los 6 terabytes (TB).
SSD HDD
PRINCIPALES
VENTAJAS
RUIDO Más silencioso por no tener Algo más ruidoso por tener partes
partes móviles móviles
20
DURABILIDAD Sus celdas pueden reescribirse Con partes mecánicas que pueden
un número limitado de veces dañarse con movimientos
ARRANQUE DE SO
TRANSFERENCIA En general, entre 200 y 550 MB/s En general entre 50 y 150 MB/s
DE DATOS
MAGNETISMO datos
En esta tabla podrás ver cuales son las principales diferencias entre ambas tecnologías de
almacenamiento. La principal diferencia tiene que ver con capacidades máximas y precio.
El PenDrive
También llamado memoria USB (Universal Serial Bus) es un tipo de dispositivo de
almacenamiento de datos que utiliza memoria flash para guardar datos e información.
Las empresas Trek Technology e IBM comenzaron a vender las primeras unidades de memoria
USB en el año 2000. Trek vendió un modelo bajo el nombre comercial de Thumbdrive e IBM
vendió las primeras unidades en Norteamérica bajo la marca DiskOnKey, desarrolladas y
fabricadas por la empresa israelí M-Systems en capacidades de 8 MiB, 16 MiB, 32 MiB y
64 MiB. Estos fueron promocionados como los «verdaderos reemplazos del disquete», y su
diseño continuó hasta los 256 MiB. Los modelos anteriores de este dispositivo utilizaban
baterías, en vez de la alimentación de la PC.
Posteriormente se evoluciono a una segunda generación de dispositivos con conectividad a
través de la norma USB 2.0.
Las velocidades de transferencia de archivos varían considerablemente. Se afirma que las
unidades rápidas típicas leen a velocidades de hasta 480 Mbit/s y escribir a cerca de la mitad de
esa velocidad. Esto es aproximadamente 20 veces más rápido que en los dispositivos USB 1.1,
que poseen una velocidad máxima de 24 Mbit/s.
21
La norma USB 3.0 ofrece tasas de cambio de datos mejoradas enormemente en comparación
con su predecesor, además de compatibilidad con los puertos USB 2.0. La norma USB 3.0 fue
anunciada a finales de 2008, pero los dispositivos de consumo no estuvieron disponibles hasta
principios de 2010. La interfaz USB 3.0 dispone las tasas de transferencia de hasta 4,8 Gbit/s,
en comparación con los 480 Mbit/s de USB 2.0. A pesar de que la interfaz USB 3.0 permite
velocidades de datos muy altas de transferencia, a partir de 2011 la mayoría de las unidades
USB 3.0 Flash no utilizan toda la velocidad de la interfaz USB 3.0 debido a las limitaciones de
sus controladores de memoria, aunque algunos controladores de canal de memoria llegan al
mercado para resolver este problema. Algunas de estas memorias almacenan hasta 256 GiB de
memoria (lo cual es 1024 veces mayor al diseño inicial de M-Systems).
Los primeros modelos requerían una batería, pero los actuales usan la energía eléctrica
procedente del puerto USB. Estas memorias son resistentes a los rasguños (externos), al polvo,
y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento
portátil, como los disquetes, discos compactos y los DVD.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de
datos más utilizado. Se pueden encontrar en el mercado fácilmente memorias de 8, 16, 32, 64,
128, 256, 512 GB, y hasta 1 TB.
Un ultrabook es en realidad un notebook liviano y delgado, pero con una aceptable capacidad
de procesamiento para ser verdaderas estaciones de trabajo, a diferencia de los "netbooks",
que también son notebooks pequeños, pero de escasa capacidad, más pensados para navegar
de manera casual por Internet o realizar tareas simples.
La idea es ofrecer un notebook muy liviano y delgado, con una capacidad sobresaliente en
cuanto a su poder y duración de la batería. Esto suena muy parecido a lo que ofrecen algunas
tablets, pero la verdad es que aún no pueden reemplazar a un PC convencional para muchas
tareas más complejas o de mayor demanda.
Como concepto fue introducido por Intel durante el año 2011, y se planteó como la siguiente
generación de computadoras portátiles de alto rendimiento.
De manera técnica, las especificaciones han ido evolucionando, pero de manera general su
grosor va entre los 18 y 23 milímetros (dependiendo de la pantalla, 18 para las menores a 13,3
pulgadas y 21 o más para las más grnades), una duración de por lo menos 5 horas de batería, y
sólo unos segundos para recuperar el sistema tras una hibernación. El sistema de
almacenamiento interno es "sólido", es decir en base a memoria tipo flash para un mejor
desempeño y menor peso.
22
NOTEBOOKS Y NETBOOKS
Una notebook por lo general incluye un potente procesador y memorias de gran capacidad, ya
que cuenta con una serie de componentes similares a los que utiliza una computadora de
escritorio.
En el caso de las notebooks, los elementos de hardware han sido fabricados con materiales
especiales, que permiten lograr un tamaño físico significativamente menor que aquellos
componentes que incluyen las PCs de escritorio.
Por lo general, una notebook de buena calidad incluye un procesador de bajo consumo, un
disco rígido de 2,5 pulgadas o menor, uno o más módulos de memoria RAM del tipo SO DIMM,
placa de video, además por supuesto de su pantalla TFT o WXGA integrada, teclado y
touchpad o trackpad.
Por el contrario, en el caso de las netbooks, están han sido concebidas con el fin de ofrecer un
tipo de computadora portátil de bajo costo y tamaño reducido, con el objetivo de brindar un
equipo altamente transportable para la realización de tareas básicas desde cualquier lugar.
Como su nombre lo indica, es el equipo adecuado para navegación por Internet, aunque
también permiten realizar algunos trabajos básicos, tales como lectura de PDF, y correr
aplicaciones como procesadores de textos y hojas de cálculos.
En cuanto a la autonomía que brindan ambos equipos, cabe destacar que por lo general las
netbook poseen baterías más pequeñas que las que incluyen las notebooks, por lo cual no
logran soportar más de tres horas de uso continuo del equipo, punto que en las notebooks es
claramente una ventaja, ya que en la mayoría de los modelos más modernos permiten obtener
una autonomía realmente superior.
Una notebook incluye por lo general memoria RAM de gran capacidad, placa de video, un
potente microprocesador, entre otros componentes de hardware, que nos permiten utilizar
sofisticadas y modernas aplicaciones.
Por su parte, la mayoría de las netbook, que han sido pensadas para ofrecer un equipo
totalmente ligado a la conectividad, cuentan con webcam incorporada, puerto USB, Bluetooth,
conexión Wi-Fi, lector de tarjetas de memoria extraíbles, parlantes y micrófonos, ofreciéndonos
de esta manera un completo equipo portátil para mantenernos permanentemente conectados a
al a red.
Al tratarse de equipos más pequeños, las netbooks poseen un peso realmente inferior al de
cualquier notebook, por lo que su ventaja más notable es la verdadera portabilidad que ofrece.
Ipad: El iPad es un dispositivo electrónico tipo tablet desarrollado por Apple Inc. Anunciado el
27 de enero de 2010, se sitúa en una categoría entre un "teléfono inteligente" (Smartphone) y
un portátil, enfocado más al acceso que a la creación de contenido.
iPhone: El iPhone es un teléfono inteligente multimedia con conexión a Internet, pantalla táctil
capacitiva (con soporte multitáctil) y una interfaz de hardware minimalista de la compañía Apple
Inc..
Ya que carece de un teclado físico, contiene uno virtual en la pantalla táctil en orientación tanto
vertical como apaisada. El iPhone 3GS dispone de una cámara
de fotos de 3 megapíxeles y un reproductor de música
(equivalente al del iPod) además de software para enviar y recibir
mensajes de texto y mensajes de voz. También ofrece servicios
de Internet como leer correo electrónico, cargar páginas web y
conectividad por Wi-Fi. La primera generación de teléfonos eran
GSM cuatribanda con la tecnología EDGE; la segunda
generación ya incluía UMTS con HSDPA.
El iPhone se introdujo inicialmente en los Estados Unidos el 29 de junio de 2007. Fue nombrado
«Invento del año» por la revista Time en el 2009.[4] El 11 de julio de 2008 el iPhone 3G salió a la
venta, estando disponible en 22 países[5] y se prevé que sean 70 para finales de año. Esta
versión soporta la transmisión de datos por 3G a una velocidad más rápida y tecnología AGPS.
Mientras que el día 7 de junio de 2010 en la WWDC'10 Apple presentó el iPhone 4, con un
diseño renovado, tanto estéticamente al abandonar su estética redondeada, como en el
Hardware. Contiene el procesador Apple A4, creado por Intrensity y Samsung, aunque
posteriormente comprado por Apple, que es el mismo que contiene el iPad, 512 MiB de
memoria RAM, una panel de alta resolución apodado por Apple Retina Display, 2 cámaras, una
de 5 megapíxeles con opción de grabar en HD 720p y la otra VGA.
Tablet
Una tableta, en muchos lugares también llamada Tablet (del inglés: tablet o tablet computer),
es una computadora portátil de mayor tamaño que un teléfono inteligente , integrada en
una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o
24
un estilete (pasivo o activo), sin necesidad de teclado físico ni ratón. Estos últimos se ven
reemplazados por un teclado virtual y, en determinados modelos, por un mini trackball o "bola
de seguimiento" integrada en uno de los bordes de la pantalla.
El término puede aplicarse a una variedad de formatos que difieren en el tamaño o la posición
de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (Slate),
habitualmente de 7 a 12 pulgadas, y carece de teclado integrado aunque puede conectarse a
uno inalámbrico (por ejemplo, Bluetooth) o mediante un cable USB (muchos sistemas
operativos reconocen directamente teclados y ratones USB).
Las minitabletas son similares pero de menor tamaño, frecuentemente de 7 a 8 pulgadas. Otro
formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra
o se desliza debajo de la pantalla, pudiéndose manejar como un portátil clásico o bien como
una tableta. Lo mismo sucede con los aparatos de formato híbrido, que disponen de un teclado
físico pero pueden separarse de él para comportarse como una pizarra.
Los tabléfonos son teléfonos inteligentes grandes y combinan las características de estos con
las de las tabletas, o emplean parte de ambas.
Las utilidades de las tabletas son.
● Lectura de libros electrónicos
● Lectura sin conexión de páginas web (p. ejemplo, con el navegador Opera).
● Lectura de cómics
● Consulta y edición de documentos de suites ofimáticas
● Navegación web (mediante Wi-Fi, USB o 3G interno).
● Llamadas telefónicas, si son 3G, sustituyendo así al teléfono móvil; se suele utilizar un
manos libre bluetooth.
● GPS
● Reproducción de música
● Visualización de vídeos y películas, cargadas desde la memoria interna, memoria o
disco duro USB o Wi-Drive y con salida mini-HDMI.
● Cámara fotográfica y de vídeo HD
● Videoconferencia
La tableta funciona como una computadora, solo que más ligera en peso y más orientada
al multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que
pueda leerse una memoria o disco duro externo USB, debe contar con USB On-The-Go,
también denominado USB Host.
Ejercicio 2:
Realice un cuadro comparativo sobre los nuevos dispositivos de medios, ventajas, desventajas
y utilización de los mismos en Argentina (tendencias)
25
2. SOFTWARE
Es por ello, que para que cualquiera de los dispositivos mencionados pueda funcionar, es
necesario que el hombre le dé instrucciones. Este conjunto de instrucciones agrupadas en
programas, constituye el llamado SOFTWARE que es pensado y realizado por el hombre.
De ahí que podamos equiparar el sistema informático con un triángulo equilátero, en cuyos
vértices se encuentran: el hardware o equipo físico, el software o conjunto lógico, y el hombre o
elemento coordinador, los tres elementos de igual importancia para decidir el rendimiento de
cualquier proyecto informático.
2) Software de Aplicación: también llamado específico, puesto que como su nombre lo indica,
está constituido por programas confeccionados para fines determinados, como ser
procesamiento de texto, contabilidad, científicos, de control de gestión, etc.
26
2.1.3. Software Libre
▪ La libertad de ejecutar el programa como se desea, con cualquier propósito (libertad 0).
▪ La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que
usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para
ello.
▪ La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
▪ La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto
le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las
modificaciones. El acceso al código fuente es una condición necesaria para ello.
Cuando los usuarios no pueden controlar el programa se dice que el software no es libre, sino
privativo o propietario. Para utilizar tales programas y/o sistemas, es menester comprar (en
27
realidad, meramente licenciar) el derecho correspondiente al "propietario" de ese software, so
pena de violar las leyes que protegen la propiedad intelectual y/o el derecho de autor.
Las consecuencias legales de las infracciones a las citadas leyes difieren en las diversas
legislaciones nacionales, pero en casi todas son importantes, tanto en el orden civil como en el
penal.
Los sistemas operativos y programas de aplicación de software libre son múltiples y variados y
abarcan las más corrientes necesidades de los usuarios. Están siendo permanentemente
perfeccionados a través de la interacción de quienes los usan, quienes pueden modificarlos y
adaptarlos fácilmente a sus necesidades.
Se plantea así una alternativa válida para aquellos que aspiran a utilizar sistemas y programas
informáticos eficaces, seguros y estables sin la amenaza de sanciones legales por su uso no
autorizado. Para ello, es necesario que la utilización y el mantenimiento del software no
dependan de la buena voluntad de los proveedores, ni de las condiciones monopólicas,
impuestas por éstos. Se precisan sistemas cuya evolución pueda ser garantizada gracias a la
disponibilidad del código fuente.
En Córdoba, desde el año 2000 actúa la Fundación Vía Libre (www.vialibre.org.ar) cuyo objetivo
es el de difundir el uso del software libre y prestar asistencia técnica a quienes deseen
utilizarlo, en particular a Pequeñas y Medianas Empresas, Organizaciones No
Gubernamentales, Organismos o Dependencias del Estado, Entidades de Bien Público, etc.
También el Grupo de Usuarios de GNU/Linux de Córdoba (GRULIC- www.grulic.org.ar/) tiene
una lista de soporte muy activa, además de organizar ferias de demo de tecnología, festivales
de instalación y reuniones de solución de problemas técnicos.
Desde el año 2000 la Universidad Nacional de Córdoba sigue una política de uso de software
libre y apoyo a proyectos de software libre. Esto se traduce en un uso intensivo de software
libre en la infraestructura de servicios, lo que incluye, uso del Sistema operativo GNU/Linux en
todos los servidores, el Servidor de Web Apache, cortafuegos basados en Linux y
la Plataforma educativa Moodle para las aulas virtuales de las unidades académicas.
28
Cabe aclarar que Software Libre no es sinónimo de Software Gratuito. Este último término
específicamente significa que tiene precio cero, y la filosofía del Software Libre es cuestión de
libertad, no de precio. Las copias de Software libre frecuentemente están libres de cargo, pero
también están disponibles por un precio de descarga. El concepto erróneo se debe básicamente
a que en inglés el término free significa tanto libre como gratuito.
Con el Software Libre se permite al usuario el control, corrección y modificación del programa
para adecuarlo a sus necesidades. Para el caso del Software Propietario, el usuario está
habilitado para ejecutar un programa, pero no necesariamente para inspeccionarlo ni
modificarlo, entonces no puede aprender de él, se vuelve dependiente de una tecnología que no
sólo no comprende sino que le está expresamente vedada. Los profesionales técnicos locales,
que podrían ayudarlo a alcanzar sus metas, están igualmente limitados: como el funcionamiento
del programa es secreto y su inspección está prohibida, no es posible la asistencia técnica. Con
el Software Libre esto no ocurre y, por lo tanto, se estarían ampliando las posibilidades
laborales de profesionales informáticos y fomentando el desarrollo local y la creatividad.
Además, el trabajo cooperativo que existe tras el desarrollo del Software Libre genera productos
en muchos casos más confiables que los Propietarios. El hecho de que toda la comunidad
trabaje unida para arreglar los problemas deriva en que los usuarios no sólo informan los
errores, sino que incluso los arreglan y envían los arreglos al resto de los usuarios.
Por otra parte, con el empleo de Software Libre se elimina la posibilidad de utilización de
Software ilegal, que atenta contra los derechos de propiedad intelectual.
2.2.1. Concepto
En la actualidad el usuario no tiene por qué saber cómo gestiona el computador la memoria o
los discos, o cómo recibe los datos; lo único que pretende es utilizar el sistema de la manera
más sencilla para obtener resultados. Para este propósito sirven los sistemas operativos, los
cuales permiten encadenar trabajos, conectar y manejar los periféricos, proporcionar protección
contra errores, gestionar la utilización de memoria, etc.
29
máquina para hacerla funcionar. Y como cada fabricante hace una máquina distinta, imagínense
lo que sería operar una computadora sin este tipo de programa. Por ello decimos que un
sistema operativo no es más que un conjunto de programas y rutinas que asumen el control de
todas las operaciones de la máquina y permiten que el usuario se pueda entender con ella a
través de de comandos e instrucciones relativamente sencillas. Esto va desde cargar archivos
desde cualquier medio de almacenamiento, almacenar información en él, copiar o borrar datos,
recibir mensajes en pantalla, ejecutar un programa, etc. Pero aún más, el sistema operativo
estandariza máquinas diferentes (por supuesto con características similares) y permite la
utilización común del software.
Hoy en día, los sistemas operativos que se proveen para computadoras están incorporando
mayores y mejores recursos tendiendo a hacer cada vez más simple el trabajo para aquellos
usuarios que utilicen la computadora.
30
Las operaciones de entrada/salida no son realizadas por el procesador central sino por
los procesadores de E/S esto posibilita que la CPU siga realizando operaciones. El
sistema operativo se comunica con estos canales con instrucciones específicas.
El estudio de los sistemas operativos suele dividirse en funciones jerárquicas, que van desde
niveles muy cercanos a la máquina misma hasta niveles más “virtuales”, en el sentido de que
tratan a la computadora ya no como una máquina (dotada de procesador, memoria, etc.), sino
como un esquema diseñado para manejar información.
Esta es una idea fundamental: un sistema operativo convierte a una máquina computadora
“real” en una computadora “virtual”, que es capaz de hacer cosas cualitativamente diferentes a
las de su contraparte física.
El esquema que suele seguirse para el estudio de los sistemas operativos recibe el nombre de
“modelo de cebolla”, debido a que está formado por “capas concéntricas” alrededor de un
núcleo, en forma similar a la de una cebolla.
La parte interna del conjunto jerárquico de programas que forma un sistema operativo recibe el
nombre de núcleo o kernel (en inglés). Algunas de las otras capas se encargan del manejo de la
memoria, del manejo del procesador, del manejo de los dispositivos de entrada/salida, del
manejo de archivos, etc.
Las funciones del núcleo consisten en tomar control del procesador y determinar cuándo y
cómo se le va a repartir entre diversos usuarios.
Otra mejora de explotación de los equipos aparece con el “tiempo real”, gracias al cual el
usuario puede obtener respuesta inmediata a su problema. Esta característica permite al
usuario disponer de todo el ordenador, por lo que el sistema operativo se perfecciona para
lograr minimizar los tiempos de respuesta para lograr el “tiempo compartido” de la explotación
de un solo ordenador por varios usuarios.
El sistema operativo por lo general reside en un dispositivo de almacenamiento en línea y cada
vez que se enciende la máquina, se convoca a la memoria.
31
2.2.3. Evolución de los sistemas operativos
El concepto de Sistema Operativo data de la década de los 50. Se puede considerar al primer
Sistema Operativo de la historia al creado en 1956 para un ordenador IBM 704, básicamente lo
único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.
En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen
conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema
en tiempo real.
Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas
Operativos que existen hoy en día.
Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin
ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a
la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras
interfaces de usuario.
En los 80 nacieron sistemas como CPM, Mac OS, MS-DOS y, hacia el final de dicha década, las
primeras versiones de Windows.
Linux fue concebido por un finlandés de 21 años llamado Linus Torvalds estudiante de la
universidad de Helsinki, quien comenzó trabajando sobre los fuente de Minix (un pequeño UNIX
desarrollado por Andy Tenembaum) para lograr un Unix mínimo, capaz de correr un shell y un
compilador por lo menos.
Actualmente GNU-Linux lo sigue desarrollando, pero a estas alturas el principal autor es la red
Internet, desde donde un gigantesco grupo de programadores y usuarios aportan su tiempo y
ayuda, tanto al núcleo Linux como al resto de las aplicaciones.
Linux es una muy buena alternativa frente a los demás sistemas operativos. Más allá de las
ventajas evidentes de costo, ofrece algunas características muy notables.
En comparación con las otras versiones de Unix para PC, la velocidad y confiabilidad de Linux
son muy superiores. También está en ventaja sobre la disponibilidad de aplicaciones, ya que no
hay mucha difusión de estos otros Unix (como Solaris, XENIX o SCO) entre los usuarios de PC
por sus altos costos.
32
A diferencia de IBM que adoptó el sistema operativo de otra firma, Microsoft, Apple desarrolló
su propio sistema operativo para su equipo Macintosh, de gran avanzada, y con una
complejidad menor a la de cualquier otro sistema, cubriendo todas las necesidades previstas
por su equipo.
Pero, sin lugar a duda el mayor desafío de Microsoft ha sido la implementación del sistema
operativo WINDOWS, que ha tenido una gran aceptación en el mundo informático y del cual nos
ocupamos en el próximo capítulo.
Desde las primeras versiones como la 3.1, el Windows 98, el Windows XP o el Windows NT
(muy útil para los administradores de redes y con una gran cantidad de servicios de red para la
época) hasta las últimas como Windows 7, Windows 8 y Windows 10, la empresa Microsoft ha
dominado el mercado mundial de computadoras personales, con más del 90% del mercado.
El Sistema Operativo Mac OS no fue la primera interfaz gráfica, pero fue la primera con gran
éxito por su accesibilidad de precio. El nombre de esta Apple fue un capricho de Steve Jobs por
su hija.
Su evolución arranca en 1984 con el Sistema 1 hasta 1990 con el Sistema 7, pasa luego a
comercializarse como Mac OS 8, Mac OS 9 y Mac OS X, en sus múltiples versiones. La
empresa Apple Inc. incluyó los sistemas operativos mencionados en sus computadoras
Macintosh.
Los sistemas operativos que hemos visto fueron hechos para computadores de escritorio o
computadores portátiles, pero los dispositivos móviles como teléfonos, tabletas y reproductores
de mp3 son muy diferentes, por eso sus sistemas operativos son más simples, orientados hacia
la conectividad inalámbrica y a necesidades específicas.
Dentro de los más populares sistemas operativos para móviles se encuentran Android, e iOS,
seguidos por Symbian, Blackberry OS y Windows Phone.
Cada empresa fabricante de teléfonos móviles elige el sistema operativo que introducirá en su
dispositivo, intentando mejorar a la competencia y dar el mejor servicio a sus usuarios.
Algunos de los sistemas operativos utilizados en los dispositivos móviles están basados en el
modelo de capas.
Núcleo
El núcleo o kernel proporciona el acceso a los distintos elementos del hardware del dispositivo.
Ofrece distintos servicios a las superiores como son los controladores o drivers para el
hardware, la gestión de procesos, el sistema de archivos y el acceso y gestión de la memoria.
Middleware
33
motor de mensajería y comunicaciones, códecs multimedia, intérpretes de páginas web, gestión
del dispositivo y seguridad.
Interfaz de usuario
Aparte de estas capas también existe una familia de aplicaciones nativas del teléfono que
suelen incluir los menús, el marcador de números de teléfono etc...
Mercado
A medida que los teléfonos móviles crecen en popularidad, los sistemas operativos con los que
funcionan adquieren mayor importancia. La cuota de mercado de sistemas operativos móviles
en el 2018 era el siguiente:1
1. Android 84,5 %.
2. iOS 14,5 %
3. Otros 1,0 %
Android tiene la mayor cuota, desde enero de 2011, con más de la mitad del mercado,
experimentó un creciente aumento y en solo dos años (2009 a comienzos de 2011) ha pasado a
ser el SO móvil más utilizado.
34
Técnicamente se adapta a diferentes resoluciones de pantalla, es soporte de HTML, HTML5,
Adobe Flash Player, etc., es de tipo multitarea real de aplicaciones. Por último, es posible
controlar el teléfono móvil desde la computadora de forma muy sencilla.
Lenguaje de Máquina
100111010
101000101
110011001
101010101
Un poco de Historia
Un paso que permitió hacer más fácil la programación, fue el desarrollo de los Lenguajes
Simbólicos. Los lenguajes simbólicos utilizan códigos nemónicos tal como ADD (suma), para
representar las instrucciones de la máquina. Por ejemplo, una instrucción de máquina, tal como
21300400, que significa sumar el valor almacenado en la posición 300 al valor almacenado en
la posición 400, puede escribirse como ADD cantidad1, cantidad2. Naturalmente el computador
no entiende los nemónicos y por eso deben ser traducidos a lenguaje de máquina.
Un ensamblador es un programa en lenguaje de máquina que traduce instrucciones en
lenguaje simbólico a instrucciones en lenguaje máquina. Los lenguajes simbólicos son
dependientes de la máquina por cuanto un conjunto de códigos nemónicos sólo es aplicable a
un modelo particular de computadoras; de ahí que el programador debe estar familiarizado con
el repertorio especial de instrucciones de la máquina que se está programando.
Lenguaje Simbólico
LD A
35
SUB C
STD T
MPVI 2
● BASIC: (Beginner’s All purpuse Symbolic Instruction Code) es un lenguaje muy popular
cuya gran masificación se debe a su fácil uso.
● LOGO, MICROMUNDOS y SCRATCH: son lenguajes especiales para la enseñanza
asistida por computadora, especialmente para los niños.
● COBOL: Lenguaje de programación estándar para aplicaciones administrativas del
computador en la industria y en las actividades estatales.
● FORTRAN: (Formula Translator) Este es un lenguaje usado con fines científicos y
matemáticos debido a la facilidad con que permite expresar fórmulas matemáticas.
● PASCAL: Es útil tanto para procesos comerciales como científicos.
● CYCTT: Es un lenguaje de empleo general que ha sido estrechamente relacionado con
el sistema operativo Unix. Es uno de los lenguajes más modernos y potentes y es uno
de los lenguajes más usados para la construcción de compiladores, sistemas operativos
y software de aplicación de gran envergadura.
● PROLOG: Pertenece al grupo de lenguajes destinados a ser utilizados en ordenadores
de la denominada “quinta generación” o “inteligencia artificial”. Se basa en la “resolución”
(forma de lógica matemática) mediante la cual se indican los problemas y normas a
seguir para buscar la solución apropiada.
● LENGUAJE de Base de Datos, como FOXPRO, el DBASE o el CLIPPER.
● LENGUAJES VISUALES, como el VISUAL BASIC o VISUAL FOX orientados al uso de
la interface gráfica, combinada con las últimas prestaciones de la programación
moderna y por último, el reciente de todos
36
2.4 VIRUS INFORMATICOS: Concepto. Detección y Eliminación
Son programas que se introducen en nuestros ordenadores de formas muy diversas. Este tipo
de programas son especiales ya que pueden producir efectos no deseados y nocivos. Una vez
el virus se haya introducido en el ordenador, se colocará en lugares donde el usuario pueda
ejecutarlos de manera no intencionada. Hasta que no se ejecuta el programa infectado o se
cumple una determinada condición, el virus no actúa. Incluso en algunas ocasiones, los efectos
producidos por éste, se aprecian tiempo después de su ejecución.
El objetivo primordial de los virus son los ficheros que se encuentran en un medio de
almacenamiento como los discos duros, pendrives u otras memorias. Más concretamente serán
infectados todos aquellos archivos, ficheros o documentos (los tres términos indican el mismo
concepto, en general) que tengan la característica de ser programas. Un programa no es más
que un fichero cuya extensión es EXE o COM, que se puede ejecutar para que realice
determinadas operaciones.
También existen virus que se encargan de infectar ficheros que no son programas. No obstante,
estos ficheros contendrán elementos, denominados macros, incluidos en ellos. Estas macros
son programas que el usuario puede incluir dentro de un determinado tipo de archivos.
Otro de los objetivos fijados por los virus para sus ataques suelen ser los propios medios de
almacenamiento. De esta forma, atacando a los lugares en los que se guardan ficheros, el daño
provocado afectará a toda la información contenida en ellos.
La primera pregunta que debemos plantearnos es a través de qué medio un virus puede atacar
o introducirse en nuestro ordenador. Si conocemos perfectamente la respuesta, seremos
capaces de proteger esas posibles vías de entrada para impedir posteriores infecciones. Los
virus utilizan los siguientes medios para ello:
37
mundo. Por tanto, cualquier virus puede introducirse en nuestro ordenador al mismo
tiempo que la información recibida. A través de Internet la infección podría realizarse
empleando diferentes caminos como los siguientes:
o Correo electrónico: en un mensaje enviado o recibido se pueden incluir
documentos o ficheros (fichero adjunto o anexado, "attached"). Estos ficheros
podrían estar infectados, contagiando al ordenador destinatario.
o Programas P2P: en los programas Peer to peer, no existe una red centralizada
sino que cada nodo es a la vez cliente y servidor. Cada uno de estos nodos
puede enviar y recibir archivos, compartiéndolos con otros nodos-usuarios. Así,
los programas de este tipo como Ares, Torrent o Emule, pueden ser fuente de
virus de muy rápida propagación.
o Páginas Web: las páginas que visitamos en Internet son ficheros de texto o
imágenes escritos en un lenguaje denominado HTML. No obstante también
pueden contener programas denominados Controles ActiveX y Applets de Java
que son programas. Estos sí pueden estar infectados y podrían infectar al
usuario que se encuentre visitando esa página.
o Spywares o Programas Espía: son aplicaciones que se dedican a recopilar
información del sistema en el que se encuentran instaladas para luego enviarla a
través de Internet, generalmente a alguna empresa de publicidad. Todas estas
acciones se enmascaran tras confusas autorizaciones al instalar terceros
programas, por lo que rara vez el usuario es consciente de ello.
o Adware: cualquier programa que automáticamente muestra publicidad web al
usuario durante su instalación o durante su uso para generar lucro a sus autores.
'Ad' en la palabra 'adware' se refiere a 'advertisement' (anuncios) en idioma
inglés.
Virus Residentes: Cuando se ponen en marcha, la primera acción que realizan consiste en
comprobar si se cumplen todas las condiciones para atacar (fecha, hora,... etc.). De no ser
así, se colocan en una zona de la memoria principal, esperando que se ejecute algún
programa. Si en alguna de las operaciones que realiza el sistema operativo se trabajase
con un fichero ejecutable (programa) no infectado el virus lo infectará. Para ello, el virus se
añadirá al programa que infecta, añadiendo su código al propio código del fichero
ejecutable (programa).
38
Virus de Acción Directa: En el momento de su ejecución, el virus trata de replicarse a sí
mismo. Esto implica que creará copias de sí mismo. Cumpliéndose unas determinadas
condiciones, propias en cada caso, se activará pasando a realizar infecciones dentro del
directorio o carpeta en el que nos encontremos y dentro de los directorios que se
encuentran especificados en la línea PATH (camino o ruta de directorios). Es posible llevar
a cabo la desinfección de los ficheros afectados por el virus, dejándolos en un estado
correcto.
Virus de Boot: El término Boot o Boot Sector representa lo que también se denomina
"sector de arranque". Se trata de una sección muy importante en un disco, en la cual se
guarda la información sobre las características de ese disco, además de incluir un
programa que permite arrancar el ordenador. El virus se activa cuando la computadora es
encendida y el sistema operativo es cargado.
Virus de Macro: A diferencia de los tipos de virus comentados anteriormente, los cuales
infectan programas (ficheros EXE o COM) o aplicaciones, los virus de macro realizan
infecciones sobre los ficheros que se han creado con determinadas aplicaciones o
programas. Con ellos es posible crear documentos de texto, bases de datos, hojas de
cálculo,...etc. Cada uno de estos tipos de ficheros puede tener adicionalmente unos
pequeños programas, denominados macros. Una macro no es más que un micro-programa
que el usuario asocia al fichero que ha creado con determinadas aplicaciones y que no
depende del sistema operativo sino de acciones determinadas que el usuario puede realizar
dentro del documento que la contiene. Mediante ellos es posible automatizar conjuntos de
operaciones para que se lleven a cabo como una sola acción del usuario de forma
independiente sin necesidad de realizarlas una a una manualmente.
Pues bien, estas macros son susceptibles de infección, lo que significa que los virus (más
concretamente los de macro) pueden fijar sus objetivos de infección en ellas. En este caso,
al abrir un documento que contenga macros, éstas se cargarán de forma automática
(ejecutándose o esperando que el usuario decida ejecutarlas). En ese instante o
posteriormente, el virus actuará realizando cualquier tipo de operación perjudicial. A
diferencia de lo que se piensa habitualmente, los virus de macro pueden realizar acciones
dañinas de bastante importancia, propagándose en poco tiempo de forma muy rápida.
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan
problemas tales como pérdida de productividad, baja en el rendimiento del equipo, cortes en los
sistemas de información o daños a nivel de datos.
Otra de las características es la posibilidad que tienen de ir replicándose en otras partes del
sistema de información. Las redes, en la actualidad, ayudan a dicha propagación.
Los daños que los virus causan a los sistemas informáticos son:
39
● Pérdida de imagen (valor no cuantificable).
Hay que tener en cuenta que cada virus es una situación nueva, por lo que es difícil cuantificar
en una primera valoración lo que puede costar una intervención.
● Bajando datos de Internet: al igual que en la PC, se baja y/o ejecuta un archivo
infectado.
● Por conexión Bluetooth: al tener Bluetooth activado, se puede recibir el virus mediante
conexión inalámbrica desde otro celular infectado que esté cerca nuestro.
● Mensajes MMS: en un adjunto al mensaje viene el virus. De manera similar a los
adjuntos en los emails. Este mensaje puede venir de una persona conocida, sin que este
lo sepa.
Según los especialistas la mejor forma de prevenir que los virus se descarguen en estos
dispositivos es utilizar las tiendas oficiales para bajar aplicaciones, evitando así que los
malwares se instalen en el sistema.
2.5. ANTIVIRUS
Los antivirus son una herramienta simple cuyo objetivo es detectar y eliminar virus
informáticos. Nacieron durante la década de 1980.
Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha
hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo
buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de
los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware,
adwares, rootkits, etc.
40
firmas o vacunas), y analizar contra esa lista los archivos almacenados o transmitidos desde y
hacia un ordenador.
Asimismo, cuentan con un componente de análisis bajo demanda (los conocidos scanners,
exploradores, etc.) y módulos de protección de correo electrónico, Internet, etc.
Actualmente hay una gran variedad de antivirus, pero no todos se asemejan al pretendido por
todos: un antivirus eficaz en todos los sentidos.
Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de
infección y notificando al usuario de posibles incidencias de seguridad.
Como todo programa que está continuamente funcionando, el antivirus tiene un efecto adverso
sobre el sistema en funcionamiento. Una parte importante de los recursos se destinan al
funcionamiento del mismo. Además, dado que están continuamente comprobando la memoria
de la máquina, dar más memoria al sistema no mejora las prestaciones del mismo.
Otro efecto adverso son los falsos positivos; es decir, notificar al usuario de posibles incidencias
en la seguridad. De esta manera, el antivirus funcionando da una sensación de falsa seguridad.
A medida que evolucionan las técnicas empleadas por los virus y éstas son investigadas, los
programas antivirus incorporan medidas de búsqueda de virus y protección más avanzadas
como las siguientes:
41
Los programas antivirus incorporan un fichero denominado "fichero de firmas de virus"
en el que guardan todas las cadenas correspondientes a cada uno de los virus que
detecta. De esta forma, para encontrarlos, se analizarán todos los ficheros especificados
comprobando si alguno de ellos las contiene. Si un fichero no contiene ninguna de estas
cadenas, se considera limpio, mientras que si el programa antivirus la detecta en el
interior del fichero avisará acerca de la posibilidad de que éste se encuentre infectado.
42
encuentra expuesto a fin de determinar los controles adecuados para aceptar, disminuir,
transferir o evitar la ocurrencia del riesgo.
● Consideraciones de software
● Consideraciones de la red
Disponer de una visión clara del funcionamiento de la red permite poner puntos de
verificación filtrado y detección ahí donde la incidencia es más claramente identificable.
Sin perder de vista otros puntos de acción es conveniente:
43
● Antivirus
El motivo radica en la cantidad de recursos que dichos programas obtienen del sistema,
reduciendo el valor de las inversiones en hardware realizadas.
Aunque si los recursos son suficientes. Este extra de seguridad puede ser muy útil.
Sin embargo los filtros de correos con detectores de virus son imprescindibles, ya que de
esta forma se asegurará una reducción importante de decisiones de usuarios no
entrenados que pueden poner en riesgo la red.
● Firewalls
Control o separación de la informática móvil, dado que esta está más expuesta a las
contingencias de virus.
Estamos conectados a Internet todo el tiempo, incluso cuando no estamos haciendo uso de la
conexión, por lo que nuestra computadora y otros dispositivos -como el celular y la tablet - están
permanentemente expuestos a la infección de distintos tipos de virus.
44
● Escaneá regularmente todos los archivos de la computadora. Esto puede llevar un rato
largo, pero siempre es mejor estar seguros de que nuestra computadora está libre de
virus.
● Eliminá inmediatamente, si aparece identificado un virus, eliminarlo inmediatamente.
Una vez que eliminás el virus, debes comprobar que no quede ninguno. Para esto,
reiniciá la PC y volver a hacer el scan.
● Escaneá cualquier dispositivo de almacenamiento que le conectemos a la PC como
un pendrive o disco externo que hayamos usado en otra computadora.
● Instalá herramientas antispyware: estas son tan importantes como el firewall o los
antivirus. Existen aplicaciones gratuitas que funcionan muy bien: Malwarebytes
Anti-Malware y Spybot hacen un excelente trabajo al eliminar el spyware, mientras que
SpywareBlaster instala programas residentes que evitan la descarga involuntaria de
spyware.
● Activá el firewall: este programa, que actúa como una especie de muro de contención,
impide el ingreso de programas clandestinos a tu PC desde Internet.
● Usá un bloqueador de ventanas emergentes: esta función del navegador puede ser
configurada para estar siempre activa o alertar cuando un sitio intente mostrar una
ventana emergente.
● Sospechá al instalar nuevos programas: si no es un complemento que reconoce
como Quicktime, Adobe Flash o Java, lo mejor es rechazar la instalación hasta que se
sepa que es de confianza. Los sitios de hoy son lo suficientemente sofisticados como
para realizar todas o casi todas las acciones dentro del navegador, requiriendo sólo un
mínimo de complementos.
● Use el botón Cerrar para cerrar las ventanas emergentes: evitá los botones como
"Cancelar" o "No gracias". En su lugar cierra la ventana con el botón Cerrar "X" en la
esquina de la barra de título.
***********************************
Bibliografía:
http://es.ccm.net/contents/651-sistema-operativo#funciones-del-sistema-operativo
http://www.informatica-hoy.com.ar/desarrollo-software/Tipos-de-software.php
http://www.areatecnologia.com/informatica/sistemas-operativos-moviles.html
https://www.xataka.com/perifericos/discos-duros-multimedia-principales-interfaces-y-caracteristi
cas#:~:text=Una%20interfaz%20se%20refiere%20al,como%20eSATA%2C%20Firewire%20o%2
0Thunderbolt.
http://www.gcfaprendelibre.org/tecnologia/curso/informatica_basica/sistemas_operativos/5.do
http://tabletzona.es/2015/05/25/ios-android-apertura-ventajas/
http://www.informatica-hoy.com.ar/soluciones-moviles/Cual-es-el-mejor-sistema-operativo-para-
un-smartphone.php
http://librosweb.es/libro/javascript/capitulo_1.html
http://informatica.uv.es/estguia/ATD/apuntes/laboratorio/Lenguaje-C.pdf
http://www.enseguridad.com/virus-celulares/
45
http://www.bbc.com/mundo/noticias/2015/11/151106_tecnologia_virus_adware_sin_solucion_loo
kout_amv
http://www.didepa.uaemex.mx/clases/DiTICAD/Antivirus.pdf
https://www.incibe.es/foro/forums/show/15.page
http://recursostic.educacion.es/usuarios/web/seguridad/47-consejos-para-evitar-la-infeccion-por-
virus-de-los-equipos-informaticos
http://espaciocloud.com.ar/paso-para-proteger-a-tu-pc-de-los-virus-informaticos/
https://es.wikipedia.org/wiki/Seguridad_inform%C3%A1tica
https://es.wikipedia.org/wiki/Antivirus
https://es.wikipedia.org/wiki/Adware
46