Componentes de Una Computadora
Componentes de Una Computadora
Componentes de Una Computadora
Nombre:
Materia:
96 Horas de Informática
Sección:
Titulo:
Fecha:
25/10/2021
1
INDICE
Componentes de una Computadora.
Introducción
Elementos de un computador
Los elementos del computador son:
Hardware
Equipo utilizado para el funcionamiento de una computadora.
El hardware se refiere a los componentes materiales de un sistema
informático.
La función de estos componentes suele dividirse en tres
categorías principales: entrada, salida y almacenamiento. Los
componentes de esas categorías están conectados a través de un
conjunto de cables o circuitos llamado bus con la unidad central de
proceso (CPU) del ordenador, el microprocesador que controla la
computadora y le proporciona capacidad de cálculo.
El hardware es un conjunto de dispositivos eléctricos y
algunos mecánicos. Se compone principalmente de:
* C.P.U. : microprocesador. Sus funciones principales son:
a) Controlar y supervisar el sistema integral del ordenador en
base a un programa almacenado en la memoria principal.
b) Desarrollar operaciones lógicas que sean necesarias para
procesar las demás y controlar la secuencia. La ejecución de las
instrucciones.
c) Controlar el envío y recepción de datos de todas las
unidades periféricas a la unidad de memoria.
En función de la cantidad de instrucciones que puede
descodificar la C.P.U. se dividen en:
a) CISC: tiene un gran conjunto de instrucciones.
b) RISC: tiene un conjunto regular de instrucciones.
* MEMORIA: dispositivos que permiten almacenar un
conjunto de instrucciones. Dos clases principales:
a) RAM memoria de lectura/escritura. Son de acceso
aleatorio, lentas y volátil.
b) ROM solo lectura. De acceso aleatorio y permanentes
* Dispositivos de E/S: Son una serie de dispositivos que
permiten al ordenador comunicarse con el exterior. Los principales
son:
a) Teclados.
b) Displays.
c) Discos: flexibles, duros...
d) Impresoras.
e) Comunicaciones.
El soporte lógico o software
En cambio, es el conjunto de instrucciones que un
ordenador emplea para manipular datos: por ejemplo, un
procesador de textos o un videojuego. Estos programas suelen
almacenarse y transferirse a la CPU a través del hardware de la
computadora. El software también rige la forma en que se utiliza el
hardware, como por ejemplo la forma de recuperar información de
un dispositivo de almacenamiento. La interacción entre el hardware
de entrada y de salida es controlada por un software llamado BIOS
(siglas en inglés de 'sistema básico de entrada / salida').
Aunque, técnicamente, los microprocesadores todavía se
consideran hardware, partes de su función también están
asociadas con el software. Como los microprocesadores tienen
tanto aspectos de hardware como de software, a veces se les
aplica el término intermedio de microprogramación, o firmware.
Software, programas de computadoras. Son las
instrucciones responsables de que el hardware (la máquina) realice
su tarea. Como concepto general, el software puede dividirse en
varias categorías basadas en el tipo de trabajo realizado. Las dos
categorías primarias de software son los sistemas operativos
(software del sistema), que controlan los trabajos del ordenador o
computadora, y el software de aplicación, que dirige las distintas
tareas para las que se utilizan las computadoras. Por lo tanto, el
software del sistema procesa tareas tan esenciales, aunque a
menudo invisibles, como el mantenimiento de los archivos del disco
y la administración de la pantalla, mientras que el software de
aplicación lleva a cabo tareas de tratamiento de textos, gestión de
bases de datos y similares. Constituyen dos categorías separadas
el software de red, que permite comunicarse a grupos de usuarios,
y el software de lenguaje utilizado para escribir programas
Además de estas categorías basadas en tareas, varios tipos
de software se describen basándose en su método de distribución.
Entre estos se encuentran los así llamados programas enlatados,
el software desarrollado por compañías y vendido principalmente
por distribuidores, el freeware y software de dominio público, que
se ofrece sin costo alguno, el shareware, que es similar al
freeware, pero suele conllevar una pequeña tasa a pagar por los
usuarios que lo utilicen profesionalmente y, por último, el infame
vapourware, que es software que no llega a presentarse o que
aparece mucho después de lo prometido.
Lenguajes en computación
En informática, cualquier lenguaje artificial puede utilizarse
para definir una secuencia de instrucciones para su procesamiento
por un ordenador o computadora. Es complicado definir qué es y
qué no es un lenguaje. Se asume generalmente que la traducción
de las instrucciones a un código que comprende la computadora
debe ser completamente sistemática. Normalmente es la
computadora la que realiza la traducción.
TIPOS DE LENGUAJES:
Lenguaje Máquina
El lenguaje propio del ordenador, basado en el sistema
binario, o código máquina, resulta difícil de utilizar para las
personas. El programador debe introducir todos y cada uno de los
comandos y datos en forma binaria, y una operación sencilla como
comparar el contenido de un registro con los datos situados en una
ubicación del chip de memoria puede tener el siguiente formato:
11001010 00010111 11110101 00101011. La programación en
lenguaje máquina es una tarea tan tediosa y consume tanto tiempo
que muy raras veces lo que se ahorra en la ejecución del programa
justifica los días o semanas que se han necesitado para escribir el
mismo.
Lenguaje bajo nivel
Vistos a muy bajo nivel, los microprocesadores procesan
exclusivamente señales electrónicas binarias. Dar una instrucción a
un microprocesador supone en realidad enviar series de unos y
ceros espaciadas en el tiempo de una forma determinada. Esta
secuencia de señales se denomina código máquina. El código
representa normalmente datos y números e instrucciones para
manipularlos. Un modo más fácil de comprender el código máquina
es dando a cada instrucción un mnemónico, como por ejemplo
STORE, ADD o JUMP. Esta abstracción da como resultado el
ensamblador, un lenguaje de muy bajo nivel que es específico de
cada microprocesador.
Los lenguajes de bajo nivel permiten crear programas muy
rápidos, pero que son a menudo difíciles de aprender. Más
importante es el hecho de que los programas escritos en un bajo
nivel sean altamente específicos de cada procesador. Si se lleva el
programa a otra máquina se debe reescribir el programa desde el
principio
Lenguaje alto nivel
Los lenguajes de alto nivel sueles utilizar términos ingleses
del tipo LIST, PRINT u OPEN como comandos que representan
una secuencia de decenas o de centenas de instrucciones en
lenguaje máquina. Los comandos se introducen desde el teclado,
desde un programa residente en la memoria o desde un dispositivo
de almacenamiento, y son interceptados por un programa que los
traduce a instrucciones en lenguaje máquina.
Los programas traductores son de dos tipos: interpretes y
compiladores. Con un interprete, los programas que repiten un ciclo
para volver a ejecutar parte de sus instrucciones, reinterpretan la
misma instrucción cada vez que aparece. Por consiguiente, los
programas interpretados se ejecutan con mucha mayor lentitud que
los programas en lenguaje máquina. Por el contrario, los
compiladores traducen un programa integro a lenguaje máquina
antes de su ejecución, por lo cual se ejecutan con tanta rapidez
como si hubiese sido escrita directamente en lenguaje máquina.
Aunque existen centenares de lenguajes informáticos y de
variantes, hay algunos dignos de mención, como el PASCAL,
diseñado en un principio como herramienta de enseñanza, hoy es
uno de los lenguajes de microordenador más populares; el logro
fue desarrollado para que los niños pudieran acceder al mundo de
la informática; el C, un lenguaje de Bell Laboratories diseñado en la
década de 1970, se utiliza ampliamente en el desarrollo de
programas de sistemas, al igual que su sucesor, el C++. El LISP y
el PROLOG han alcanzado amplia difusión en el campo de la
inteligencia artificial.
ELEMENTOS DE ENTRADA
También llamados periféricos o unidades
de entrada
Medios de almacenamientos
Los medios de almacenamientos también son conocidos
como memorias secundarias, entre estos tenemos:
Memoria: es un dispositivo físico, generalmente un circuito
electrónico, en el que se almacenan datos e instrucciones para
recuperarlos y utilizarlo posteriormente. En un sentido amplio
tenemos las siguientes memorias:
Discos Duros ó memoria secundaria: es en esta memoria
donde se almacena el sistema operativo, los multimedia, juegos y
los programas de aplicación entre otros.
Pen Drive ó Flash Memory: es una memoria bajo un
circuito integrado de alta capacidad, velocidad, con un conector
para puertos USB, viene en diferentes modelos y versiones con
capacidades de mega byte y giga byte, además es cómoda y
portátil.
Unidad de Floppy ó Diskette de 31/2: en este dispositivo se
utiliza un pequeño disco flexible con alta densidad magnética el
cual almacena información, pero en baja calidad de retención ya
que esta se borra cuando el disco pierde su magnetismo con el
pasar de los tiempos.
UNIDAD CENTRAL DE PROCESOS (CPU, Central Process
Unit)
LA MEMORIA PRINCIPAL
Está formada por un conjunto de celdas, posiciones o
palabras de memoria. En cada celda se archiva determinada
información (datos o instrucciones de programa). La manera de
diferenciar unas posiciones de otras es asignando una dirección
diferente a cada celda. Para acceder a ella es necesario
únicamente referenciar la dirección de memoria que las identifica.
DEFINICIÓN DE HARDWARE
Palabra compuesta de : Hard (duro) y
Ware (equipo)
MEMORIA AUXILIAR
Dispositivos de almacenamiento masivo de
información
El CPU como corazón de la
organización del computador
En su forma más simple, un sistema de computadora cuenta
con una unidad que ejecuta instrucciones de programas. Esta
unidad se comunica con otros subsistemas dentro de la
computadora, y a menudo controla su operación. Debido al papel
central de tal unidad se conoce como unidad central de
procesamiento, o CPU (Central processing unit). Dentro de muchas
computadoras, un subsistema como una unidad de entrada, o un
dispositivo de almacenamiento masivo, puede incorporar una
unidad de procesamiento propia. Tal unidad de procesamiento,
aunque es central para su propio subsistema, resulta claro que no
es "central" para el sistema de computadora en su conjunto. Sin
embargo, los principios del diseño y operación de una CPU son
independientes de su posición en un sistema de computadora. Este
trabajo estará dedicado a la organización del hardware que permite
a una CPU realizar su función principal: traer instrucciones desde la
memoria y ejecutarlas.
El algoritmo de solución de cualquier problema consiste en
varios pasos que deben realizarse en una secuencia específica.
Para implantar tal algoritmo en una computadora, estos pasos se
descomponen en pasos más pequeños, cada uno de los cuales
representa una instrucción de máquina. La secuencia de
instrucciones resultante es un programa en lenguaje de máquina
que representa al algoritmo en cuestión. El mismo enfoque general
se utiliza para permitir a la computadora realizar funciones
especificadas por instrucciones individuales de máquina. Esto es,
cada una de estas instrucciones se ejecuta realizando una
secuencia de operaciones más rudimentarias. Estas operaciones, y
los medios por los cuales se generan, serán el tema principal de
análisis en este trabajo.
PUERTOS EN SERIE
El puerto en serie de un ordenador es un adaptador
asíncrono utilizado para poder intercomunicar varios ordenadores
entre si. Un puerto serie recibe y envía información fuera del
ordenador mediante un determinado software de comunicación o
un drive del puerto serie.
El Software envía la información al puerto, carácter a
carácter, convirtiendo en una señal que puede ser enviada por
cable serie o un módem. Cuando se ha recibido un carácter, el
puerto serie envía una señal por medio de una interrupción
indicando que el carácter está listo. Cuando el ordenador ve la
señal, los servicios del puerto serie leen el carácter.
Ubicación en el sistema informativo
Se ubican en la parte trasera del case, podremos identificar
estos puertos por los nombres COM 1, COM 2, COM 3. La cantidad
de puertos de serie dependen de la tarjeta, ya que hay algunas
tarjetas que son capaces de tener 4 u 8 puertos.
PUERTO PARALELO
Este puerto de E/S envía datos en formato paralelo (donde 8
bits de datos, forman un byte, y se envían simultáneamente sobre
ocho líneas individuales en un solo cable.) El puerto paralelo usa
un conector tipo D-25 (es de 25 pin) El puerto paralelo se utiliza
principalmente para impresoras.
La mayoría de los software usan el termino LPT (impresor en
línea) más un número para designar un puerto paralelo (por
ejemplo, LPT1). Un ejemplo donde se utiliza la designación del
puerto es el procedimiento de instalación de software donde se
incluye un paso en que se identifica el puerto al cual se conecta a
una impresora.
Ubicación en el sistema informático:
Se encuentra en la parte trasera del case, se pueden
identificar fácilmente ya que la mayoría de los software utilizan el
termino LPT (que significa impresión en línea por sus siglas en
inglés). También en algunos modelos se pueden localizar en la
parte inferior al puerto del Mouse.
Recursos del puerto paralelo:
Cada adaptador de puerto paralelo tienes tres direcciones
sucesivas que se corresponden con otros tantos registros que
sirven para controlar el dispositivo. Son el registro de salida de
datos; el registro de estado y el registro de control.
El puerto paralelo está formado por 17 líneas de señales y 8
líneas de tierra. Las líneas de señales están formadas por grupos:
4. Líneas de control.
5. Líneas de estado.
8. Líneas de datos.
En el diseño original las líneas de control son usadas para la
interfase, control e intercambio de mensajes al PC (falta papel,
impresora ocupada, error en la impresora).
Las líneas de datos suministran los datos de impresora del
PC hacia la impresora y solamente en esa dirección. Las nuevas
implementaciones del puerto permiten una comunicación
bidireccional mediante estas líneas.
Tipos de puerto paralelo:
En la actualidad se conoce cuatro tipos de puerto paralelo:
Puerto paralelo estándar (Standard Parallel Port
SPP).
Fácil uso.
Hexadecim
Decimal Binario
al
0 0000 0
1 0001 1
2 0010 2
3 0011 3
4 0100 4
5 0101 5
6 0110 6
7 0111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F
sistema de medidas
El bit: Unidad de información mas pequeña manipulada
por el ordenador su valor es el (0 y 1).
El byte: Es la unidad de información que consta de 8
bits, representa a una letra y el almacenamiento.
El kilobyte: Equivale a 1.024 bytes, y de posibles
almacenaje.
El Megabyte: Equivale a 1.048.576 bytes, es decir 1024
kilobytes.
El Gigabyte: Equivale a 1.073.741.824 bytes, es decir
1.024 megabytes.
Bit, unidad binaria de información. Es la cantidad más
pequeña de almacenamiento de un ordenador y también la
cantidad más pequeña que se puede procesar. (el bit sólo puede
tomar dos valores: el 0 y el 1). dígito en sistema binario (0 o 1) con
el que se forma toda la información. Evidentemente esta unidad es
demasiado pequeña para poder contener una información diferente
a una dualidad (abierto/cerrado, si/no), por lo que se emplea un
conjunto de bits (en español el plural de bit NO es bites, sino bits).
8 bits equivalen a 1 byte.
Byte, Formado normalmente por un octeto (8 bits), aunque
pueden ser entre 6 y 9 bits. La progresión de esta medida es del
tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512. Se
pueden usar capacidades intermedias, pero siempre basadas en
esta progresión y siendo mezcla de ellas (24 bytes=16+8). Se
describe como la unidad básica de almacenamiento de
información, generalmente equivalente a ocho bits (01011101),
pero el tamaño del byte depende del código de caracteres o código
de información en el que se defina.
Kilobyte, Aunque se utilizan las acepciones utilizadas en el
SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente
expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de
este prefijo (Kilo, proveniente del griego, que significa mil), se está
utilizando cada vez más el término definido por el IEC (Comisión
Internacional de Electrónica) Kibi o KiB para designar esta unidad.
Un kilobyte (pronunciado /kilobáit/) es una unidad de medida
común para la capacidad de memoria o almacenamiento de las
computadoras. Es equivalente a 1024 (o 210) bytes. Generalmente
se abrevia como KB, K, kB, Kbyte o k-byte. Las PC de IBM más
antiguas, por ejemplo, tenían una capacidad máxima de 640 K, o
alrededor de 640 000 caracteres de datos.
Megabytes, El MB es la unidad de capacidad más utilizada
en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que
un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el
mal uso del término, cada vez se está empleando más el término
MiB. El Megabyte (MB) es una unidad de medida de cantidad de
datos informáticos. Es un múltiplo binario del byte, que equivale a
220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1
000 000) bytes.
Gigabyte, Un GB son 1.024 MB (o MiB), por lo tanto
1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB.
Un gigabyte (de símbolo GB ó GiB) es una unidad de medida
informática equivalente a mil millones de bytes (no confundir con el
billón americano). Dado que los ordenadores trabajan en base
binaria, en lugar de que un gigabyte sea 10³ megabytes (1000
MiB), el término gigabyte significa 210 megabytes (1024 MiB). Pero
si somos exactos, 1 GB son 1.073.741.824 bytes ó 1.024 MB. En
este último caso, puede ser abreviado como GiB (recomendado) ó
GB
Terabyte, Aunque es aun una medida poco utilizada, pronto
nos tendremos que acostumbrar a ella, ya que por poner un
ejemplo la capacidad de los discos duros ya se está aproximando a
esta medida. Un Terabyte son 1.024 GB. Aunque poco utilizada
aun, al igual que en los casos anteriores se está empezando a
utilizar la acepción Tebibyte. Una unidad de almacenamiento tan
desorbitada que resulta imposible imaginársela, ya que coincide
con algo más de un trillón de bytes. Un uno seguido de dieciocho
ceros. Su símbolo es el TB y es equivalente a 240 bytes
Unidades de medida
Herzt.
Unidad de frecuencia que equivale a un ciclo o repetición de
un evento por segundo. Esto en palabras simples, significa que un
procesador que trabaje a una velocidad de 500 megahercios es
capaz de repetir 500 millones de ciclos por segundo. En la
actualidad, dada la gran velocidad de los procesadores, la unidad
más frecuente es el gigahercio, que corresponde a 1.000 millones
de hercios por segundo. El hercio es la unidad de frecuencia del
Sistema Internacional de Unidades. Proviene del apellido del físico
alemán Heinrich Rudolf Hertz, descubridor de la transmisión de las
ondas electromagnéticas. Su símbolo es hz. (que se escribe sin
punto). En inglés se llama hertz (y se pronuncia /jérts/). Un hercio
representa un ciclo por cada segundo, entendiendo ciclo como la
repetición de un evento.
Megaherzt.
Múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para
medir la "velocidMegahertzios, es una medida de frecuencia
(número de veces que ocurre algo en un segundo). En el caso de
los ordenadores, un equipo a 200 MHz será capaz de dar 200
millones de pasos por segundo. En la velocidad real de trabajo no
sólo influyen los MHz, sino también la arquitectura del procesador
(y el resto de los componentes); por ejemplo, dentro de la serie
X86, un Pentium a 60 MHz era cerca del doble de rápido que un
486 a 66 MHzad bruta" de los microprocesadores.
Ejemplo:
Si usted mira el dial de un receptor de radio, encontrará que
lleva una indicación de frecuencias o longitudes de onda. La
mayoría de los receptores tienen varias bandas de ondas y éstas
pueden ser seleccionadas por medio de un botón llamado
comúnmente el "selector de bandas de ondas", que le ofrece a
usted una elección, por ejemplo, entre la banda de onda media
(emisoras standard), la de la onda corta, o bandas de onda corta y
la banda FM.
Nanosegundos, es la milmillonésima parte de un segundo,
10-9. Este tiempo tan corto no se usa en la vida diaria, pero es de
interés en ciertas áreas de la física, la química, la electrónica y en
la informática. Así, un nanosegundo es la duración de un ciclo de
reloj de un procesador de 1 GHz, y es también el tiempo que tarda
la luz en recorrer aproximadamente 30 cm.
Milisegundos, es el período de tiempo que corresponde a la
milésima fracción de un segundo (0,001s).Su simbología, al igual
que otras milesimas partes de distintas magnitudes como pudieran
ser la masa o la longitud, viene especificada mediante una "m"
minúscula antepuesta a la magnitud fundamental, que en el caso
del segundo es una letra "s", resultando:
1 ms = 0.001 segundo = 1 milisegundo
Microsegundos, Es una Unidad de tiempo, equivalente a
una milésima parte de un segundo. (ms).
Ejemplo:
Numerosas personas, no obstante, se han dado cuenta de
que en 49.7 días hay 4294080000 milisegundos. Esa cifra es muy
semejante a 2^32 = 4294967296. En otras palabras, un registro de
32 bits podría contar 4294967296 milisegundos o, lo que es lo
mismo, 49'7103 días (exactamente, 49 días, 17 horas, 2 minutos y
47'296 segundos).
Software libre
Definición legal
Programa de computación cuya licencia garantiza al usuario
acceso al código fuente del programa y lo autoriza a ejecutarlo con
cualquier propósito, modificarlo y redistribuir tanto el programa
original como sus modificaciones en las mismas condiciones de
licenciamiento acordadas al programa original, sin tener que pagar
regalías a los desarrolladores previos (Decreto 3390, artículo 2).
Se denomina software libre, (en inglés free software), al
software que brinda libertad a los usuarios sobre su producto
adquirido y por tanto, una vez obtenido, puede ser usado, copiado,
estudiado. Siguiendo el mismo orden de ideas, software libre se
refiere a la libertad de los usuarios para ejecutar, copiar, distribuir,
estudiar, cambiar y mejorar el software modificado y redistribuido
libremente. Cabe destacar que se refiere a cuatro libertades de los
usuarios del software: la libertad de usar el programa, con cualquier
propósito; de estudiar el funcionamiento del programa, y adaptarlo
a las necesidades; de distribuir copias, con lo que puede ayudar a
otros; de mejorar el programa y hacer públicas las mejoras, de
modo que toda la comunidad se beneficie (para la segunda y última
libertad mencionadas, el acceso al código fuente es un requisito
previo).
El software libre suele estar disponible gratuitamente, o a
precio del coste de la distribución a través de otros medios; sin
embargo no es obligatorio que sea así, por ende no hay que
asociar software libre a "software gratuito" (denominado
usualmente freeware). El freeware suele incluir una licencia de uso,
que permite su redistribución pero con algunas restricciones, como
no modificar la aplicación en sí, ni venderla, y dar cuenta de su
autor. También puede desautorizar el uso en una compañía con
fines comerciales o en una entidad gubernamental
¿Qué son los Programas Informáticos Libres?
Los Programas Informáticos Libres son aquellos que
cumplen con las siguientes cuatro libertades básicas:
Libertad Cero: "usar el programa con cualquier propósito".
Es decir, el ejercicio de esta libertad implica que lo podemos utilizar
con cualquier fin, ya sea educativo, cultural, comercial, político,
social, etc. Esta libertad deriva de que hay ciertas licencias que
restringen el uso del software a un determinado propósito, o que
prohíben su uso para determinadas actividades.
Libertad Uno: "Estudiar como funciona el programa, y
adaptarlo a sus necesidades". Significa que podemos estudiar su
funcionamiento (al tener acceso al código fuente) lo que nos va a
permitir, entre otras cosas: descubrir funciones ocultas, averiguar
como realiza determinada tarea, descubrir que otras posibilidades
tiene, que es lo que le falta para hacer algo, etc. El adaptar el
programa a mis necesidades implica que puedo suprimirle partes
que no me interesan, agregarle partes que considero importantes,
copiarle una parte que realiza una tarea y adicionarla a otro
programa, etc.
Libertad Dos: "Distribuir copias". Quiere decir que somos libres de
redistribuir el programa, ya sea gratis o con algún costo, ya sea por
email, FTP o en CD, ya sea a una persona o a varias, ya sea a un
vecino o a una persona que vive en otro país, etc.
Libertad Tres: "Mejorar el programa, y liberar las mejoras al
publico". Es la libertad de hacer mejor el programa, es decir que
podemos hacer menores los requerimientos de hardware para
funcionar, que tenga mayores prestaciones, que ocupe menos
espacio, que tenga menos errores, entre otras modificaciones. El
poder liberar las mejoras al publico quiere decir que si realizamos
una mejora que permita un requerimiento menor de hardware, o
que haga que ocupe menos espacio, soy libre de poder redistribuir
ese programa mejorado, o simplemente proponer la mejora en un
lugar publico (un foro de noticias, una lista de correo, un sitio Web,
un FTP, un canal de Chat).
Sistemas operativos
“El Sistema Operativo es un conjunto de programas
(software) que trata de optimizar todo el poder de una computadora
y sus periféricos (hardware) y de facilitar al usuario el
aprovechamiento de su equipo”
Redondo y Algara CCV 1999.
“Es el que toma el control cuando encendemos la
computadora y realiza las primeras acciones....junto con la interfaz
gráfica está al centro de la acción del software” Long y Long 1.997
Objetivos.....
Facilita la comunicación entre el sistema y
la gente que lo maneja
Funciones de los S. O.
• Asignación de tiempo de CPU:
• Control de recursos:
• Control de entrada/salida:
– Facilita el uso.
• Facilidades contables:
Desventajas:
Para algunas cosas debes de saber usar
unix
Windows
Ventajas:
Es más conocido
Desventajas:
El costo es muy alto
Es muy estable
Desventajas:
Costoso (aunque viene incluido con la
maquina)
Historia
Años 40, A finales de los años 40, con la primera generación
de computadoras, se accedía directamente a la consola de la
computadora desde la cual se actuaba sobre una serie de micro
interruptores que permitían introducir directamente el programa en
la memoria de la computadora.
Por aquel entonces no existían los sistemas operativos, y los
programadores debían interactuar con el hardware del computador
sin ayuda externa. Esto hacía que el tiempo de preparación para
realizar una tarea fuera considerable. Además para poder utilizar la
computadora debía hacerse por turnos.
Años 50, A principios de los años 50 con el objeto de facilitar
la interacción entre persona y computador, los sistemas operativos
hacen una aparición discreta y bastante simple, con conceptos
tales como el monitor residente, el proceso por lotes y el
almacenamiento temporal.
Años 60, En los años 60 se produjeron cambios notorios en
varios campos de la informática, con la aparición del circuito
cerrado la mayoría orientados a seguir incrementando el potencial
de los computadores. Para ello se utilizaban técnicas de lo más
diversas:
Multiprogramación
Tiempo compartido
Tiempo real
Multiprocesador