Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Teoria Sistemas Operativos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 70

N

 Sistema operativo: programa que hace de intermediario entre el usuario y las


aplicaciones que utiliza y el hardware del ordenador.

Entre otros, los principales objetivos de un sistema operativo son:



o
 Ejecutar los programas del usuario. Es el encargado de crear los
procesos a partir de los ejecutables de los programas y de gestionar su
ejecución para evitar errores y mejorar el uso del computador.
 Hacer que el computador sea cómodo de usar. Hace de interfaz entre el
usuario y los recursos del ordenador, permitiendo el acceso tanto a
ficheros y memoria como a dispositivos hardware. Esta serie de
abstracciones permiten al programador acceder a los recursos
hardware de forma sencilla
 Utilizar los recursos del computador de forma eficiente. Los recursos del
ordenador son compartidos tanto por los programas como por los
diferentes usuarios. El sistema operativo es el encargado de repartir los
recursos en función de sus políticas a aplicar.

Tema I. Sistemas operativos Un sistema operativo es un programa (software)


encargado de poner en funcionamiento el ordenador, puesto que gestiona los
procesos básicos del sistema. Así mismo se encarga de gestionar para el usuario
el hardware.
El sistema operativo comienza a trabajar en cuanto se enciende el ordenador y es
completamente fundamental para que el usuario trabaje con él. Los sistemas
operativos realizan tareas básicas y, sin ellos, el ordenador no funcionaría.

Así, por ejemplo, el sistema operativo reconoce la conexión del teclado, organiza y
ordena los archivos, controla la impresora, la pantalla, etc. Es como un policía de
tráfico pues, se encarga de que los programas no interfieran entre ellos. Sobre el
sistema operativo se instalan los programas que vaya a usar el usuario. Los
programas, también llamados aplicaciones son muy diversos. Ejemplo: El
procesador de textos Word. Sistemas operativos hay muchos, aunque mucha
gente piensa que sólo existe el famoso Windows.
Veamos algunos:

1. Windows (en sus diferentes versiones): Windows XP, Windows Vista, ... Es un
sistema operativo propiedad de la empresa MicroSoft que es privativo (de pago).

2. Mac OS: Es un sistema operativo propiedad de la empresa Apple, (el creador


del Ipod) que es privativo.

3. Unix: Sistema operativo empleado por las supercomputadoras y ordenadores de


grandes empresas, propiedad de la empresa AT&T y es privativo. Es un sistema
muy seguro.
4. GNU/Linux: Sistema operativo que está en alza, completamente gratuito.
Cualquiera lo puede modificar según sus necesidades. Además, es bastante
seguro.

5. FreeBSD: Sistema operativo gratuito y según algunos autores uno de los más
seguros.

Los sistemas operativos tienen numerosas funciones:

1. Gestionan la memoria RAM de los distintos procesos. Un proceso es


simplemente, un programa en ejecución, es decir, una tarea que realiza el
ordenador.

2. Gestiona el almacenamiento de información de forma permanente en unidades


de disco (disco duro, disquetes, pen drives, etc).

3. Gestiona el sistema de archivos que nos permite crear, eliminar y manipular


archivos y carpetas (también llamadas directorios).
4. Crea mecanismos de protección para evitar el acceso de intrusos a recursos o
servicios no autorizados.

5. Dispone de un intérprete de comandos. Es un recurso que permite al usuario


comunicarse con el sistema operativo a través de órdenes o comandos que son
escritos. También se llama consola o shell.

6. El Sistema Operativo gestiona los sistemas de entrada/salida, es decir, controla


los diferentes dispositivos conectados al ordenador (monitor, impresora, etc)

La parte más importante del Sistema Operativo se llama núcleo o kernell. Asigna
tareas al procesador siguiendo un orden y administrando los tiempos que lleva
cada tarea. Hoy en día los sistemas operativos llevan incluidas diferentes
aplicaciones. Así, por ejemplo, Windows se vende con aplicaciones como Paint,
Notepad, el juego del solitario, etc. Al conjunto del Sistema Operativo con las
aplicaciones se le llama distribución.
Ejemplo:

El famoso Sistema Operativo Windows Vista tiene diferentes distribuciones, por


ejemplo:  Windows Vista Home Basic: Pensada para el usuario doméstico. 
Windows Vista Home Premium: Pensada para usuarios domésticos más
exigentes.  Windows Vista Business : Incluye aplicaciones pensadas para
negocios. El sistema operativo Linux posee diferentes distribuciones realizadas
por grupos de usuarios o empresas: Red Hat, Ubuntu, Mandriva, Suse Linux,
Knoppix, etc. Hay, incluso, distribuciones Linux españolas como Linex,
Guadalinex, Meduxa,.
Controladores de dispositivos

Para que los diferentes dispositivos conectados al ordenador funcionen (ratón,


impresora, escáner, ...) es preciso tener instalados en el sistema operativo unos
programas llamados controladores, también llamados drivers. Así, si no se tienen
los drivers de una impresora que hayas comprado, la impresora no funcionará de
ningún modo. Afortunadamente, los sistemas operativos actuales detectan la
mayoría del hardware automáticamente, mediante el método “plug and play”.
Ejemplo: Cuando conectas un Pen Drive a un ordenador, si el ordenador tiene
instalado el Sistema Operativo Windows XP (o superior), automáticamente el
sistema detecta la presencia del Pen Drive y posteriormente tras esperar un
tiempo, instala automáticamente los drivers del Pen Drive. Si el sistema operativo
no tiene el sistema “plug and play”, el hardware que quieras conectar al ordenador
se vende con un CD-ROM donde se encuentran los drivers. Si no es así, el
fabricante te debe indicar en una nota en que zona de Internet se pueden
descargar
Sistemas operativos sin instalación previa

Son sistemas operativos almacenados en unidades extraíbles y, por lo tanto, se


pueden ejecutar sin necesidad de instalación en le disco duro, de modo que no
afectan al sistema operativo instalado en el ordenador. La mayoría de ellos se
basan en distribuciones específicas de Linux. Tipos: • Live CD: Si se emplea un
CD como soporte del sistema operativo. • Live DVD: Si se emplea un DVD como
soporte del sistema operativo. • Live USB: Cuando lo que se emplea es una
memoria USB. Una de las distribuciones Linux más populares en formato Live CD
es el KNOPPIX
Escritorio del Sistema Operativo Linux-Knoppix.

Otras características: 4º Hoy día los sistemas operativos son siempre


multiusuario y multitarea. ¿qué significa esto?
• Multiusuario: Un sistema operativo es multiusuario cuando puedes tener
configurados en él varios usuarios distintos. Por ejemplo en casa, un usuario para
ti, otro para tu hermano y otro para tus padres.
• Multitarea: Un Sistema operativo es multitarea cuando puede ejecutar varios
programas a la vez. Está claro que Windows lo es ya que, por ejemplo, mientras
escribes un texto en el Word, puedes estar escuchando música y navegando por
Internet.
Dispositivos de almacenamiento
La información se puede almacenar en diferentes dispositivos, algunos de ellos
portátiles. Veamos algunos: - Disco duro: de 80 Gb a 1000 Gb de capacidad. -
Discos ópticos: CD  700 Mb DVD  de 4,7 a 17 Gb Blu-Ray  de 27 a 54 Gb -
Tarjetas de memoria: Las hay de diferente tipo: SD  Secure Digital CF  Compact
Flash MMC  Multimedia Digital MS  Memory Stick
Disco duro

Es el dispositivo más utilizado, y se encarga de almacenar permanentemente la


información en nuestro ordenador. El disco duro está formado por diferentes
discos metálicos apilados (entre 2 y 4) alojados en una carcasa, que giran a gran
velocidad. En cada cara del disco hay un cabezal capaz de leer y escribir la
información. Los discos se dividen en círculos concéntricos llamados pistas. Cada
pista está dividida en igual número de sectores. Cada sector tiene un tamaño de
512 bytes. La unidad de almacenamiento mínima se denomina cluster. El cilindro
es el conjunto de varias pistas; son todas las circunferencias que están alineadas
verticalmente

Si quieres ver el número de sectores, pistas, cilindros y capacidad de tu disco


duro, sigue los siguientes pasos en el entorno Windows. 1. Ve a Inicio  Todos los
Programas  Accesorios  Herramientas del Sistema  Información del sistema. 2.
Accede a Componentes  Almacenamiento  Discos. Aquí puedes obtener la
información sobre tus unidades de disco. 3. Anota los siguientes datos: •
Capacidad del disco duro • Número total de pistas • Número de bytes por sector •
Número total de cilindros 4. Calcula cuantos archivos podrías guardar si cada uno
de ellos ocupa 1000 sectores.

Particiones del disco duro

Una partición es una división del disco duro, de forma que el sistema operativo la
considera como si fuera una unidad totalmente independiente. Cada partición
puede tener un sistema de archivos distinto. Esto hace que en cada partición
puedas tener sistemas operativos distintos en un mismo ordenador, sin que
interfieran entre sí. Así, puedes tener Windows en una partición y Linux en otra.
Pero, ¿Qué es un sistema de archivos? Es el modo en el que se guardan los
archivos en discos duros.
Los sistemas de archivos más comunes son:
• FAT32: empleado hasta Windows 98.
• NTFS: empleado por Windows XP y Windows Vista

• Ext3: empleado por Linux Si eliges tener un solo sistema operativo, por ejemplo,
el Windows, hoy en día se suele organizar la información del disco duro haciendo
dos particiones. En una de ellas se instala el sistema operativo (Windows) y otras
aplicaciones: en la otra partición se instalan datos, como por ejemplo:
documentos, fotografías, música, etc. De este modo si el sistema operativo queda
inservible y tienes que reinstalarlo, no perderás tus datos, pues están en una
partición independiente.
Desfragmentando el disco duro Hay una herramienta que tiene Windows llamada
Desfragmentador de disco, que mueve los archivos de unos sectores a otros del
disco duro para dejarlo ordenado y agrupar su espacio libre. De este modo, el
disco duro trabaja más rápido y, en general, el ordenador trabaja más rápido. Para
desfragmentar el disco duro se hacen los siguientes pasos: Vete a Inicio  Todos
los programas  Accesorios  Herramientas del Sistema  4º Desfragmentador de
disco Este proceso no es necesario en Linux.

Entonces tenemos que un sistema de cómputo, necesita de un sistema operativo,


que le ayuda a controlar y administrar los recursos de hardware y software (tiempo
de procesamiento, espacio de memoria, espacio de almacenamiento para datos,
dispositivos de entrada-salida, etcétera) sus procesos, así como la asignación de
los recursos a usuarios y programas.

Debido a que pueden existir muchas solicitudes para usar los recursos de una
computadora, el sistema operativo debe decidir a qué solicitudes les asignará
recursos, espacio de memoria y prioridad, de manera que el sistema de cómputo
pueda operar de manera eficiente y sin causar conflictos.
Cada programa que se ejecuta en un sistema operativo, se conoce como proceso
(que se profundizará en el siguiente tema).

En este rubro, encontramos dos tipos de sistemas operativos: monousuario, que


soporta sólo las peticiones de un usuario limitándose a procesar una sola tarea a
la vez (monotarea); y multiusuario, que es capaz de atender a más de un usuario
al mismo tiempo, realizar varias tareas a la vez (multitareas) y compartir, incluso,
los mismos recursos; de éste trataremos a lo largo de la materia, es el más
común, debido a las diferentes actividades que se pueden realizar, incluso a
través de las redes informáticas.
De forma más específica, los sistemas operativos se pueden clasificar como lo
indica el siguiente esquema:
Esquema:

Sistemas operativos. Elaboración propia.


Definición de sistema operativo multiusuario Es más sencillo definir un sistema
operativo por lo que hace, que por lo que es.
El sistema operativo, como lo hemos visto, hace que las tareas de cómputo sean
más sencillas para los usuarios.

Los sistemas operativos para computadoras de cualquier tamaño se ubican en


diferentes tipos, que se distinguen por el tiempo de respuesta y la forma que se
introducen los datos al sistema.

Pero los sistemas operativos, así como todo lo que se refiera al campo de la
informática, va cambiando y evolucionando en el transcurso de los años.

Es normal referirnos al sistema operativo tal y como lo conocemos hoy en día


(multitarea, multiproceso, etcétera); pero el papel que tiene actualmente, no era el
mismo de hace unas décadas.
Para comprender mejor el funcionamiento del sistema operativo y la importancia
de sus características actuales, echémosle una mirada a través del tiempo. 
Breve historia de los sistemas operativos  Sistemas por lotes

En la década de los 50, se implementaron las primeras computadoras que se


operaban desde una consola.

Los dispositivos de entrada comunes eran lectores de tarjetas y unidades de cinta,


los dispositivos de salida eran impresoras de línea, unidades de cinta y
perforadoras de tarjetas.

El usuario no interactuaba directamente con este tipo de sistemas, sólo entregaba


su trabajo al operador de la computadora, que los organizaba en lotes para su
ejecución en el mainframe.

Una característica importante de este tipo de sistemas es que comúnmente la


unidad central de proceso (CPU) quedaba sin uso, debido a la velocidad de los
dispositivos de entrada/salida (E/S), cuestión que se solucionó con el uso de
discos de almacenamiento.
Sistemas de tiempo compartido
Los sistemas por lotes que utilizaron la multiprogramación, proporcionaron en su
momento un ambiente en el que los recursos del sistema (CPU, memoria,
dispositivos periféricos) se utilizaban eficazmente, con la limitante de que no
ofrecían la interacción entre el usuario y el sistema de cómputo.

En la década de los 80 surgen los sistemas de tiempo compartido o multitareas,


que son una extensión lógica de la multiprogramación.

La unidad central de proceso (CPU) ejecuta múltiples trabajos conmutando entre


ellos, con la ventaja de que los usuarios pueden interactuar con cada programa
mientras se encuentra en ejecución.

Un sistema operativo de tiempo compartido, planifica el uso de la unidad central


de proceso (CPU) y la multiprogramación proporciona a cada usuario una
pequeña parte de una computadora de tiempo compartido.
Sistemas para computadoras personales

Las computadoras personales (Personal Computer o PC) aparecieron a finales de


la década de los años 70, y se referían a las microcomputadoras compatibles con
las especificaciones de la empresa IBM.

Este tipo de equipos fueron diseñados para ser utilizados por una persona a la
vez, carecían de las características necesarias para proteger a un sistema
operativo de los programas del usuario; los sistemas operativos para PC, por lo
tanto, no eran ni multiusuario ni multitarea.

Sin embargo, los objetivos de estos sistemas operativos han cambiado con el
tiempo; en lugar de maximizar la utilización de la CPU y los dispositivos
periféricos, los sistemas optan por maximizar la comodidad y grado de respuesta
para el usuario, actualmente los sistemas operativos que utilizan los equipos PC
son: Microsoft Windows, Macintosh de Apple, Linux, etcétera. 20 de 370 Cuarto
Semestre
Sistemas paralelos

Entre los años de 1970-1980, aparecieron los sistemas paralelos, son aquellos
que tienen más de un procesador (CPU) y están fuertemente acoplados
compartiendo el bus (cables), el reloj y en ocasiones la memoria y los dispositivos
periféricos, lo que les permite tener gran capacidad de realizar varias operaciones
de manera simultánea y manejar grandes volúmenes de información, del orden de
los terabytes.
Sus características más importantes son:
Sistemas de tiempo real Desde la década de los 90 se han desarrollado los
sistemas operativos de tiempo real, se caracterizan porque su parámetro clave es
el tiempo y han sido perfeccionados para aplicaciones que requieren ser
ejecutadas bajo ciertas restricciones de tiempo sobre la operación de un
procesador o flujo de datos, que, en ocasiones, se emplea como dispositivo de
control en aplicaciones delicadas.

 Por Mayor rendimiento.


 Mayor disputa por los recursos compartidos.
 Mayor trabajo en menor tiempo.
 Los procesadores pueden compartir periféricos, almacenamiento masivo y
suministro de energía.
 Alta confiabilidad, la falla de un procesador no detendrá el sistema.
ejemplo, en los sistemas industriales, en el ámbito de la investigación científica, en
el campo de la medicina, etcétera.
Una de las características de un sistema de tiempo real es que tiene definidas y
fijas ciertas restricciones de tiempo.

El procesamiento debe realizarse dentro de los límites de ese tiempo, de lo


contrario, el sistema fallará.
Sistemas distribuidos En la década de los 70, y debido al desarrollo tecnológico
de los procesadores, el crecimiento de las redes de área local (LAN) y de las
telecomunicaciones, permitieron conectar computadoras para la transferencia de
datos a alta velocidad.

Esto dio origen al concepto de “Sistemas distribuidos”, que tiene como ámbito el
estudio de redes, como por ejemplo: Internet, redes corporativas, redes de
telefonía móvil, etcétera.

Hoy, todas las computadoras personales (PC), estaciones de trabajo y dispositivos


móviles avanzados cuentan con la capacidad para ejecutar aplicaciones en red.
Los sistemas operativos actuales como Windows, Linux, Android, etcétera,
incluyen la suite de protocolos TCP/IP y otros, que permiten a los equipos y
dispositivos móviles tener acceso a Internet mediante diversas tecnologías de
acceso (Redes LAN, WiFi, 3G, etcétera).

Sus características más importantes son: Concurrencia (los recursos en la red


pueden ser usados simultáneamente).

Carencia de reloj global (la realización de una tarea es distribuida a los


componentes).
Fallas independientes (si un componente falla, los demás siguen funcionando).

De acuerdo con lo visto, los sistemas operativos multiusuario han evolucionado


tomando en cuenta varios conceptos de la amplia variedad de los mismos,
descritos en la presente unidad, desde las grandes computadoras centralizadas,
hasta las computadoras personales de procesamiento distribuido y conectadas en
red, los sistemas multiusuario son el resultado de esta evolución.

Los sistemas operativos multiusuario dan la posibilidad de que dos o más usuarios
compartan los mismos recursos de forma simultánea de manera local o remota a
través de las redes de comunicación.
La compartición de recursos es principalmente:
Lo que reduce el tiempo ocioso del uso de los procesadores, costos de energía y
equipamiento para los usuarios.

Los sistemas operativos modernos, soportan funciones multiusuario. Por ejemplo:


Unix, Solaris, Linux, FreeBSD, Windows Server en sus diferentes versiones.
Procesadores.

Memoria. Almacenamiento secundario. Software de aplicación. Periféricos (discos,


impresoras, etc.).

Funciones de los sistemas operativos multiusuario

Las funciones básicas del sistema operativo se agrupan en tres rubros:


I. Gestión de los recursos de la computadora En una computadora existen varios
programas, en donde puede haber uno o más usuarios, con la ejecución
simultánea de los programas, que compiten por los recursos del equipo, y es el
sistema operativo el que administra su asignación y uso, éste debe garantizar la
protección de los programas y suministrar información sobre el uso de los recursos
que asigna.

II. Ejecución de servicios para los programas El sistema operativo da a los


programas un conjunto de servicios, o llamadas, que pueden solicitarse cuando lo
necesiten, proporcionando a los programas una visión de máquina extendida.

III. Ejecución de comandos de los usuarios. El módulo del sistema operativo que
permite que los usuarios dialoguen de forma interactiva con el sistema operativo, a
través de una interfaz (línea de comandos o gráfica), es el intérprete de comandos
conocido como Shell. 24 de 370
Procesos

Los primeros sistemas de cómputo permitían la ejecución de un programa a la


vez, las computadoras modernas de hoy día pueden ejecutar varios programas al
mismo tiempo, por ejemplo: mientras ejecutan un programa, también pueden leer
un disco, leer un dispositivo externo, abrir un navegador, mandar un archivo a la
impresora, etcétera.

Para lograr esto, se requirió de mayor control y una mayor división de los
diferentes programas y dio por resultado el concepto de proceso. A continuación
se presentan los conceptos más importantes aplicados al proceso en un sistema
de cómputo.

Definición Un proceso se define como un programa de ejecución, y es la unidad de


procesamiento gestionada por el sistema operativo. Como dice Carretero:

“El sistema operativo mantiene, por cada proceso, una serie de estructuras de
información para identificar las características de éste, así como los recursos que
tiene asignados. (…). El sistema operativo mantiene una tabla de procesos con
todos los bloques de control de proceso (BCP). Por razones de eficiencia, la tabla
de procesos se construye normalmente como una estructura estática, que tiene un
determinado número de BCP” (Carretero, 2001: 78).

El proceso no incluye información de entrada-salida (E/S), ya que esto está


reservado al sistema operativo
Modelos de procesos e identificadores de procesos Se entiende por modelos
de procesos, una representación de los estados que puede tener un proceso,
considerando los siguientes: nuevo, ejecución, en espera, listo y terminado.
En estos modelos (Tanenbaum, 2003: 72-73), todo el software que se ejecuta en
una computadora está organizado en procesos secuenciales; y cada uno de ellos
posee una unidad central de proceso de forma virtual, que también es conocida
como paralelismo virtual; es decir, el verdadero CPU cambia en forma continua de
un proceso a otro, a esta conmutación se le llama multiprogramación, permitiendo
aprovechar al máximo la memoria y finalizar con más tareas en menos tiempo.
Cuando un proceso se está llevando a cabo y se bloquea esperando por la E/S, en
la CPU se envía una instrucción para que se ejecute otro proceso (no de forma
paralela; sino intercalada), ayudando a hacer más eficiente el procesamiento de
programas, a esto se le llama concurrencia.

Entre los modelos de procesos tenemos, el de dos y el de cinco estados. 


Modelo de dos estados.

Es el modelo más simple. Consiste en que un proceso puede estar ejecutándose


o no; cuando se crea un nuevo proceso, se pone en estado de no ejecución.
En algún momento, el proceso que se está ejecutando pasará al estado no
ejecución y otro proceso se elegirá de la lista de procesos listos para ejecutar y
ponerlo en estado ejecución. Como se muestra en la siguiente ilustración:

Modelo de cinco estados. En este modelo se necesita un estado en donde los


procesos permanezcan esperando la realización de la operación de
Entrada/Salida por parte del Sistema Operativo hasta que puedan proseguir.

Se divide entonces al estado no ejecución en dos estados: listo y espera, y se


agrega, además, un estado de nuevo y otro terminado. Los cinco estados se
muestran en el siguiente diagrama
Diagrama de cinco estados.

Ejecución

• El proceso está actualmente en ejecución. Listo • El proceso está listo para ser
ejecutado. Espera
• El proceso no puede ejecutarse hasta que no se produzca cierto suceso, como la
finalización de una operación de Entrada/Salida solicitada por una llamada al
sistema operativo. Nuevo

• El proceso fue creado recientemente y todavía no fue admitido por el sistema


operativo.

En general los procesos que se encuentran en este estado todavía no fueron


cargados en la memoria principal Terminado

• El proceso fue expulsado del grupo de procesos ejecutables, ya sea porque


terminó o por alguna falla, como un error de protección, aritmético, etc.
Estados suspendidos.
Además de los estados básicos de los procesos (ejecución, listo y bloqueado),
éstos pueden estar en los estados de espera y suspendido.

En este modelo, dos o más procesos suspendidos (HOLD) pueden cooperar


mediante señales de forma que uno obliga a detenerse a los otros, hasta que
reciban una señal para continuar.

Es frecuente que existan procesos en espera (batch) para que puedan ser
ejecutados cuando así lo decida el sistema operativo; es decir, el sistema
operativo analiza este tipo de procesos para ejecutarlos cuando disponga de los
recursos necesarios.

Al suspender los procesos el sistema operativo, les retira los marcos de página y
los deja en una zona de intercambio.

El objetivo de que suspenda los procesos, es que debe dejar disponible la


memoria suficiente a los procesos que no están suspendidos para evitar la
hiperpaginación (alta paginación), que ocasiona problemas de rendimiento.

Es importante mencionar que no todos los sistemas operativos manejan la opción


de suspensión; por ejemplo, los sistemas monousuario pueden no manejar la
suspensión, por lo que el usuario del sistema deberá terminar los procesos, si
observa que no se ejecutan de manera correcta.

A continuación se presenta un ejemplo de cómo es su funcionamiento:  Por lo


general, se utiliza una variable de tipo “semáforo”, por la que se da un intercambio
de señales y se sincronizan todos los procesos.  Si el proceso está en espera de
una señal, se suspende (Hold) hasta que la señal se envíe (SIGNAL).
Se mantiene una lista (batch) de procesos en espera en el semáforo.

El sistema operativo, elige los procesos de la lista que está en espera (batch) por
medio del uso de la política FIFO (First In First Out). 29 de 370 Cuarto Semestre
Identificadores de procesos.
Los procesos se identifican mediante su identificador de proceso.
Un proceso nuevo se crea por la llamada al sistema fork (bifurcar) y puede tener
procesos hijos; el proceso creador se denomina proceso padre y a los nuevos se
les denominan procesos hijos.
Los procesos nuevos pueden crear otros y formar un árbol de procesos.

Para cada proceso existe un padre, pero puede tener varios hijos, como se
muestra en el siguiente esquema: Jerarquía de procesos.

Elaboración con base en: (Carretero, 2001: 79) De acuerdo a lo que plantea
Durán, un proceso nuevo se puede ejecutar de la siguiente forma:

1. El proceso padre continúa ejecutándose de manera concurrente con sus


procesos hijo.

2. El proceso padre espera hasta que alguno o todos sus procesos hijo hayan
concluido.

Hay dos posibilidades más en términos del espacio de direcciones del nuevo
proceso:
1. El proceso hijo es una copia del proceso padre.

2. Se carga un programa en el proceso hijo. (Durán, 2007: 7) Por ejemplo, en el


sistema operativo UNIX, el proceso nuevo consiste en una copia del espacio de
direcciones del proceso original; este mecanismo permite que el proceso padre se
comunique fácilmente con su proceso hijo. Ambos procesos (el padre y el hijo)
continúan su ejecución en la instrucción que va después de la llamada fork, con
una diferencia: el código de retorno para la llamada fork es cero para el proceso
nuevo (hijo), en tanto que el identificador de proceso (distinto de cero) del hijo se
devuelve al padre (Silberschatz, 2002: 97-98).
Jerarquía de procesos, prioridades y colas

“Un proceso se representa por un conjunto de datos denominado bloque de


control de procesos (PCB), los que permiten al sistema operativo localizar
información sobre el proceso y mantenerlo registrado por si hay que suspender la
ejecución temporalmente.”
Información del bloque de control de procesos:
Información de identificación.
Información del estado de la CPU.
Información del control del proceso.
Información de uso de recursos.
En ella encontrarás mayor información. La información de control del proceso
incluye los siguientes puntos:

Los bloques de control de proceso se almacenan en colas y hay una por cada
estado posible de los procesos, éstos se dividen como se muestra a continuación:

Estado de proceso.

Estadísticas de tiempo y uso de recursos. Ocupación de memoria interna y


externa (swapping). Recursos en uso. Archivos en uso. Privilegios.
Prioridades

A cada proceso se le asigna una prioridad en función de la urgencia y de los


recursos que disponga, lo cual determina la frecuencia de acceso al procesador.
Esto ayuda a los usuarios a aprovechar los recursos del sistema de manera
eficiente y minimizar los tiempos de respuesta del equipo. De acuerdo con Pérez
Campanero (Pérez, 2002: 71), los tipos de prioridades que se pueden manejar
son:

 Asignadas por el sistema operativo No interviene directamente el usuario; sino


que el mismo SO establece la prioridad al comenzar la ejecución del proceso,
pudiendo asignarlas racionalmente (reconociendo los privilegios del propietario y
del modo de ejecución), o bien arbitrariamente (conforme van llegando los
procesos).

 Asignadas por el propietario Son determinadas por el usuario antes de


comenzar la ejecución, pero de no organizarse adecuadamente pueden provocar
algunos errores dentro del sistema, y hasta podría perderse el trabajo que se haya
realizado. 33 de 370 Cuarto Semestre Aunado a estas dos prioridades,
establecidas al inicio de la ejecución del proceso, también están otras dos que se
hacen cuando el proceso ya se está desarrollando:

 Estática Se caracteriza porque no puede ser modificada durante la ejecución.


Dinámica Esta puede ser modificada en función de los eventos que se
produzcan. Los procesos, en los diferentes estados que tienen, son agrupados en
listas o colas (lista de procesos del sistema -job queue):

En esta lista están todos los procesos del sistema, al crearse un proceso nuevo se
agrega a la misma el PCB; cuando el proceso termina su ejecución, es borrado.
Existen dos tipos de colas:

 Cola de procesos listos (ready queue)

Esta cola se compondrá de los procesos que estén en estado listo; la estructura
de la cola dependerá de la estrategia de planificación utilizada.

 Cola de espera de dispositivos (device queue) Los procesos que esperan por un
dispositivo de E/S en particular son agrupados en una lista específica al
dispositivo. Cada dispositivo de E/S tendrá su cola de espera.

Arrancador o despachador de procesos

El componente implicado en la función de la planificación de la unidad central de


proceso (CPU) es el despachador (Silbertschatz, 2002: 139-141).

Este componente inicia la ejecución de los procesos, es el módulo que da el


control del CPU al proceso seleccionado por el planificador de corto plazo4 y
comprende las siguientes funciones:

“El despachador es uno de los módulos del administrador de procesos y decide a


qué procesador asignar el proceso que tiene que ser ejecutado; éste deberá ser
muy rápido, ya que es invocado en cada conmutación de procesos.

El tiempo que le lleva al despachador detener un proceso e iniciar la ejecución de


otros, se conoce como latencia de despacho.” (Meza, n.d: 24). 4 Ver Tipos de
planificador (Glosario). Conmutación de contexto (el CPU conserva el estado de
un proceso anterior y carga el estado guardado de otro proceso). Conmutación a
modo de usuario. Apuntar a la localidad apropiada en el programa del usuario para
reinciar el programa.
Sincronización y comunicación entre procesos

Paralelismo y competencia entre procesos

Como vimos en el tema 1, en los sistemas paralelos existen varios procesadores


que permiten realizar distintas operaciones de manera simultánea y manejar
grandes volúmenes de información.

Un programa concurrente es visto como una colección de procesos secuenciales


autónomos que se ejecutan (lógicamente) en paralelo.

La concurrencia puede darse en sistemas con un solo procesador o con varios


procesadores que compartan algo en común.
La ejecución de procesos toma una de las siguientes formas:
“--Multiprogramación: ejecución de múltiples procesos en un solo procesador.

-- Multiprocesamiento: ejecución de múltiples procesos en un sistema


multiprocesador donde hay acceso a la memoria compartida.

-- Programación distribuida: ejecución de múltiples procesos en varios


procesadores, los cuales no comparten memoria.”

5 Cuando dos o más procesos intentan emplear un mismo recurso al mismo


tiempo, se da una condición de competencia entre ellos, pudiendo ser de la
siguiente forma: ´
-- Compatibles: Son utilizados por varios procesos de forma concurrente.

-- No compatibles: su uso se restringe únicamente a un solo proceso.


Evidentemente, en esta competencia, un proceso se ejecutará y el otro deberá
esperar, incluso puede llegar a no ser concluido exitosamente.
Estado de procesos

Cuando se ejecuta un proceso, cambia su estado.

El estado de un proceso se define principalmente por la actividad que realiza el


proceso. Cada proceso puede tener uno de los siguientes estados, de acuerdo a
como lo plantea Silbertschatz (2002: 88-89): * Nuevo: el proceso se está
generando.
* Ejecución: se están ejecutando instrucciones.
* En espera: proceso que espera a que ocurra algún evento (por ejemplo, la
terminación de una operación de E/S).
* Listo: el proceso está en espera de ser asignado a un procesador.
* Terminado: el proceso ha terminado su ejecución.

Transición de estados

De acuerdo con Carretero (2001: 97), la activación del sistema operativo se realiza
mediante las “interrupciones”. Cuando se produce una interrupción se llevan a
cabo las siguientes operaciones:

 Se guarda el estado del CPU en el correspondiente BCP.

 Se procede a ejecutar la rutina de tratamiento de interrupción del sistema


operativo. Como resultado de lo anterior, se pueden producir cambios en el estado
de algunos procesos, aunque no necesariamente.

Por ejemplo, si un proceso A está bloqueado y espera a que termine una lectura
de disco y llega una interrupción del mismo, entonces se produce un cambio y
entra en acción el sistema operativo para manejar la interrupción. Si se indica que
la interrupción terminó por lo que esperaba A, el sistema operativo cambiará el
estado de este proceso a listo o a ejecución si así lo decide el módulo de
planificación de procesos.

El sistema operativo requiere realizar un trabajo muy cuidadoso para que se


ejecuten de manera correcta las transiciones de los estados de los procesos. Uno
de los puntos más delicados tiene que ver con los registros que efectúa un equipo
y son:

 Si un proceso está en ejecución, parte de su información se encuentra en los


registros del equipo, éstos se modifican constantemente por la ejecución de
instrucciones de máquina.

 El proceso detiene su ejecución porque llega una interrupción o porque el


proceso solicita un servicio del sistema operativo.

 El sistema operativo ejecuta de manera inmediata una interrupción o un servicio


demandado. 38 de 370 Cuarto Semestre

 La ejecución del sistema operativo, modifica los contenidos de los registros del
equipo y destruye sus valores anteriores. Los siguientes son algunos tipos de
transiciones, como lo propone Juan Pérez Campanero:
a) Comienzo de la ejecución. Cuando el usuario da la orden para la ejecución del
programa, el sistema operativo crea un proceso.

b) Paso a estado de ejecución. Cuando el procesador está libre y en la cola de


preparados haya algún proceso, se pondrá en ejecución el primero de ellos.

c) Paso a estado bloqueado. Un proceso que se encuentre en ejecución puede


solicitar al sistema quedarse en espera por algún otro evento, por ejemplo, la
terminación de una operación de entrada/salida.

d) Paso a estado preparado. Que puede estar por cuatro causas: - “Ejecución por
el usuario de un programa. (…) Producción del evento, por el que estaba
bloqueado el proceso.
Si el proceso estaba bloqueado pasará de la cola de procesos bloqueados a la de
preparados. De esta manera, vuelve a competir por el uso del procesador. Si no
existiera ninguno en el procesador, el proceso desbloqueado pasará
automáticamente a ejecución.”. “

- Interrupción. Si se produce una interrupción que fuerza al sistema operativo a


ejecutar otro proceso, el que está en ejecución pasará a la cola de preparados y
puede seguir compitiendo por el uso del procesador. (…)
- Reanudación de un proceso suspendido preparado. e) Paso a estado
suspendido preparado. Este paso también puede darse por varias causas

- Ejecución por el usuario. El usuario ejecuta una orden al sistema operativo para
suspender la ejecución de un programa.

- Producción del evento por el que estaba bloqueado el proceso. Si el proceso


estaba suspendido bloqueado y se produce el evento, pasará a suspendido
preparado.

- Ejecución de una llamada al sistema operativo, por lo que el proceso se


suspende a sí mismo. f) Paso a estado suspendido bloqueado.

Este paso se da porque el usuario dé una orden al sistema operativo para que
suspenda la ejecución del programa y se diera por casualidad de que el proceso
correspondiente a dicho programa estaba en estado bloqueado.

El proceso permanecerá en este estado hasta que se reanude por una orden del
usuario o del sistema operativo, o bien se produzca el evento por el que está
bloqueado, pasando en este caso a Suspendido Preparado
Comunicación entre procesos
Los procesos concurrentes que se ejecutan en el sistema operativo pueden ser de
dos tipos: independientes y cooperativos.

Los primeros no pueden afectar ni verse afectados por otros procesos que se
estén ejecutando, los segundos sí pueden afectar o verse afectados por otros que
se estén ejecutando en el sistema; sin embargo, existen procesos que comparten
datos con otros y se denominan procesos cooperativos.

Éstos pueden comunicarse en un ambiente de memoria compartida; es decir, el


sistema permite crear segmentos de memoria a los que pueden acceder múltiples
procesos.

Un servicio de comunicación entre procesos (IPC) proporciona un mecanismo


para que éstos se comuniquen y para sincronizar sus acciones, sin que compartan
un mismo espacio de direcciones. El IPC es muy útil en un ambiente distribuido,
en donde los procesos que se comunican pueden residir en diferentes equipos
conectados en red.
El programa “chat” que se utiliza en internet, es un ejemplo de este tipo de
comunicación entre procesos.

El servicio IPC realiza al menos dos operaciones: envío y recepción de mensajes


(send, receive). Por ejemplo, si dos procesos, A y B, requieren comunicarse entre
sí, debe existir un enlace de comunicación de tipo lógico.

A continuación se describen algunos métodos para implementar de manera lógica,


un enlace, utilizando las operaciones send-receive.

Para lograr la comunicación entre los procesos, se requieren referencias entre sí,
por lo cual se utiliza una comunicación directa o indirecta.
Comunicación directa

En este tipo de comunicación cada proceso que quiere comunicarse, debe


nombrar de manera explícita al receptor o al emisor de la comunicación. Ejemplo: -
send (A, mensaje).
Enviar un mensaje al proceso
A. - receive (B, mensaje). Recibir un mensaje del proceso B. En la comunicación,
se tienen las siguientes propiedades: - Un enlace se establece de manera
automática entre cada par de procesos. - Un enlace se asocia de manera exacta
con dos procesos. - Entre cada par de procesos existe de manera exacta sólo un
enlace.

Comunicación indirecta En este tipo de comunicación, los mensajes se envían y


se reciben por medio de buzones. Un buzón es un objeto en donde los procesos
colocan y eliminan mensajes, en cada buzón se utiliza un identificador único; en
este tipo de comunicación, un proceso se comunica con otro utilizando diferentes
buzones. Dos procesos pueden comunicarse solamente si tienen un buzón
compartido, por ejemplo: - send (A, mensaje). Enviar un mensaje al buzón

A. - receive (A, mensaje). Recibir un mensaje del buzón A. En este tipo de


comunicación, se tienen las siguientes propiedades:
- Se establece un enlace entre un par de procesos, sólo si ambos tienen un
buzón compartido.
- Un enlace se puede asociar con más de dos procesos.
- Entre cada par de procesos pueden existir varios enlaces diferentes, en
donde a cada enlace le corresponde un buzón.

Interrupciones
Una interrupción es una señal que indica que se suspende la ejecución de
un programa y activa un programa especial conocido como “manejador de
interrupción”.
Excepciones de programa: son eventos que ocurren cuando se ejecuta un
programa, y que requiere la ejecución de un fragmento de código que se
encuentra fuera del flujo normal de ejecución.
Son generadas por software.
Las excepciones incluyen la ejecución de instrucciones ilegales, o la
división por cero, las excepciones de software incluyen aquellas que son
detectadas y notificadas por los procesos o por el sistema operativo.

Cuando ocurre una excepción, el control es transferido al sistema operativo,


que ejecuta la rutina de tratamiento de excepción correspondiente.
Las interrupciones se pueden generar por las siguientes causas:
Excepciones de programa.

Hay determinadas causas que hacen que un programa presente un


problema en su ejecución, por lo que deberá generarse una interrupción
para que el sistema operativo trate esta causa. Por ejemplo: el
desbordamiento en las operaciones aritméticas, la división por cero, el
intento de ejecutar una operación con código de operación incorrecto o de
direccionar una posición de memoria no permitida.

Interrupciones de reloj. Genera interrupciones cada cierto tiempo para


asegurar que ningún proceso retenga completamente el uso del
procesador.  Interrupciones de entrada/salida (E/S).
Los controladores de los dispositivos de E/S necesitan interrumpir para
indicar que han terminado una operación o conjunto de ellas.

Excepciones. Cuando se detecta de un error de paridad en la memoria o


cuando existe un corte de corriente, se avisan mediante la correspondiente
interrupción.  Instrucciones de TRAP.

Estas instrucciones permiten que un programa genere una interrupción, se


utilizan principalmente para solicitar los servicios del sistema operativo.

Interbloqueo de procesos En los sistemas operativos multiusuario y


multiproceso, es preciso retomar lo que se refiere al interbloqueo como
sigue: “es el bloqueo permanente de un conjunto de procesos o hilos de
ejecución en un sistema concurrente que compiten por un número finito de
recursos. A diferencia de otros problemas de concurrencia de procesos, no
existe una solución general para los interbloqueos.

Todos los interbloqueos surgen de necesidades que no pueden ser


satisfechas, por parte de dos o más procesos.” (Meza, n.d: 39). Por
ejemplo: Semestre Los procesos A y B requieren imprimir cada uno un
archivo grande de una unidad de respaldo.
El proceso A solicita permiso para utilizar la impresora, se le concede el
permiso. En ese momento el proceso B solicita utilizar la unidad de
respaldo y se le concede.
El proceso A solicita la unidad de respaldo y es negada hasta que B la
libere.
En ese momento el proceso B solicita la impresora que está siendo utilizada
por A.
Los procesos se bloquean de manera permanente. 1.3.7 Algoritmos de
administración y procesos En cuanto al éxito de la planificación de la CPU,
puede observarse que depende de la siguiente propiedad en los procesos:
la ejecución de los procesos consta de un ciclo de ejecución de la CPU y
espera de entrada y de salida.
La planificación tiene los siguientes objetivos:
-- Reparto equitativo del procesador.
-- Eficiencia, optimizar el uso del procesador (mantener ocupado 100% de
tiempo de la unidad central de proceso (CPU)).
-- Tiempo de respuesta, minimizar el tiempo de respuesta al usuario.
-- Tiempo de regreso, minimizar el tiempo que deben esperar los usuarios
por lotes (batch) para obtener sus resultados.
-- Rendimiento, maximizar el número de tareas procesadas por hora.
(Carretero, 2001: 104).

Existen diferentes tipos de algoritmos asociados a la unidad central de


proceso, los cuales tienen diversas propiedades que favorecen a una clase
de procesos sobre otros.
Algoritmos de planificación De acuerdo con lo que dice Silberschatz
(2002: 139-156) se plantean los siguientes algoritmos: 1. Primero en llegar,
primero en salir.
En este esquema se asigna el uso de CPU al primer proceso que lo solicite
(first come, first-served, FCFS).
La implementación de este tipo de política (FCFS) se maneja de manera
sencilla con una cola tipo FIFO (first input, first output).
Cuando un proceso entra a la cola de los procesos listos, su PCB se va al
final de la cola. Cuando el CPU se encuentra libre, se asigna su uso al
proceso que se encuentra al inicio de la cola. 2.
Primero el trabajo más cortó.
Este algoritmo (shortest-job-first, SJF) asocia la longitud de un proceso a la
disposición (ráfaga) de la unidad central de proceso. Cuando el CPU está
disponible, se le asigna al proceso que tiene la ráfaga más corta. Si dos
procesos tienen la misma longitud de ráfaga, se utiliza la planificación FCFS
del algoritmo anterior.

Prioridad.
Una prioridad está asociada a cada proceso, y el CPU se asigna al proceso
que tenga la prioridad más alta. Cuando los procesos tienen la misma
prioridad se planifica de acuerdo a FCFS. 4. Roud-robin. Este algoritmo se
denomina por turnos (round-robin) fue diseñado para sistemas de tiempo
compartido.
Es similar a FCFS sólo que agrega apropiación para conmutar entre
procesos; es decir, define una unidad de tiempo conocido como quantum;
es decir, una unidad de tiempo de 10 a 100 milisegundos. La cola de
procesos listos es manejada como una cola de tipo circular.
El planificador del CPU da vueltas sobre la cola de procesos listos y asigna
el uso de CPU a cada proceso durante un intervalo de hasta 1 quantum.

Colas de niveles múltiples.


Este algoritmo divide la cola de procesos listos en varias colas separadas.
Los procesos se asignan a una cola de acuerdo a ciertas propiedades del
proceso (tamaño de memoria, tipo de proceso, prioridad, etcétera).
Se pueden tener varias colas y cada una tiene su propio algoritmo de
planificación.
Ejemplo:
Colas de procesos de niveles múltiples como son los procesos del sistema,
procesos por lotes, procesos de estudiantes, etcétera.

Colas de niveles múltiples y de retroalimentación.


Este tipo de algoritmo permite que un proceso se mueva entre diferentes
colas; es decir, separa procesos con características diferentes de ráfaga del
CPU.
Si un proceso utiliza demasiado tiempo del uso del CPU, será movido a una
cola de menor prioridad.
Para seleccionar el algoritmo a utilizar en una situación particular, se deben
considerar las diferentes propiedades que tienen. “Utilización de CPU:
mantener la CPU tan ocupada como sea posible. La utilización puede estar
entre 0 y 100 por ciento, de esto depende que el uso del sistema sea ligero
(40%) o pesado (hasta 90%).
* Rendimiento (throughput): se mide por el número de procesos que se
terminan por unidad de tiempo.
En el caso de procesos de larga duración, esta tasa podría ser un proceso
por hora, para transacciones breves el rendimiento podría ser de 10
procesos por segundo.
* Tiempo de entrega: tiempo que se requiere para ejecutar un proceso,
desde el momento en que se presenta un proceso hasta su terminación.

El tiempo de entrega, es la suma de los periodos que se consumen


esperando llegar a la memoria, esperando en la cola de listos, en ejecución
en el CPU y realizando operaciones de E/S.
* Tiempo de espera: el tiempo de espera es la suma de los periodos
esperando en la cola de listas.
* Tiempo de respuesta: esta medida es el tiempo que requiere para
empezar a responder y no cuánto se requiere para producir la salida de
dicha respuesta.
El tiempo de entrega por lo general está limitado por la velocidad del
dispositivo de salida.” (Meza, n.d: 47)

Administración de memoria

Administración de la memoria
La administración de la memoria se refiere a los métodos y operaciones
para obtener la máxima utilidad de ésta a través de la organización de
procesos y programas que se ejecutan en una computadora.

La parte del sistema operativo que administra la jerarquía de memoria se


llama administrador de memoria.
Los sistemas de administración de memoria se dividen en dos: los que
traen y llevan procesos entre la memoria principal y el disco duro durante la
ejecución (intercambio y paginación), y los que no lo hacen.
La memoria consiste en un arreglo de bytes, cada uno con su propia
dirección.
La unidad central de proceso (CPU) acude por instrucciones a la memoria
de acuerdo con el valor del contador de programa. (Meza, n.d: 55). 
Esquemas de administración de memoria
1. Multiprogramación sin intercambio ni paginación. Es el esquema más
sencillo de la administración de la memoria, ya no tiene aplicación.
Consistía en que al ejecutar un programa, se utilizaban todos los recursos
de la computadora (memoria, software, etcétera).
2. Multiprogramación con particiones fijas. La multiprogramación eleva el
aprovechamiento del CPU. Esto se logra dividiendo la memoria en
particiones. (…)
3. Modelado de la multiprogramación. Un proceso pasa una fracción p de
su tiempo esperando a que terminen operaciones de E/S. Si hay n procesos
en la memoria a la vez, la probabilidad de que todos estén esperando E/S
(el CPU estará inactivo).
Entonces el aprovechamiento de la CPU está dado por la fórmula:
Aprovechamiento de n CPU 1 p . 1.4.2 Participaciones fijas y dinámicas
Generalmente, la memoria se divide en dos particiones: una que es para el
sistema operativo residente y otra para los procesos que tienen que ver con
los usuarios.
Uno de los métodos más sencillos para la asignación de memoria consiste
en dividirla en un número de particiones de tamaño fijo.
Cada una de estas particiones puede contener exactamente un proceso.
De tal modo que el grado de multiprogramación se limita por el número de
particiones.
Cuando una partición está disponible, se selecciona un proceso de la cola
de entrada y se carga en ella y al terminar dicho proceso, la partición queda
disponible para otro.
Este método fue empleado originalmente por el sistema operativo OS/360
de IB (denominado MFT); en la actualidad ya no se usa.
El método de particiones dinámicas utiliza toda la memoria al cargar las
primeras tareas en el sistema que no son del mismo tamaño de las que
acaban de salir de la memoria, y se acomodan en los espacios disponibles
de acuerdo a su prioridad.

Asignación estática de la memoria

La asignación estática de memoria consiste en el proceso de asignar


memoria en tiempo de compilación de un programa, en donde los objetos
están vigentes desde que inicia la ejecución del programa hasta que
termina.
La asignación de este tipo de memoria se define, dentro de la sintaxis de
los lenguajes de programación, de tal manera que se pueden reservar bytes
de memoria que ningún otro programa pueda utilizar.
Los objetos que se pueden manejar para este tipo de memoria son:
variables estáticas, variables globales, literales, etcétera

Asignación dinámica de la memoria


Tiene que ver con la asignación de almacenamiento de memoria para su
utilización por un programa de cómputo durante el tiempo de ejecución; es
decir, a medida que se va requiriendo espacio, el programa va solicitando
más memoria al sistema operativo.
En este tipo de asignación de memoria, los datos se crean y se destruyen
mientras se ejecuta el programa, de tal manera que se evita el desperdicio
de la misma.
Paginación De acuerdo con los planteamientos de Silbertschatz (2002:
269-274), la paginación es un diseño que permite que el espacio de
direcciones lógicas de un proceso no sea contiguo y evita el problema de
ajustar las porciones de memoria de tamaño variable en el almacén de
respaldo (del cual sufrían la mayoría de los diseños anteriores de
administración de la memoria).

Algoritmos para reemplazo de páginas (Tanenbaum, 2003: 214-227).

Cuando se presenta una falla de página, el sistema operativo tiene que


escoger la página que desalojará de la memoria para hacer espacio para
colocar la página que traerá del disco. Si la página a desalojar fue
modificada mientras estaba en la memoria, deberá reescribirse en el disco
para actualizar la copia.
En cambio, si la página no se ha modificado (por ejemplo, si contiene texto
de programa), la copia en disco ya estará actualizada y no será necesario
reescribirla.
La nueva página simplemente sobrescribe la que está desalojando. Aunque
sería posible escoger una página al azar para desalojarla cuando haya una
falla de página, el desempeño del sistema mejora mucho, si se escoge una
página que no se usa mucho. Si se desaloja una página muy utilizada, lo
más seguro es que pronto tenga que volver a traerse a la memoria, con el
consiguiente gasto extra. A continuación se describen los diferentes
algoritmos para el reemplazo de páginas:
1. Algoritmo óptimo de reemplazo de páginas. Este algoritmo indica qué
página debe desalojarse de la memoria cuando existe una falla de página.
2. Algoritmo de reemplazo de páginas no utilizadas recientemente. Las
computadoras con memoria virtual asocian a cada página dos estados de
bits. R se enciende cada vez que se hace referencia a la página para leer y
escribir. M se enciende cada vez que escribe en la página (se modifica).
Cuando se presenta una falla de página, el sistema operativo examina la
totalidad de páginas y las divide en cuatro categorías con base en los
valores actuales de R y M. - Clase 0: no solicitada, no modificada. - Clase 1:
no solicitada, modificada. - Clase 2: solicitada, no modificada. - Clase 3:
solicitada, modificada.
3. Algoritmo de reemplazo de páginas, primero en entrar, primero en salir.
En este algoritmo (FIFO; first-in, first-out) el sistema operativo mantiene una
lista de todas las páginas que actualmente están en la memoria, con la más
antigua al principio de la lista y la más reciente al final.
Al presentarse la falla de página, se desaloja la página que está al principio
y la nueva se deja al final.
4. Algoritmo de reemplazo de página de segunda oportunidad.
Este algoritmo es una modificación de FIFO que evita desalojar una página
que se utiliza mucho. Consiste en examinar el bit R de la página más
antigua. Si el valor de bit es 0, indica que la página no sólo es antigua; sino
que también se usa mucho. Por lo que es reemplazada de inmediato. Si el
valor del bit R es 1, entonces se apaga y la página se coloca al final de la
lista de páginas y su tiempo de carga se actualiza como si acabara de llegar
a la memoria.
Algoritmo de páginas tipo reloj. Este algoritmo mantiene las páginas en
una lista circular (tipo reloj).
Cuando se presenta una falla en la página, se examina la que apunta la
manecilla. Si el bit es 0 se desaloja, la nueva página se inserta en su lugar y
la manecilla se adelanta un poco.
Si R es 1, se cambia a 0 y la manecilla se adelanta a la siguiente.
El proceso se repite hasta encontrar una con R = 0. 6.

Algoritmo de reemplazo de página menos recientemente utilizada.

Este algoritmo denominado (LRU; least recently used) considera que


cuando se presenta una falla de página, se desaloja la que tiene más
tiempo sin utilizarse. Una de las dificultades para su implementación radica
en que la lista debe actualizarse cada que se hace referencia a la memoria.
Encontrar una lista, borrarla y reinsertarla es una operación muy tardada y
tiene un alto costo en memoria y hardware.

Algoritmo de reemplazo de páginas de conjunto de trabajo.

En este algoritmo, los procesos inician sin tener páginas en la memoria.


Cuando el CPU trata de obtener la primera instrucción, habrá una falla de
página y el sistema operativo traerá a disco la página que tiene la primera
instrucción. Después de cierto tiempo, el proceso tiene casi todas las
páginas que necesita y su ejecución se estabiliza.
A esto se le conoce como paginación por demanda, ya que las páginas se
cargan sólo cuando se necesitan y no por adelantado.

Algoritmo de reemplazo de páginas WSClock.

Tiene como base el algoritmo de reloj; pero a la vez utiliza la información de


conjunto de trabajo.
En principio, la lista está vacía y cuando se carga la primera página, ésta se
añade a la lista.
En la medida que se accede a las páginas, se incorporan a la lista
formando un anillo.
Al igual que en el algoritmo de reloj, cada vez que hay una falla de página
se examina primero la página que apunta a la manecilla. Si el bit R es 1
significa que la página se utilizó durante el tiempo actual, por lo que la
página no es candidata idónea para desalojarse, por lo que se apaga el bit
R, se adelanta la manecilla a la siguiente página y se repite el algoritmo.
Este algoritmo es fácil de implementar y tiene un buen desempeño. 1.4.6
Políticas de reemplazo de páginas Una de las políticas principales de un
sistema de memoria virtual y que puede afectar el rendimiento, es la que
determina qué página reemplazar cuando hay que traer otra de la memoria
secundaria y no existe espacio libre. Aunque gestionar la transferencia de
información entre la memoria principal y el disco duro no se limita al sistema
de memoria virtual; sino que también se da en la gestión de la memoria
caché del sistema de archivos y en los sistemas manejadores de bases de
datos. Muchos algoritmos utilizados en estos ámbitos son similares a los
utilizados en la memoria virtual, hay que considerar que existe una
diferencia importante en el modo de operación del sistema de archivos o de
un manejador de bases de datos y el sistema de memoria.
En los primeros, existe una petición explícita por parte de la aplicación para
acceder a la información, pudiendo el sistema operativo o el manejador de
bases de datos tener el control sobre los accesos que se van realizando.
En cambio, en la memoria, los procesos acceden directamente a la misma
sin que el sistema operativo tenga control de ello y sólo lo toma cuando se
produce una falla de página. Las políticas de reemplazo se clasifican en dos
categorías: reemplazo global y local.

En el reemplazo global se puede seleccionar para satisfacer la falla de


página de un proceso un marco que tenga actualmente asociada una
página de otro proceso; es decir, un proceso puede quitarle un marco de
página a otro.
En el reemplazo local requiere que para servir la falla de página de un
proceso sólo puedan utilizarse marcos de páginas libres o marcos ya
asociadas al proceso.
El objetivo básico de cualquier algoritmo de reemplazo es minimizar la tasa
de fallas de página y son los descritos anteriormente.

Memoria virtual La memoria virtual es una técnica de administración de la


memoria, utilizada por el sistema operativo, que permite que se ejecuten
procesos que pueden no estar completamente en la memoria principal. Este
tipo de memoria está formada por circuitos integrados de dos tipos: ROM
(Ready Only Memory) “Memoria de sólo lectura” y RAM (Random Access
Memory) “Memoria de acceso aleatorio”:
La memoria virtual es la separación de la memoria lógica del usuario y de la
memoria física [del equipo].
Esta separación permite ofrecer a los programadores una memoria virtual
grande cuando sólo se dispone de una memoria física pequeña.

Por ejemplo, un programa de 16 MB puede ejecutarse en una computadora


de 4 MB si se elige con cuidado cuales 4 MB se tendrán en la memoria en
cada instante, intercambiando fragmentos del programa entre el disco y la
memoria, según se requieren. 7 Véase, Universidad de Jaén, Departamento
de Informática: “Tema 7: Memoria virtual;
Memoria escondida (caché) El término memoria caché se aplica
normalmente a una memoria más pequeña y más rápida que la memoria
principal, se sitúa entre la memoria RAM y el CPU.

Es un tipo de memoria RAM estática (SRAM) y está diseñada para contener


información que se utiliza con mucha frecuencia en un proceso, con el
objetivo de evitar accesos a otras memorias (principal), reduciendo de
manera considerable el tiempo de acceso, ya que es más rápida que la
memoria principal.
Por ejemplo, cuando el procesador lee los datos y se almacenan en la
memoria principal, los datos también se almacenan en la memoria caché. Si
el procesador los requiere de nuevo, los lee de la memoria caché y no de la
memoria principal y se incrementa la velocidad.
En una computadora la memoria caché es menor que la principal y su costo
es alto.
I. DEFINICIÓN DE LOS CONCEPTOS FUNDAMENTALES
Definición de sistema operativo
Un sistema operativo es un tipo de software, es decir, forma parte de la parte
lógica del sistema, que es, sobre todo, un software de sistema, ya que tiene la
función de cooperar con el usuario para que este se comunique eficazmente con
el hardware y el software de aplicación. En los últimos tiempos, aparte de este
objetivo principal, se ha agregado otro secundario, como es el de apartar a los
usuarios, en la medida de lo posible, de las instrucciones máquina del equipo.
Al utilizar un sistema informático se requieren de él recursos, como por ejemplo,
procesos de trasvase de información, gestión de memorias, controladores, etc.
Para obtener un sistema eficiente, es necesario que la gestión de esos recursos
sea la óptima, por lo que se necesita de un programa como el sistema operativo.
Esa eficiencia se pretende también para la gestión de los periféricos de entrada y
de salida -impresoras, teclados, punteros,...-, y también para los dispositivos de
entrada y de salida -discos, cintas,...-.
Además, el usuario de un sistema no se contentará sólo con usar éste pero, sino
que querrá ejecutar otros programas de aplicación, que es lo que justifica, al fin y
al cabo, el invento de los equipos informáticos. El sistema operativo gestiona, de la
manera más eficiente y eficaz posible, las relaciones entre esos programas y todo
el sistema. Es decir, es un controlador lógico de todo el proceso y flujo de
información, así como de la ejecución de dichos programas.

Funciones de los sistemas operativos


Una primera aproximación a las tareas de un sistema operativo desde dos
vertientes: asistencia a
la programación y gestión del sistema. Desde el punto de vista de la primera
función, las tareas de un sistema operativo se pueden resumir en:
- Asistencia en la compilación, depuración y linkado de programas
- Manejo y ejecución de programas, su carga en memoria, su ejecución y la
finalización
- Gestión de la información, manejo de ficheros, modificación, lectura, grabación,...
- Controlar las operaciones de entrada y salida
- Detección de errores físicos o lógicos
Para la gestión eficiente del sistema informático el sistema operativo debe:
- Informar sobre el estado de uso del mismo, usuarios, tareas, tiempos, recursos,...
- Dar inicio a los procesos y mantenerlos hasta que acaben
- Interpretar los lenguajes de control
- Protección de la estructura de la información ante usos inadecuados: detectar y
corregir errores, protección de datos, de programas
- Asignación y separación de recursos: CPU, memoria, dispositivos de entrada y
salida,...
- Gestionar las interrupciones
- Interactuar con el usuario
1.- Aceptar todos los trabajos y conservarlos hasta su finalización.
2.- Interpretación de comandos: Interpreta los comandos que permiten al usuario
comunicarse con el ordenador.
3.- Control de recursos: Coordina y manipula el hardware de la computadora,
como la memoria, las impresoras, las unidades de disco, el teclado o el Mouse.
4.- Manejo de dispositivos de E/S: Organiza los archivos en diversos dispositivos
de almacenamiento, como discos flexibles, discos duros, discos compactos o
cintas magnéticas.
5.- Manejo de errores: Gestiona los errores de hardware y la pérdida de datos.
6.- Secuencia de tareas: El sistema operativo debe administrar la manera en que
se reparten los procesos. Definir el orden. (Quien va primero y quien después).
7.- Protección: Evitar que las acciones de un usuario afecten el trabajo que esta
realizando otro usuario.
8.- Multiacceso: Un usuario se puede conectar a otra máquina sin tener que estar
cerca de ella.
9.- Contabilidad de recursos: establece el costo que se le cobra a un usuario por
utilizar determinados recursos.

Características de los sistemas operativos.


En general, se puede decir que un Sistema Operativo tiene las siguientes
características:
Conveniencia:
Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia:
Un Sistema Operativo permite que los recursos de la computadora se usen de la
manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera
que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del
sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de
manejar de una mejor manera los recursos de la computadora en cuanto a
hardware se refiere, esto es, asignar a cada proceso una parte del procesador
para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se
debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo
requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario
manejar con alta facilidad todo lo referente a la instalación y uso de las redes de
computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario
el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.

Modalidades de trabajo de los sistemas operativos.


Sistemas operativos de tiempo compartido.
El tiempo compartido en ordenadores o computadoras consiste en el uso de un
sistema por más de una persona al mismo tiempo. El tiempo compartido ejecuta
programas separados de forma concurrente, intercambiando porciones de tiempo
asignadas a cada programa (usuario). En este aspecto, es similar a la capacidad
de multitareas que es común en la mayoría de los microordenadores o las
microcomputadoras. Sin embargo el tiempo compartido se asocia generalmente
con el acceso de varios usuarios a computadoras más grandes y a organizaciones
de servicios, mientras que la multitarea relacionada con las microcomputadoras
implica la realización de múltiples tareas por un solo usuario.
Los principales recursos del sistema, el procesador, la memoria, dispositivos de
E/S, son continuamente utilizados entre los diversos usuarios, dando a cada
usuario la ilusión de que tiene el sistema dedicado para sí mismo. Esto trae como
consecuencia una gran carga de trabajo al Sistema Operativo, principalmente en
la administración de memoria principal y secundaria.
Características de los Sistemas Operativos de tiempo compartido:
Populares representantes de sistemas multiprogramados multiusuario,
Ejemplo: sistemas de diseño asistido por computador, procesamiento de texto, etc.
Dan la ilusión de que cada usuario tiene una máquina para sí.
La mayoría utilizan algoritmo de reparto circular.
Sistemas Operativos Multiusuarios
Los programas se ejecutan con prioridad rotatoria que se incrementa con la
espera y disminuye después de concedido el servicio.
Evitan monopolización del sistema asignando tiempos de procesador (time slot).
Gestión de memoria: proporciona protección a programas residentes.
Gestión de archivo: debe proporcionar protección y control de acceso debido a
que pueden existir múltiples usuarios accesando un mismo archivo.

Sistemas operativos de tiempo real.

Un sistema operativo en tiempo real procesa las instrucciones recibidas al


instante, y una vez que han sido procesadas muestra el resultado. Este tipo tiene
relación con los sistemas operativos monousuarios, ya que existe un solo
operador y no necesita compartir el procesador entre varias
solicitudes.
Su característica principal es dar respuestas rápidas; por ejemplo en un caso de
peligro se necesitarían respuestas inmediatas para evitar una catástrofe.
Los Sistemas Operativos de tiempo real cuentan con las siguientes características:
Se dan en entornos en donde deben ser aceptados y procesados gran cantidad
de sucesos, la mayoría externos al sistema computacional, en breve tiempo o
dentro de ciertos plazos.
Se utilizan en control industrial, conmutación telefónica, control de vuelo,
simulaciones en tiempo real., aplicaciones militares, etc.
Su objetivo es proporcionar rápidos tiempos de respuesta.
Procesa ráfagas de miles de interrupciones por segundo sin perder un solo
suceso.
Un proceso se activa tras ocurrencia de suceso, mediante interrupción.
Un proceso de mayor prioridad expropia recursos.
Por tanto generalmente se utiliza planificación expropiativa basada en prioridades.
Gestión de memoria menos exigente que tiempo compartido, usualmente
procesos son residentes permanentes en memoria.
Población de procesos estática en gran medida.
Poco movimiento de programas entre almacenamiento secundario y memoria.
La gestión de archivos se orienta más a velocidad de acceso que a utilización
eficiente del recurso.

Sistemas operativos de red.


La principal función de un sistema operativo de red es ofrecer un mecanismo para
transferir archivos de una máquina a otra. En este entorno, cada instalación
mantiene su propio sistema de archivos local y si un usuario de la instalación A
quiere acceder a un archivo en la instalación B, hay que copiar explícitamente el
archivo de una instalación a otra.
Internet proporciona un mecanismo para estas transferencias, a través del
programa protocolo de transferencias de archivos FTP (File Transfer Protocol).
Suponga que un usuario quiere copiar un archivo A1, que reside en la instalación
B, a un archivo A2 en la instalación local A. Primero, el usuario debe invocar el
programa FTP, el cual solicita al usuario la información siguiente:
a) El nombre de la instalación a partir de la cual se efectuará la transferencia del
archivo (es decir la instalación B).
b) La información de acceso, que verifica que el usuario tiene los privilegios de
acceso apropiados en la instalación B.
Una vez efectuada esta comprobación, el usuario puede copiar el archivo A1 de B
a A2 en A, ejecutando "get A1 to A2"

En este esquema, la ubicación del archivo no es transparente para el usuario;


tiene que saber exactamente donde esta cada archivo. Además los archivos no se
comparten realmente, porque Sistemas Operativos Multiusuarios un usuario solo
puede copiar un archivo de una instalación a otra. Por lo tanto pueden existir
varias copias del mismo archivo, lo que representa un desperdicio de espacio. Así
mismo, si se modifican, estas copias no serán consistentes.
Los Sistemas Operativos de red son aquellos sistemas que mantienen a dos o
más computadoras unidas a través de algún medio de comunicación (físico o no),
con el objetivo primordial de poder compartir los diferentes recursos y la
información del sistema.
El primer Sistema O pasando posteriormente a procesadores Intel como Novell
Netware.
Los Sistemas Operativos de red más ampliamente usados son: Novell Netware,
Personal Netware, LAN Manager, Windows NT Server, UNIX, LANtastic.

Operación de los sistemas de cómputo

Un sistema moderno de cómputo de propósito general está compuesto de una cpu


y varios manejadores de dispositivos conectados mediante un bus común, que
proporciona varios manejadores de dispositivos conectados mediante un bus
común, que proporciona acceso a la memoria compartida. Cada controlador está a
cargo de un tipo específico de dispositivo. La Cpu y los manejadores de dispositivo
pueden operar de manera concurrente compitiendo por ciclos de la memoria. Para
asegurar un acceso ordenado a la memoria compartida, se cuenta con un
controlador de memoria cuya función es de sincronizar el acceso a la misma.
Para que la computadora empiece a funcionar necesita tener un programa inicial
que ejecutar. Este programa inicial o programa de arranque inicial (bootstrap)
inicializa todos los aspectos del sistema, desde los registros de la cpu y los
controladores de dispositivos, hasta los contenidos de la memoria, así como
también debe saber cómo cargar el sistema operativo y comenzar a ejecutar dicho
sistema, localizando y cargando en la memoria el kernel del sistema operativo,
hasta que ocurra algún evento.
La ocurrencia de un evento generalmente está señalada por una interrupción, ya
sea de hardware o de software. El software puede activar una interrupción
ejecutando mediante una operación llamada al sistema, existiendo muchos tipos
diferentes de eventos que pueden activar una interrupción, citando un ejemplo:

Terminación de E/S

Una división entre cero Algún suceso inválido a la memoria ó la solicitud de algún
servicio del sistema operativo.
Cuando se interrumpe a la cpu, ésta detiene lo que está haciendo y de inmediato
transfiere la ejecución a una localidad fija. La localidad fija comúnmente contiene
la dirección inicial de la rutina de servicio para la interrupción
Las interrupciones son una parte importante den la arquitectura de una
computadora. El diseño de cada computadora incluye su propio mecanismo de
interrupción, pero existen varias funciones comunes. La interrupción debe
transferir el control a la rutina de servicio apropiada. Los sistemas operativos
modernos son activados por interrupciones. Si no existen procesos por ejecutar, ni
dispositivos E/S que requiera servicio, ni usuarios a quienes responder, un sistema
operativo en guardia, esperando a que algo ocurra.
Una trampa ( o una excepción) es una interrupción generada por el software,
debida a un error.

Estructura de E/S

Un controlador de dispositivo mantiene un almacenamiento de buffer local y un


conjunto de registros de propósito especial. El controlador es responsable de
mover los datos entre los dispositivos periféricos que controla y su buffer local; el
tamaño del buffer local varía de un controlador a otro.

Interrupciones de E/S
Para uncirá una operación de E/S, la CPU carga los registros apropiados dentro
del manejador de dispositivos.
A su Ves, el controlador examina los contenidos de estos registros par determinar
qué acción tomar., si encuentra una solicitud de lectura, el controlador iniciará la
transferencia de datos desde el dispositivo hasta su buffer local, una vez que se
completa la transferencia de datos le informa al cpu que ha terminado su
operación. Esta comunicación la logra activando una interrupción.
Una vez que se inicia la operación E/S ha dos caminos a seguir: se inicia la
operación E/S luego, al terminarla, el control se regresa al proceso del usuario.
Este caso es conocido como E/S síncrona.
La otra posibilidad E/S asíncrona, regresa el control al programa del usuario sin
esperar que se complete la operación E/S, esta operación puede continuar
mientras ocurren otras operaciones al sistema.
También es necesario que se pueda llevar un registro de varias solicitudes de E/S
al mismo tiempo. Para este propósito de E/S: la tabla de estado de los dispositivos
indicando el tipo de dispositivo, su dirección y estado. En caso que este ocupado,
el sistema operativo también mantendrá una cola de esperas. Por cada dispositivo
E/S.

Estructura DMA

Por sus siglas como acceso directo a memoria par dispositivos E/S de alta
velocidad. Después de preparar los buffers, apuntadores y contadores para el
dispositivo de E/S, el controlador del dispositivo transfiere un bloque completo de
datos directamente desde su propio buffer a la memoria, o viceversa, sin la
intervención de la cpu, de esta manera, solo se genera una interrupción por
bloque, en vez de una interrupción por byte

Estructura de almacenamiento.

Los programa deben estar en la memoria principal denominada memoria de


acceso aleatorio, para ser ejecutados, la memoria principal es la única área de
almacenamiento a la que el procesador puede tener acceso directamente. La
interacción se logra mediante una secuencia de instrucciones loadsore a
direcciones específicas de memoria. La instrucción load mueve una palabra desde
la memoria principal a un registro interno dentro del cpu, en tanto que store mueve
el contenido de un registro a la memoria principal.
Primero traerá una instrucción de la memoria y la almacenará en el registro de
instrucción. La instrucción es decodificada y puede hacer que se traigan operando
de la memoria y se almacenen en un registro interno. Después que se ha
ejecutado la instrucción sobre los operandos, el resultado puede ser almacenado
nuevamente en la memoria.

Jerarquía de almacenamiento

1. REGISTROS
2. CACHE
3. MEMORIA PRINCIPAL
4. DISCO ELECTRONICO
5. DISCO MAGNETICO
6. DISCO OPTICO
7. CINTAS MAGNETICAS
Además de tener diferentes velocidades y costros, los sistemas de
almacenamiento puede ser volátiles o no. El almacenamiento volátil pierde su
contenido cuando se interrumpe la energía del dispositivo.

Almacenamiento en cache

El almacenamiento en cache es un principio importante en los sistemas de


cómputo. La información se mantiene normalmente en algún sistema de
almacenamiento como la memoria principal. A medida que se utiliza se copia en
un sistema de almacenamiento más rápido. La caché. Bajo una base temporal.
Cuando se necesita una pieza particular de información primero verifica si está en
la caché. Si se encuentra, se usa la información de ahí mismo si no es así, se
utiliza la localizada en el sistema de almacenamiento principal, colocando una
copia en la caché bajo la suposición de que existe una alta probabilidad de que
volverá a necesitarse

II. PROCESOS
Un proceso es cualquier actividad que realiza un procesador. Dado que un
ordenador puede llevar a cabo distintos procesos simultáneamente, el procesador
debe contemplar la posibilidad de ser compartido, lo que se consigue aplicando un
algoritmo de planificación.
Informalmente un proceso es un programa en ejecución. Un proceso es mías que
el código del programa, el cual también es conocido como la sección del texto.,
también incluye la actividad actual, representada por el valor del contador de
programa y el contenido de los registros del procesador. Un proceso por lo general
también incluye la pila del proceso, que contiene datos temporales ( parámetros
de método, direcciones de retorno y variables locales) y una sección de
datos. Que contiene variables globales.
Un programa por sí mismo no es un proceso; un programa es una entidad pasiva,
tal como el contenido de un archivo almacenado en disco, en tanto que un proceso
es una entidad activa, con un contador de programa que especifica la siguiente
instrucción a ejecutarse y un conjunto de recursos asociados.
Aunque dos procesos pueden estar asociados al mismo programa, se les
considera como dos secuencias de ejecución distintas.
Se pueden considerar cinco características definitorias de los procesos
Concurrencia:
Que es la progresión de dos o más procesos que trabajan en paralelo, pero de
forma dependiente.
Esta es la situación más típica en los sistemas actuales. Por ejemplo, mientras se
realizan las operaciones necesarias para la selección e inserción de los campos
para preparar las etiquetas que servirán para enviar las facturas de una sucursal
bancaria, pueden irse leyendo los datos relativos a vencimiento de talones o
preparar listados de riesgo por clientes (. Si la relación es de paralelismo pero
independiente, se denomina una relación de convivencia.
Competencia:
Situación que se plantea cuando dos o más procesos deben utilizar los mismos
recursos físicos o lógicos. Esto ocurre por que no es posible que dos procesos
actúen usando el mismo recurso
Cooperación:
Lo que ocurre cuando dos procesos que se están ejecutando son
interdependientes, es decir, para que lleguen a un resultado, se necesitan
mutuamente
Jerarquía:
Es la relación que se establece entre procesos que son interdependientes en
mayor o menor grado, estableciéndose familias de procesos. Cuando un proceso
necesita crear otros, al previo se le denomina proceso padre y al nuevo se le llama
proceso hijo. Las normas de estado de los procesos en su creación o suspensión
las dicta el sistema operativo
Estado:
Es el grado de uso de la CPU. Existen tres niveles:
Nuevo: el proceso se está creando
En ejecución: se están ejecutando instrucciones
En espera: el proceso está esperando que ocurra algún evento.
Listo: el proceso está en espera de ser asignado a un procesador.
Terminado: el proceso ha terminado su ejecución

Características:
Un proceso consta de código, datos y pila.
Los procesos existen en una jerarquía de árbol (varios Hijos, un sólo padre).
El sistema asigna un identificador de proceso (PID) único al iniciar el proceso.
El planificador de tareas asigna un tiempo compartido para el proceso según su
prioridad (sólo root puede cambiar prioridades).
Área de usuario: está en el kernel y consiste de la tabla de descriptores de
archivos, información sobre el consumo de CPU, manejadores de señales, entre
otros.
Tabla de páginas

Tipos de procesos

Son diferentes según las características y/o atributos que poseen. Siguiendo el
criterio de la utilización de la memoria, los procesos pueden ser:
- Proceso residente: Se trata de aquel proceso que durante su estado de activado
tiene que estar cargado en la memoria
- Proceso intercambiable: Como aquel proceso que está en estado de espera y del
cual se toma su proceso tratado por la CPU y se incluye en un fichero del sistema,
con lo que se deja liberada la porción de memoria correspondiente Si se sigue el
criterio de atender a las características de su código, los procesos serán:
- Procesos reutilizables: O programas que pueden usar varios usuarios ya que
están codificados con variables genéricas y los usuarios sólo tienen que introducir
los valores correspondientes a la posición de las variables en el código. Tiene la
ventaja de que se carga en memoria una sola vez y se usa varias veces
inicializando adecuadamente las variables
- Procesos reentrantes: Procesos cuyas instrucciones son invariantes, con lo que
pueden usarse de nuevo sin tener que cargarse otra vez. Están estructurados
separando lógicamente los segmentos de datos y de código, con lo que dos
instancias del mismo proceso pueden compartir el mismo código
- Proceso de excepciones: Circunstancias que se pueden presentar en un proceso
ocasionadas por un suceso que se ha presentado pero que no debería haber
tenido lugar, con lo que el sistema tratará de eludirlo. Es lo que se denomina
comúnmente un error

Colas de Planificación
A medida que los procesos van entrando al sistema, se les coloca en una cola de
trabajos en están todos los procesos en el sistema. Los procesos que residen en
la memoria principal listos y en espera de ejecutarse se mantienen en una lista
denominada la cola de procesos listos.
Esta cola se almacena por lo general como una lista enlazada. El encabezado de
cola de procesos listos contiene apuntadores al primero y al último PCB en la lista.
Cada PCB se extiende para incluir un campo apuntador que señala al siguiente
PCB en la cola de procesos listos.
Existen otras colas en el sistema. Cuando a un proceso se le asigna la CPU, se
ejecuta durante cierto tiempo; después abandona, es interrumpido, o debe esperar
la ocurrencia de algún evento particular, como sería la terminación de una solicitud
E/S. En el caso de una solicitud de E/S, tal petición puede ser una unidad de cinta
dedicada, o a un dispositivo compartido, como un disco.
Debido a que hay muchos procesos en el sistema, el disco puede estar ocupado
con la solicitud de e/s de otro proceso. Por lo tanto, el proceso tiene que esperar
por el disco. La lista de procesos que están esperando por un dispositivo de E/S
particular se conoce como cola del dispositivo.
Cada dispositivo tiene su propia cola.
La representación común para estudiar la planificación de procesos es un
diagrama de colas. Cada rectángulo representa una cola; se muestran los tipos de
colas: la cola de procesos listos y un conjunto de colas de dispositivos. Los
círculos representan los recursos que dan servicio a las colas y las flechas indican
el flujo de procesos en el sistema. Un nuevo proceso nuevo inicialmente se coloca
en la cola de procesos listos, donde espera hasta que es seleccionado para su
ejecución o es despachado. Una vez que se asigna la cpu al proceso y se está
ejecutando, puede ocurrir uno de varios elementos:
El proceso emite una solicitud de E/S, y entonces es colocado en la cola de E/S.
El proceso crea un nuevo subproceso y espera su terminación.
El proceso es removido forzosamente de la CPU, como resultado de una
interrupción, y es colocado de nuevo en la cola de procesos listos.

Administración de la memoria principal

El sistema operativo es responsable de las siguientes actividades relacionadas


con la administración de la memoria
Llevar un registro de las partes de la memoria que están siendo utilizadas en el
momento y quién las está utilizando.
Decidir qué procesos se van a cargar en la memoria cuando el espacio de la
misma esté disponible.
Asignar y liberar espacio de la memoria según se necesite

Administración de archivos

La administración de archivos es uno de los componentes más visibles en un


sistema operativo.
Las computadoras pueden almacenar información en varios tipos diferentes de
medios físicos.
Para un uso conveniente del sistema de cómputo el sistema operativo proporciona
una vista lógica uniforme del almacenamiento de la información. Este sistema
hace una abstracción de las propiedades físicas de sus dispositivos de
almacenamiento para definir una unidad de almacenamiento lógico, el archivo. El
sistema operativo hace un mapa de los archivos en los medios físicos y accede a
estos archivos vía los dispositivos de almacenamiento.
Un archivo es un conjunto de información relacionada definida por su creador, los
archivos representan programas tanto en forma de fuente como de objeto y datos.
El sistema operativo es responsable de las siguientes actividades relacionadas
con la administración de archivos.
Crear y eliminar archivos
Crear y eliminar directorios
Dar soporte a primitivas para la manipulación de archivos y directorios.
Hacer un mapa de los archivos en el almacenamiento secundario.
Respaldar archivos en medios de almacenamiento estables (no volátiles).

Administración del sistema E/S

Uno de los propósitos de un sistema operativo es ocultar al usuario las


peculiaridades de los
dispositivos específicos de Hardware, el subsistema de E/S oculta las
particularidades de los
dispositivos E/S al resto del sistema operativo mismo.
El subsistema de E/S consta de:
Un componente de administración de memoria que incluye manejo de buffers,
asignación
de cache.
Una interfaz general de manejadores de dispositivo.
Controladores para dispositivos de Hardware específicos.
Administración de almacenamiento secundario.
El almacenamiento secundario es como respaldo de la memoria principal. La
mayoría del sistema de cómputo moderno emplea discos como el principal medio
de almacenamiento en línea, tanto para programas como para datos.
El sistema operativo es responsable de las siguientes actividades relacionadas a
la administración de discos:
Administración de espacio libre.
Asignación de almacenamiento
Planificación del disco

Operación en red

Un sistema distribuido es un conjunto de procesadores que no comparten


memoria, dispositivos periféricos o un reloj. En su lugar, cada procesador tiene su
propia memoria y reloj local y los procesadores se relacionan entre ellos mediante
varias líneas de comunicación como buses de alta velocidad o redes. Los
procesadores en un sistema distribuido varían en tamaño y en función: pueden
incluir pequeños microprocesadores, estaciones de trabajo, minicomputadoras y
sistemas de cómputos grandes de propósitos generales.
Un sistema distribuido reúne sistemas físicos distintos, posiblemente
heterogéneos, en un solo sistema coherente, proporcionando al usuario el acceso
a los diversos recursos que el sistema mantiene. El acceso a un recurso
compartido permite una aceleración del cómputo, mayor funcionalidad y
disponibilidad de los datos y una mejora en la confiabilidad.

Sistema de intérprete de comandos.

Uno de los programas del sistema más importante para un sistema operativo es
que el intérprete de comandos, que es la interfaz entre el usuario y el sistema
operativo, muchos comando se transmiten al sistema operativo mediante
sentencias de control. Cuando se inicia un trabajo nuevo en un sistema por lotes,
o cuando un usuario se conecta a un sistema de tiempo compartido, se ejecutan
automáticamente un programa que lee e interpreta estas sentencias de control.
Este programa también se conoce como intérprete de tarjetas de control o
intérprete de línea de comandos, y con frecuencia se denomina shell, Su función
es simple: obtener la siguiente sentencia de comandos y ejecutarla.

Servicio del sistema operativo.

Ejecución de programas
Operaciones de E/S
Manipulación del sistema de archivo.
Comunicaciones
Detección de errores
Asignación de recursos
Contabilidad
Protección

Llamadas al sistema

Las llamadas al sistema proporcionan la interfaz entre un proceso y el sistema


operativo, estas llamadas están disponibles como instrucciones en lenguaje
ensamblador y comúnmente se incluyen en los manuales empleados por los
programadores de estos lenguajes. Un enfoque consiste en que el programa pida
al usuario los nombre de los dos archivo, este enfoque requerirá una secuencia de
llamadas al sistema, primero para escribir un mensaje en la pantalla que pida
información y luego para leer del teclado los caracteres que definen a los dos
nombres, una vez que se obtienen los dos nombres del archivo, el programa debe
abrir el archivo de entrada y crear el de salida. Cada una de estas operaciones
requiere de otras llamadas al sistema.
Las llamadas al sistema se pueden agrupar de manera general en cinco
categorías.
control de procesos
manipulación de archivos
manipulación de dispositivos
mantenimiento de información y comunicaciones

Administración de dispositivos.

Un programa, al estar en ejecución, tal vez necesite recursos adicionales para


continuar, estos pueden ser más memoria, unidades de cinta, acceso a archivos
etc. Si los recursos están disponibles se pueden conceder, y devolver el control al
programa del usuario; en caso contrario, el programa tendrá que esperar hasta
que se cuente con los recursos suficientes

Comunicación

Existen dos modelos de comunicación.


En el modelo de paso de mensajes la información se intercambia mediante un
servicio de comunicación entre procesos proporcionando por el sistema operativo
En el modelo de memoria compartida los procesos utilizan las llamadas al sistema
para obtener acceso a regiones de memoria que corresponden a otros procesos,
la memoria compartida requiere de dos o más procesos que estén de acuerdo en
remover esta restricción y entonces poder intercambiar información leyendo y
escribiendo datos en estas áreas compartidas.

Enfoque por capas

El enfoque por capas en el sistema operativo se descompone en varios estratos o


niveles cada uno de ellos construido sobre capas inferiores. La capa inferior es el
hardware es la más alta interfaz del usuario. Una capa del sistema operativo es
una implementación de un objeto abstracto, que es encapsulamiento de datos y de
las operaciones que pueden manipular dichos datos.
Las capas se seleccionan de tal manera que cada una utilice funciones y servicios
exclusivamente de capas de niveles inferiores. Este enfoque simplifica la
depuración y la verificación del sistema, cada capa se implementa sólo con
aquellas operaciones proporcionadas por capas de nivel inferior. Una capa no
necesita sabe cómo están implementadas estas operaciones; sólo requiere
conocer qué hacen tales operaciones. Por lo tanto, cada capa oculta a las capas
de nivel superior la existencia de ciertas estructuras de datos, operaciones y
hardware.

Microkernels

La función principal del microkernel es proporcionar un módulo de comunicaciones


entre el programa cliente y los diversos servicios que también están ejecutándose
en el espacio del usuario.

Máquinas virtuales

Es crear la ilusión de que un proceso tiene su propio procesador con su propia


memoria virtual.

Máquina virtual

La máquina virtual Java es una especificación para una computadora abstracta. La


JVM consta de un cargador de clases y un intérprete de Java que ejecuta los
códigos de byte independientes de la arquitectura.

SINCRONIZACIÓN Y COMUNICACIÓN ENTRE PROCESOS


Bloque de control del proceso

Cada proceso se representa en el sistema operativo mediante un bloque de


control del proceso, también denominado bloque de control de tarea, este contiene
diversas piezas de información asociadas a un proceso específico incluyendo:
Estado del proceso: el estado puede ser nuevo, listo en ejecución, espera,
detenido etc..
Contador de programa: el contador indica la dirección de la siguiente instrucción a
ejecutar.
Registros del CPU: incluyen acumuladores, registros, índice, apuntadores de pila y
registros de propósito general, además de cualquier información de código de
condición. Junto con el contador de programa, esta información de estado debe
guardarse cuando ocurre una interrupción, para posteriormente permitir que el
proceso continúe de forma más apropiada.
Información de planificación del CPU: esta información incluye la prioridad del
proceso, apuntadores de colas de planificación y cualquier otro parámetro de
planificación.
Información de administración de la memoria: esta información puede incluir datos
referentes al valor de los registros base y límite, las tablas de páginas, o las tablas
de segmentos, dependiendo del esquema de memoria empleado por el sistema
operativo.

Planificadores

Un proceso migra entre las diversas colas de planificación a lo largo de su


existencia para fines de planificación, el sistema operativo debe seleccionar en
alguna forma los procesos de estas colas.
Esta selección la realiza el planificador apropiado.
El planificador de largo plazo o planificador de trabajos, selecciona procesos de
esta reserva y los carga en memoria para su ejecución. La distinción principal
entre el planificador de largo plazo y el planificador de corto plazo, es la frecuencia
de su ejecución, el planificador de corto plazo debe seleccionar repetidamente un
nuevo proceso para que la cpu, ejecute durante solo unos cuantos milisegundos
antes de esperar una solicitud de esa, por su parte el planificador de largo plazo
se ejecuta con menos frecuencia, y puede pasar minutos a la creación de un
nuevo proceso. Un proceso limitado por E/S es el que consume más de su tiempo
haciendo operaciones E/S que haciendo cálculos.
Un proceso limitado por CPU es el que genera solicitudes de E/S de manera poco
frecuente empleando más tiempo en cálculos que utilizando por un proceso
limitado de E/S.

Conmutación de contexto

La conmutación de la cpu a otro proceso requiere conservar el estado del proceso


anterior y cargar el estado guardado del nuevo proceso incluyendo el valor de los
registros de la cpu y el estado del proceso y la información sobre administración
de la memoria, esto solo implica cambiar el apuntador al conjunto de registros
actual.

Procesos cooperativos.
Un proceso cooperativo puede verse afectado por los otros procesos que están
ejecutando en el sistema; cualquier proceso que comparte datos con otros
procesos es un proceso cooperativo.

Un proceso productor genera infamación que es utilizada por un proceso


consumidor, para permitir que los procesos productores y consumidores se
ejecuten concurrentemente, se debe de tener un buffer de elementos que pueda
ser llenado por el productor y vaciado por el consumidor.
Sincronización

La comunicación entre procesos tiene lugar mediante llamadas a las primitivas


send y recive. Existen diferentes opciones de diseño para implementar cada
primitiva. El paso de mensajes puede ser con bloque o sin bloqueo también
conocidos como síncrono y asíncrono.
Envió con bloqueo: el proceso emisor se bloquea hasta que el mensaje es
recibido por el proceso receptor o por el buzón.
Envío sin bloqueo: el proceso emisor envía el mensaje y continúa su operación
Recepción con bloqueo: el receptor se bloquea hasta que haya un mensaje
disponible.
Recepción sin bloqueo: el receptor recupera un mensaje válido, o bien un valor
nulo.

Hilos

Un hilo, denominado también proceso ligero, es una unidad básica de utilización


de la CPU; comprende la ID del host, un contador de programa, un conjunto de
registros y una pila. El hilo comparte con otros hilos que pertenecen al mismo
proceso su sección de código, su sección de datos y otros recursos del sistema
operativo.
Beneficios:
Su grado de respuesta:
Compartir recursos
Economía
Utilización de arquitecturas de multiprocesadores.

Hilos de usuario

Los hilos de usuario tienen soporte por encima del kernel y son implementados por
una biblioteca de hilos a nivel usuario. La biblioteca proporciona apoyo para la
creación, programación y administración de hilos sin soporte del kernel.

Hilos de kernel

Los hilos de kernel tienen soporte directo del sistema operativo, la creación,
programación y administración de hilos los realiza el kernel en su propio estado.

Modelos de multihilos
Modelo de varios a uno: Mapea múltiples hilos a nivel de usuario en un hilo de
kernel Modelo de uno a uno: Mapea cada hilo de usuario e un hilo de kernel.
Modelo de varios a varios: Combina muchos hilos a nivel de usuario con un
número menor o igual de hilos de kernel

Planificación de la CPU

La planificación de la cpu es la tarea de seleccionar de la cola de listos un proceso


que está en espera y asignarle el procesador.
El despachador asigna la cpu al proceso seleccionado.
La planificación del tipo primero en llegar, primero en ser atendido es el algoritmo
de planificación más sencillo, pero puede ocasionar que los procesos cortos
tengan que esperar procesos muy largos.
Se puede probar que la planificación de primero el trabajo más corto es óptima,
proporcionando el tiempo de espera promedio más corto. La implementación de la
planificación SJF es difícil debido a que no es fácil predecir la duración de la
siguiente ráfaga de cpu. El algoritmo SJF es un caso especial del algoritmo
general de planificación por prioridades, el cual simplemente asigna la cpu al
proceso mayor prioridad. Tanto la planificación por prioridades como la
planificación SJF pueden sufrir inanición.
La planificación round-robin (RR) es más apropiada para un sistema de tiempo
compartido. La planificación RR asigna la cpu al primer proceso en la cola de listos
durante q unidades, en donde q es el quantum. Si el quamtum es demasiado
largo, la planificación RR degenera a una planificación FCFS; si el quantum es
demasiado pequeño, el trabajo adicional de planificación en la forma de tiempo de
conmutación de contexto se vuelve excesivo.
El algoritmo FCSFS no es apropiativo; el algoritmo RR es apropiativos. Los
algoritmos SJF y por prioridades pueden ser apropiativos o no apropiativos.
Loa algoritmos de colas de niveles múltiples permiten utilizar diferentes algoritmos
para varias clases de procesos. El más común es una cola interactiva de proceso
de primer plano que utiliza la planificación RR, y una cola en lotes de procesos de
segundo plano, que utiliza la planificación FCFS. Las colas de niveles múltiples
son retroalimentación permiten que los procesos se muevan de una cola a otra.
Muchos sistemas de cómputo actual ahora tienen soporte para múltiples
procesadores, en donde cada procesador se planifica a sí mismo de manera
independiente. Normalmente, hay una cola de procesos ó hilos, todos los cuales
están disponibles para ejecución. Cada procesador una decisión de planificación y
selecciona un proceso de esta cola.
La JVM utiliza un algoritmo de planificación de hilos apropiativos basado en
prioridades, que selecciona para su ejecución al hilo con prioridad máxima. La
especificación no indica si la JVM deberá asignar porciones de tiempo a los hilos;
eso depende de la implementación en particular de la JVM.

Sección critica

Cada hilo tiene un segmento de código, denominado sección crítica, en el que el


hilo puede estar modificando variables comunes, actualizando una tabla,
escribiendo un archivo..La característica importante del sistema es que, cuando un
hilo se está ejecutando en su sección crítica, no se debe permitir que otros hilos se
ejecuten en esa misma sección. Por lo tanto la ejecución de secciones críticas por
los hilos es mutuamente exclusiva en el tiempo.

Exclusión mutua.

Si el hilo T1 se está ejecutando en su sección crítica, entonces ningún otro hilo


puede estar en la misma ejecución.

Sincronización

Existen relaciones entre los procesos de forma que hasta que uno de ellos no ha
acabado, otro no puede comenzar. Para que un conjunto de procesos funcione
adecuadamente muchas veces será necesario sincronizar sus actividades para
garantizar que ciertos procesos terminan antes de que comiencen otros.
Para poder hacer esto, el sistema recurre al envío de señales. Un proceso
permanece en espera de recibir ciertas señales, por lo que está suspendido.
Cuando las señales llegan, se pone en estado de ejecución. Es corriente que entre
los procesos implicados se produzca una relación de cooperación para la
ejecución de tareas comunes y una relación de competencia por el uso de
recursos compartidos. Por ejemplo, si se ejecutan los siguientes procesos:
Proceso Pi Proceso Pj
Y1 = X
Y1 = X + 1
X=Y
Y2 = X
Y2 = Y2 + 1
X = Y2
Ejecución (X = 0)
Y1 = X
Y1 = X + 1
X = Y1
Y2 = X
Y2 = X + 1
X = Y2
Conclusión: X = 1, valor incorrecto para Pj
Con lo que el sistema operativo utilizará una variable especial intermedia para que
la información común a ambos procesos sea bloqueada en Pi mientras la utiliza el
primer proceso -si es que éste es el que tiene la prioridad- mientras el proceso Pj
espera. Más tarde éste recibe el valor de X y se ejecuta proporcionando el
verdadero valor de X para ese proceso, que será igual a 2.

Exclusión mutua

Para evitar la concurrencia de los procesos y optimizar el uso de la CPU


aprovechando los tiempos muertos o momentos valle, se ideó el método de la
exclusión mutua, para el caso de sistemas multiprogramados.
Cuando dos procesos se encuentran compartiendo una variable, se crean
conflictos dado que el valor de la variable cambiará según el proceso que la utilice.
Por ello se hace necesario asegurarse de que los dos procesos nunca van a
ejecutar su sección crítica -es decir, aquella parte de sus instrucciones que utilizan
esa variable compartida- al mismo tiempo. Así se evitan riesgos de error,
colisiones, esperas y no estar sujeto a la dependencia de la velocidad de los
procesos ni del número de procesadores.
La solución denominada exclusión mutua consiste en permitir el uso de la variable
compartida al proceso que tiene prioridad mientras los otros procesos permanecen
en espera. Para ello habrá que indicar una serie de condiciones para que los
procesos en espera no se vean interrumpidos o suspendidos. Por ese motivo se
crean diferentes algoritmos de exclusión, utilizando mecanismos de hardware y
soluciones de software, y dentro de éstas aparecen las soluciones de espera
activa y de espera no activa.

Métodos de software

Algoritmos elementales de exclusión mutua

Se trata de inventar una variable que sirva para todos los procesos relacionados y
que recoge un valor en función de la posibilidad de que un proceso entre en
ejecución de su sección crítica.
Cuando el proceso se ha ejecutado, devuelve a esa variable un valor que permitirá
a la CPU dejar paso libre para que otro proceso entre en ejecución.
Esto tiene la desventaja de que se realiza el paso de unos procesos a otros sin
tener en cuenta ni las prioridades ni la conveniencia de trabajo eficiente del
sistema. Además, si el primer proceso sufriera una interrupción, el resto de los
procesos no podrían disponer de las variables compartidas
o no podrían actuar conforma a la variable que gobierna todo el proceso.
Para evitar este problema se inventaron una serie de variables, tantas como
procesos concurrentes, que se adjudican a los procesos, una a uno, que servirá
para que cada proceso señale, en esa variable, a la CPU que se encuentra
ejecutando su sección crítica. Así, cada proceso consulta las variables de los
demás procesos para “estimar” la conveniencia de entrar en ejecución de la
sección crítica o no.
Sin embargo, las prioridades de este método no están claras y pueden producirse
cuellos de botella o infrautilizaciones de la CPU.
Algoritmo de Dekker Se trata de la primera solución conocida de tipo software
para resolver la concurrencia de procesos. Matemáticamente está basado en
interpolaciones lineales sucesivas y búsquedas binarias capaces de encontrar el
cero de una función que cambia de signo en un intervalo dado.
Es un algoritmo de espera activa, es decir, cuando las instrucciones de un proceso
van preguntando cada vez a la CPU si el proceso que se está ejecutando en
paralelo y que tiene una región crítica a terminado ya o tiene que seguir
esperando. Como ejemplo de un algoritmo de Dekker, sería el siguiente,
considerando los subíndices i y j como diferentes procesos:
<RUTINA>
INICIALIZA ACTIVO (i) = V
MIENTRAS ACTIVO (j) = V <NADA>
SI TURNO = j ACTIVO (i) = F
MIENTRAS TURNO = j <NADA>
ACTIVO (i) = V
END
TURNO = j
ACTIVO (i) = F
Si bien existe la posibilidad de que se entre en un bucle sin fin, porque podría
pasar que:
ACTIVO (i) = V
ACTIVO (j) = V
Algoritmo de Petterson
<RUTINA>
INICIALIZA ACTIVO (i) = V
TURNO = j
MIENTRAS ACTIVO (j) = V y TURNO = j <NADA>
END
ACTIVO (i) = F
Para el proceso j el algoritmo de exclusión sería idéntico.
Algoritmo de Dijkstra o del semáforo
Se trata de un método diseñado por E. W. Dijkstra en 1959 para tratamiento
gráfico y que tenía como objetivo encontrar el camino más corto entre un vértice y
los restantes, dentro de los llamados gráficos ponderados, o gráficos que llevan
asociada a cada arista -línea que une dos vértices- una cantidad representativa de
un concepto. Por ejemplo, un gráfico de rutas de viaje, donde cada arista une dos
puntos geográficos y lleva asociado un costo de viaje.
Consta de dos operaciones que trabajan coordinadamente: señal y espera. Estas
señales actúan sobre una variable que por la función que realiza se llama
semáforo. Esta variable, que es compartida, toma valores enteros no negativos. Si
se da el caso de que toma sólo los valores 0 y 1 entonces a la variable se la llama
semáforo binario. Los valores que toma la variable es el número de procesos que
pueden entrar a la vez en su sección crítica. El pseudocódigo para este algoritmo
sería el siguiente:
<SEMÁFORO-ENTRAR>
INICIALIZA SEMAFORO = VALOR
SI SEMAFORO > 0 SEMAFORO = SEMAFORO - 1
SECCIÓN CRÍTICA
SI NO <ESPERA>
<SEMÁFORO-SALIR>
SI SEMAFORO <= 0 SEMAFORO = SEMAFORO + 1
DESBLOQUEAR SIGUIENTE PROCESO
SI NO SEMAFORO = SEMAFORO + 1
FIN
(si SEMAFORO fuese igual a 0, entonces no admitiría más procesos en sección
crítica)
Si se añade una entidad denominada cola de espera, se evitará que algún proceso
entre en una dinámica de espera indefinida.
Algoritmo de Camport o de la tienda Se trata, como ocurre en algunas tiendas,
de proporcionar a cada proceso un número de “cliente”, dando entrada en la
sección crítica a aquél que tenga el número más bajo, y así sucesivamente.
Sin embargo, además de presentarse problemas de infrautilización de la CPU,
puede darse el caso de que dos procesos tengan acceso al mismo número, con lo
que se crearía el mismo conflicto que se quiere evitar.

Mecanismos de hardware

Para evitar el caso de que los métodos de software fallen, lo que podría ocurrir
cuando se presenta un fallo de programación -lo cual no es infrecuente si se tiene
en cuenta que el lenguaje de algunos de estos algoritmos será el ensamblador-,
se diseñaron mecanismos de hardware, normalmente codificados en lenguaje de
bajo nivel y decodificados directamente por la CPU.

Interrupción permitida/interrupción no permitida

Viene a actuar respecto a los procedimientos de la CPU como si se tratase de un


interruptor.
Cuando la CPU recibe desde un proceso la instrucción interrupción deshabilitada -
DI, del inglés disable interrupt, la CPU queda bloqueada e ignora las
interrupciones y ejecuta en exclusiva las instrucciones del proceso que se la
mandó. Es decir, este mandato detiene todos los procesos, aunque no tengan
secciones críticas con respecto del proceso emisor. Cuando el proceso ha
terminado de ejecutarse debe volver a habilitarla porque si no el procesador
permanecería en un bucle dado que estaría continuamente ejecutando el proceso
emisor. En un sistema multiproceso, la llegada de la instrucción de bloqueo a una
parte del sistema no influye en las otras partes del sistema que están procesando,
con lo que no se tiene una garantía de coherencia en los resultados obtenidos.

Comparar y asignar

Su mecanismo de trabajo es similar al método software del semáforo, pero


implantado a nivel hardware. Utiliza un bit de acceso para cada zona de datos
definida -zonas que sufren de concurrencia de procesos y que su actualización
afecta a los resultados de cada proceso-, de tal manera que cuando el valor de
ese bit es 1, la zona se bloquea y sólo puede utilizarla el proceso actual. Si el valor
es 0, permite la entrada y actualiza el bit a 1 para que ningún otro proceso pueda
acceder a esa zona.
Es bastante común el uso de este mecanismo en sistemas multitarea y
multiusuario. Se suele usar cuando pueden presentarse muchas situaciones de
conflicto.

Variable de control

Trata de controlar cuando un proceso quiere actualizar una variable en conflicto -


caso de una variable compartida- y averiguar si otro proceso anterior lo había
hecho previamente. En el caso de que haya sido así, el proceso actual lo intentará
hasta que el sistema le permita a ello y proseguir con su ejecución. Para ello, este
mecanismo compara el valor que tenía la variable conflictiva al empezar la sección
crítica y si no es el adecuado, lo intercambia por su inicialización. Es un buen
método cuando se trata de sistemas en los que no se prevé gran número de
conflictos.
Algoritmos generales de planificación de la CPU
Método FIFO o FCFS
FCFS es lo que se conoce como “primero en llegar, primero en ser servido” –del
inglés First Come First Served-, equivalente al método FIFO, que se llama así por
ser las siglas del término inglés First In First Out, es decir, el primero en entrar
será el primero en salir. Un sinónimo para este método es el de la queue list, o
lista donde los añadidos se colocan al final de la lista, y las remociones se
producen al principio.
Es decir, se atenderá por la CPU al primer proceso que llega. El resto de los
procesos pasan a la cola de espera donde permanecen en un estricto orden de
llegada. Suele utilizarse en sistemas donde el costo del servicio es más alto que el
costo producido por las congestiones.
El inconveniente más serio es que es impredecible, puesto que no se sabe qué
procesos están llegando a la CPU. Además los usuarios esperan que los tiempos
de respuesta sean muy similares para procesos parecidos, lo cual no se garantiza
con es método, afectando en mayor medida a los procesos breves, sobre todo si
van detrás de algún procesos largo. Por otro lado, este método es no apropiativo,
es decir, el proceso permanece usando la CPU mientras no ha terminado.
Un ejemplo de este método ha quedado descrito en las tablas 7.1 y 7.2.
Método Round-Robin
Por este método se define un intervalo de tiempo idéntico –denominado quantum-
para todos los procesos de la cola, la cual se trata de manera circular.
Es decir, a cada proceso se le asigna un tiempo de uso de la CPU. Si ese tiempo
se acaba, aunque el proceso no haya terminado, éste es dirigido a la cola -al final-
y otro proceso pasa a ejecutarse. Parece obvio que si los tiempos asignados son
muy cortos, el proceso se hará más lento dado que las rutinas de activación y
desactivación, así como las instalaciones en cola, se harán muy frecuentes.

Una variante más sofisticada es la cola de retroalimentación -del inglés feedback


queue- que se usa sobre todo en sistemas multiusuario. Por esta variante, un
proceso se ejecuta hasta que acaba su intervalo de tiempo asignado, o hasta que
comienza a transferir datos a un periférico o hasta que ocurre alguna interrupción
generada por otro proceso. Si el proceso queda inacabado, se le asigna más
tiempo que la vez anterior y se le dirige al final de la cola. Lo mismo ocurre si
había iniciado una transferencia con un periférico llevándole al principio de la cola.
Por el proceso más corto Se trata del método SJF -del inglés Short Jobs First,
es decir, primero los procesos más cortos -. Por este método se eligen de la cola
los procesos más cortos y se les asigna máxima prioridad para el uso de la CPU.
Tiene la ventaja de que aprovecha más eficientemente el tiempo de uso de la
CPU, y prioriza los procesos más cortos, lo que conduce a que en una unidad o
intervalo de tiempo, se acaben mayor número de procesos.
Las desventajas vienen de que no se sabe bien cómo asigna las prioridades y
cómo asigna los tiempos de uso de la CPU a cada proceso, dado que la CPU no
quedará libre hasta acabar el proceso en cuestión. Por otro lado, la reasignación
de prioridades por tiempos puede ser dinámica, en función del uso detectado de la
CPU. Como el método FIFO, este es no apropiativo, es decir, el proceso
permanece usando la CPU hasta que termina.
Por el proceso más corto y el resto
Este método compara el tiempo de ejecución que le queda al proceso que está
utilizando la CPU con el tiempo que necesita el proceso que se encuentra el
primero en la cola de espera, que será el más corto de los que están en dicha
cola. Si el tiempo del que está en la cola es menor, quita de la CPU el proceso en
curso y deja libre la CPU para el que viene de la cola. En resumen, se trata de un
método apropiativo, pues quita CPU para dársela a otro proceso.
La eficiencia del uso de la CPU es mayor, pero el sistema operativo tiene que
guardar los estados y tiempos de los procesos que salen momentáneamente de la
CPU, lo que origina mayor capacidad de almacenamiento y mayor número de
desplazamientos, que también consumen recursos y tiempo.
Prioridad multicola
El sistema operativo analiza los procesos, sus tiempos de ejecución y sus
prioridades, construyendo varias colas de espera. Cada cola puede llevar un
método diferente de gestión según la prioridad de la misma, o bien ser atendida
por un método FIFO o circularmente.
Los sistemas operativos que operan según estas características se denominan
sistemas operativos de propósito general y son capaces de soportar varios
trabajos interactivos con el usuario, normalmente tantos como procesos batch o
procesos compilados para trabajar secuencialmente según su opción de
ejecución.
Por tiempo de espera y de ejecución Aquí la prioridad la establecen dos
parámetros: el tiempo de espera en la cola y el tiempo estimado
de ejecución del proceso. El acceso es no apropiativa y la implementación del
código en el sistema resulta costosa y conlleva cierta sobrecarga de memoria.
Mixtos
El más común es el que supone la mezcla de un criterio Round-Robin con un
criterio multicola. Según esto, un sistema asigna tiempos de la CPU mediante
diversas colas que se establecen según su nivel de prioridad. Si un proceso pasa
de una cola a la CPU y no acaba en el tiempo que se le ha asignado, se le dirige
para el resto de su ejecución a la cola siguiente. Si, tras su siguiente ejecución, no
ha acabado, entonces se le pasa a la sucesiva. La última cola está gestionada por
un método FIFO. Este sistema sigue dando prioridad a los procesos que son más
cortos
Interbloqueos

Es una situación que se plantea cuando dos procesos activos compiten por
recursos del sistema y uno de los procesos no consigue los suficientes y entra en
estado de espera. Cuando este estado de espera es indefinido se denomina
situación de interbloqueo -deadlock-. El proceso P requiere los recursos X e Y y
los necesita en ese orden y, simultáneamente, el proceso Q necesita los recursos
Y y X y los necesita en ese orden. P adquiere X y, a la vez, Q toma Y. Llegado un
momento ninguno de los procesos puede progresar dado que va a requerir
recursos que posee el otro proceso. Su solución sólo puede venir del exterior y es
una situación típica de sistemas multiprogramados.
Se entiende aquí por recursos tantos dispositivos hardware -caso de cintas, algún
periférico- como software -información en módulos de memoria, contenido de un
array-. Para que se dé el interbloqueo deben darse simultáneamente cuatro
condiciones:
- Exclusión mutua: cuando algún proceso necesita control exclusivo sobre un
recurso, forma no compartible, y lo acapara, impidiendo que otro proceso lo pueda
utilizar.
- Espera y retención: situación que se da cuando un proceso que retiene un
recurso lo mantiene hasta que pueda utilizar otro.
- No apropiación: un recurso permanece en propiedad de un proceso y no se le
puede quitar hasta que lo haya utilizado; es decir, las prioridades tienen una
escasa validez.
- Espera circular: existe un conjunto de procesos en el que se da la circunstancia
de que un proceso retiene uno o más recursos que necesita el siguiente proceso

Soluciones al interbloqueo

La solución más radical es eliminar los procesos que han ocasionado el


interbloqueo, lo que se conoce como reanudación. Otras soluciones pueden ser
establecer protocolos para evitarlos, asignar prioridades o mantener informado al
sistema y al usuario de los estados de procesamiento.
En general existen dos grandes tipos de soluciones, las soluciones preventivas y
las de tratamiento o médicas, es decir, las que se aplican una vez que el
interbloqueo ha tenido lugar.

Prevención del interbloqueo

Lo más eficaz en este caso es evitar que alguna de las condiciones que da lugar al
interbloqueo no ocurra. Para ello las vemos una por una:
- Exclusión mutua: Resulta complicado ya que existen recursos que no se pueden
compartir, como es el caso de los dispositivos de entrada y de salida -las cintas y
las impresoras, por ejemplo-, con lo que se tiene que recurrir a una compartición
virtual con el uso del denominado spooler.
- Espera y retención: Se evita si el sistema operativo hace que cada proceso,
antes de entrar en ejecución, muestre los recursos que va a utilizar declarándolos
en el Lenguaje de Control de Tareas -JCL, de Job Control Language-. El JCL es
un lenguaje que se utiliza para elaborar “macros” que contienen la secuencia de
comandos que se van a ejecutar cuando un programa entra en estado operativo.
Si el sistema operativo comprueba que todos los recursos declarados están
disponibles, le permitirá la ejecución. Si no, le pondrá en estado de preparado
hasta que se liberen esos recursos.

Una desventaja es que los recursos tienen una baja utilización dado que algunos
de los recursos que se usarán al final de la ejecución de un proceso no se
utilizarán hasta entonces permaneciendo libres. Además se pueden discriminar
procesos postergando algunos en el tiempo más de lo debido.
- No apropiación: El sistema operativo estudia si un proceso solicita un recurso
que no está disponible y, en ese caso, lo mantendrá en estado preparado
liberando los recursos que previamente tenía asignados. Este método puede
postergar indefinidamente algunos procesos y puede desechar trabajo que ya ha
sido realizado.
- Espera circular: El programador deberá especificar en cada proceso el orden en
el que va a solicitar los recursos, estableciendo así una prioridad de los mismas
para cada proceso.
De tal manera que si un proceso está utilizando el recurso situado en el orden 3 –
por ejemplo, un fichero- y quiere usar un recurso situado en primer lugar -por
ejemplo, una cinta-, el proceso liberará los restantes recursos y se colocará en el
primer lugar del orden de uso. Para ir pasando de un lugar al inferior deben irse
liberando los recursos superiores.
Como se ha visto en los puntos anteriores, pude ocurrir que la aplicación de
medidas para prevenir el interbloqueo dé lugar a una baja utilización de los
recursos. Para evitar esta circunstancia es conveniente que el sistema y el usuario
dispongan de información sobre cómo se van a solicitar más recursos y en qué
orden.

Eliminación del interbloqueo

Un primer método consiste en preparar procedimientos de detección, como por


ejemplo algún algoritmo ad hoc que se ejecute periódicamente auscultando al
sistema.
La frecuencia dependerá del sistema, de su complejidad y de las posibilidades de
que se presente el interbloqueo.
La otra manera, denominada en muchas ocasiones reanudación, de eliminar el
interbloqueo es forzar a que algunos de los procesos que lo han ocasionado se
detengan en su ejecución y retrocedan en su ejecución hasta un momento en el
que ya no presenten problemas con otros procesos por los recursos del sistema.
Para hacer esto existen dos caminos: el más radical consiste en eliminar todos los
procesos implicados; el más suave supone ir eliminando procesos implicados
hasta que, llegado a un punto de la eliminación, el interbloqueo desaparezca.

ADMINISTRACIÓN DE LA MEMORIA

Un programa generalmente reside en un disco como archivo binario ejecutable:


para que sea ejecutado el programa debe ser llevado a la memoria y colocado
dentro de un proceso. Dependiendo del tipo de administración de memoria en uso,
el proceso puede transferirse entre el disco y la memoria durante su ejecución. El
conjunto de proceso que están en el disco y esperando ser llevados a la memoria
para su ejecución forma la cola de entrada.
El procedimiento normal consiste en seleccionar uno de los procesos de la cola de
entrada y cargarlo en la memoria. A medida que el proceso se ejecuta, accede a
las instrucciones y datos de la memoria. Con el tiempo, el proceso termina, y su
espacio de memoria se declara como disponible.
Un compilador normalmente vinculará estas direcciones simbólicas con
direcciones relocalizables.
El editor de enlace o cargador, a su vez, vinculará las direcciones relocalizables
con direcciones absolutas. Cada vinculación de instrucciones en otro.
De manera clásica, la vinculación de instrucciones y datos con direcciones de
memoria puede hacerse en cualquier paso durante el recorrido:

Tiempo de compilación Commented [AM1]:


Si se conoce al momento de la compilación en dónde residirá el proceso en la
memoria, entonces se puede generar un código absoluto. Por ejemplo, si se sabe
por adelantado que un proceso de usuario residirá a partir de la localidad R,
entonces el código generado por el compilador comenzará en dicha localizad y se
extenderá a partir de ahí hacia arriba. Si en un momento posterior, cambia la
localidad de inicio, entonces será necesario recompilar este código. Los
programas de MS-Dos con formato .com son vinculados con código absoluto en el
momento de la compilación

Tiempo de carga.
Si no se conoce al momento de la compilación en dónde residirá el proceso en la
memoria, entonces el compilador debe generar un código relocalizable. En este
caso, la vi nculación final se demora hasta el momento de la carga. So cambia la
dirección de inicio, sólo se necesita recargar el código de usuario para incorporar
este valor modificado.

Tiempo de ejecución
Si el proceso puede moverse durante su ejecución de un segmento de memoria a
otro, entonces la vinculación debe ser demorada hasta el momento de la
ejecución. Para que funcione este esquema, debe contarse con hardware especia.
La mayoría de los sistemas operativo de propósito general utilizan este método

Espacio de direcciones lógicas contra físicas.

Una dirección generada por al cpu se conocen comúnmente como dirección


lógica, en tanto que una dirección vista por la unidad de memoria, es decir, la que
se carga en la memoria en el registro de direcciones de memoria se conoce como
dirección física.
Sin embargo el esquema de vinculación de direcciones en el tiempo de ejecución
da por resultado un ambiente en que las direcciones lógicas y físicas difieren. En
este caso, generalmente nos referimos a la dirección lógica como dirección virtual.
El conjunto de todas las direcciones lógicas es el espacio de direcciones físicas.
Por lo tanto en el esquema de vinculación de direcciones en el tiempo de
ejecución, los espacios de direcciones lógicas y físicas difieren
El mapeo en tiempo de ejecución de direcciones virtuales en direcciones físicas e
realizado por la unidad de administración de memora (MMU), que es un
dispositivo de hardware, este método requiere un soporte de hardware
ligeramente diferente de la configuración. El registro base ahora
se llama registro de relocalización. El valor en este registro se agrega a cada
dirección generada por un proceso de usuario en el momento en que se envía a la
memoria. Por ejemplo, si la base se encuentra en 14000; un acceso a la localidad
346 se mapea en la localidad 14, 346.
El programa de usuario proporciona direcciones lógicas; estas direcciones lógicas
deben mapearse en direcciones físicas antes de ser utilizadas. El concepto de un
espacio de direcciones lógicas que está vinculado a un espacio distinto de
direcciones físicas es centrar para una correcta administración de la memoria.

Carga dinámica.
Todo programa y los datos de un proceso deben estar en la memoria física para la
ejecución de éste. El tamaño de un proceso está limitado por el tamaño de la
memoria física. Para conseguir una mejor utilización del espacio de memoria,
podemos emplear la carga dinámica. Con la carga dinámica, una rutina no se
carga sino hasta que es llamada. Todas las rutinas se mantienen en el disco en un
formato de carga relocalizable. El programa principal se carga en la memoria y se
ejecuta. Cuando una rutina necesita llamar a otra rutina, la rutina que hace el
llamado verifica primeramente si la otra ha sido cargada. Si no ha sido cargada, el
cargador de enlace relocalizables es llamado para colocar en memoria la rutina
deseada y actualizar las tablas de direcciones del programa para reflejar este
cambio.

Enlace dinámico y bibliotecas compartidas.

Algunos sistemas operativos solo soportan el enlace estático, en que las


bibliotecas del lenguaje del sistema son tratadas como cualquier otro modulo
objeto y son combinadas por el cargador en la imagen del programa binario. El
concepto de enlace dinámico es similar al de la carga dinámica.
En lugar de posponer la carga hasta el tiempo de ejecución, el enlace es el que se
pospone. Esta característica se utiliza generalmente con bibliotecas del sistema,
como las bibliotecas de subrutinas de lenguaje. Sin este servicio, todos los
programas de un sistema necesitan tener una copia de su biblioteca de lenguaje
(o por lo menos las rutinas a las que hace referencia el programa) incluida en la
imagen ejecutable. Este requerimiento desperdicia espacio en disco así como
memoria principal. Con el enlace dinámico, se incluye un Stub en la imagen por
cada referencia a la rutina de biblioteca apropiada residente en memoria, o cómo
cargar la biblioteca si la rutina no está ya presente.
A diferencia de la carga dinámica, el enlace dinámico generalmente requiere de
ayuda del sistema operativo. Si los procesos en memoria están protegidos entre
ellos, entonces el sistema operativo es la única entidad que puede verificar si la
rutina que se necesita se encuentra en otro espacio de memoria del proceso, o
que puede permitir que múltiples proceso accedan a las mismas direcciones de
memoria

Superposiciones (overlays)

Para que un proceso pueda ser mayor que la cantidad de memoria asignada a él,
podemos usar superposiciones. La idea de las superposiciones consiste en
mantener en memora solo aquellas instrucciones y datos que se necesitan en un
momento dado.
Como el caso de la carga dinámica, las superposiciones no requieren de algún
soporte especial del sistema operativo. Pueden ser implementadas
completamente por el usuario con estructuras de archivos sencillas, leyendo de los
archivos a la memoria y luego saltando a dicha memoria y ejecutando las
instrucciones recientemente leídas.

Intercambio (swapping)

Un proceso necesita estar en memoria para ser ejecutado. Sin embargo , un


procese puede intercambiarse temporalmente de la memora a un almacén de
respaldo, y luego llevarse de regresa la memoria para continuar su ejecución.
Una variante de esta política de intercambio se emplea para los algoritmos de
planificación con base en prioridades. Si llega un proceso de mayor prioridad y
quiere servicio, el administrador de la memoria puede intercambiar fuera de la
memoria el proceso de menor prioridad de manera que pueda cargar y ejecutar el
proceso de mayor prioridad. Cuando termina el proceso de mayor prioridad, el
proceso de menor prioridad puede ser intercambiado de regreso a la memoria y
continuar. Esta variante del intercambio también se conoce como desenrollar
Normalmente, un proceso que es intercambiado fuera de la memora será
intercambiado de regreso sobre el mismo espacio que ocupaba al inicio. Esta
restricción está dictada por el método de vinculación de direcciones., Si la
vinculación se realiza en el momento del ensamble o de carga,
entonces el proceso no puede ser movido a las localidades diferentes, si se esta
empleando la vinculación en el tiempo de ejecución, entonces es posible
intercambiar un proceso a un espacio de memoria diferente El intercambio
requiere un almacén de respaldo. Este almacén comúnmente un disco rápido.
Debe ser lo suficientemente grande para acomodar copias de todas las imágenes
de memoria para todos los usuarios, y debe proporcionar un acceso directo a
estas imágenes. El sistema mantiene una cola de proceso listos compuesta por
todos los proceso cuyas imágenes de memora están en el almacén de respaldo o
en la memora y están listos para ejecutar. Siempre que el planificador de la
cpu decide ejecutar un proceso, llama la despachador, este verifica si el siguiente
proceso de la cola está en memora. Si el proceso no esta en memoria y no hay
una región de memoria libre, el despachador intercambia hacia fuera un proceso
que actualmente esté en memora e intercambia hacia adentro el proceso deseado.
Luego, carga nuevamente los registros de manera normal y transfiere el control al
proceso seleccionado.
Existen restricciones en el intercambio.
Nunca intercambiar un proceso con operaciones de e/s pendientes
Ejecutar operaciones de e/s solo con buffers del sistema operativo.
Asignación de memoria contigua.

Uno de los métodos más sencillos para la asignación de memoria consiste en


dividirla en un número de particiones de tamaño fijo. Cada partición puede
contener exactamente un proceso. De esta forma, el grado de multiprogramación
está limitado por el número de particiones. Cuando una partición está libre, se
selecciona un proceso de la cola de entrada y se carga en ella. Cuando el
proceso termina, la partición queda disponible para otro proceso. Este método fue
empleado originalmente por el sistema operativo os/36’ de IBM, en la actualidad
ya no se usa El sistema operativo mantiene una tabla que indica que partes de la
memoria están disponibles y cuales están ocupadas. Inicialmente toda la memoria
está disponible para cuando llega un proceso y necesita memoria, buscamos un
hueco suficientemente grande para este proceso. Si encontramos alguno,
asignamos solo tanta memoria como se necesite manteniendo el resto disponible
para satisfacer solicitudes futuras.
A medida que entran procesos al sistema, son colocados en una cola de entrada,
el sistema operativo toma en cuenta los requerimientos de memoria y de cada
proceso y la cantidad de espacio disponibles para determinar a cuales proceso se
les asigna memora, cuando se asigna espacio a un proceso, este se carga en la
memora y puede entonces competir por la cpu, cuando un proceso termina, libera
su memoria, misma que el sistema operativo llena con otro proceso de
la cola de entrada.
En cualquier momento dado, tenerlos una lista de tamaños de bloque disponibles
y la cola de entrada. El sistema operativo puede ordenar la cola de entrada de
acuerdo con un algoritmo de planificación. La memoria se asigna a los procesos
hasta que, finalmente, los requerimientos de memoria del siguiente proceso no
puedan ser satisfechos; ningún bloque de memora (hueco) disponible es
suficientemente grande para contener dicho proceso. El sistema operativo
entonces espera hasta que esté disponible un bloque suficientemente grande, o
salta hacia debajo de la cola de entrada para ver si satisfacen los requerimientos
más pequeños de memora de algún otro proceso.
En general, en algún momento ha un conjunto de huecos, de varios tamaños,
dispersos en toda la memoria. Cuando llega un proceso y necesita memoria,
buscamos en este conjunto un hueco que sea suficientemente grande para el
proceso. Si el hueco es demasiado grande, se divide en dos: una parte se asigna
al proceso que está llegando y la otra se devuelve al conjunto de huecos.
Cuando un proceso termina, libera su bloque de memoria, que es colocado de
regreso en el conjunto de huecos. Si el nuevo hueco es adyacente a los otros
huecos, combinados estos dos huecos adyacentes para formar un hueco más
grande. En este punto, tal vez necesitemos verificar si hay procesos esperando
memoria y su la memora recientemente liberada y recombinada puede
satisfacer las demandas de algunos de estos procesos que están esperando
Este procedimiento es un caso particular del problema general de asignación
dinámica de almacenamiento, que consiste en cómo satisfacer una solicitud de
tamaño n a partir de una lista de huecos libres. Existen muchas soluciones a este
problema. Se hace una búsqueda en conjunto de huecos para determinar cual s el
mejor huevo para asignar. Las estrategias del primer ajuste, el mejor ajuste y el
peor ajuste son las que se empelan más comúnmente para seleccionar un hueco
libre del conjunto de huecos disponibles.
Primer ajuste Asigne EL primer hueco que sea suficientemente grande. La
búsqueda puede comenzar ya sea al principio del conjunto de huecos o donde
termino la búsqueda previa del primer ajuste. Podemos dejar de buscar tan pronto
como encontremos un hueco libre que sea suficientemente grande. Mejor ajuste
Asigne el hueco más pequeño que sea suficientemente grande. Debemos hacer
una búsqueda en toda la lista, a menos que la lista se mantenga ordenada por
tamaño. Esta estrategia produce el hueco más pequeño restante.
Peor ajuste.
Asigne el hueco más grande. Nuevamente, debemos hacer una búsqueda en toda
la lista, a menos que esté ordenada por tamaño. Esta estrategia produce el hueco
más grande que queda, el cual puede ser más útil que el hueco más pequeño que
queda en el caso del enfoque de mejor ajuste.
Los algoritmos que se acaban de presentar adolecen de una fragmentación
externa a medida que los procesos se cargan y remueven de la memoria, el
espacio de memoria libre se divide en pequeñas piezas. La desfragmentación
externa ocurre cuando existe suficiente espacio de memoria total para satisfacer
una solicitud, pero no es contigua; el almacenamiento se fragmenta
en una gran número de huecos pequeños

Paginación

La paginación es un esquema que permite que el espacio de direcciones lógicas


de un proceso no sea contiguo. La paginación evita el problema mayor de ajustar
las porciones de memoria de tamaño variable en el almacén respaldo, del cual
sufrirían la mayoría de los esquemas anteriores de administración de la memoria.

Método básico.

La memoria física se descompone en bloques de tamaño fijo denominados


marcos. La memoria lógica también se descompone en bloques del mismo tamaño
denominados páginas. Cuando se va ejecutar u proceso, sus páginas se cargan
desde el almacén de respaldo en cualquier marco de memoria disponible. El
almacén de respaldo se divide en bloques de tamaño fijo que son del mismo
tamaño que los marcos de la memoria.
Cada dirección generada por la cpu se divide en dos partes: un número de página
(p) y un desplazamiento de página (d). El número de página se emplea como un
índice en una tabla de páginas. La tabla de páginas contiene la dirección base de
cada página en la memoria física. Esta dirección base se combina con el
desplazamiento de página para definir la dirección física de la memoria que se
envía a la unidad de memoria. El tamaño de página (así como el tamaño del
marco) es definido por el hardware. El tamaño de una página es normalmente una
potencia de 2 y varía entre 512 bytes y 16 megabytes por página, dependiendo de
la arquitectura de la computadora. La selección de una potencia de 2 como
tamaño de página hace que la traducción de una dirección lógica a un número de
desplazamiento de página sea particularmente fácil. Si el tamaño del espacio de
direcciones lógicas es 2 m y el tamaño de una página es 2 n unidades de
direccionamiento (bytes o palabras), entonces los m-n bits de orden elevado de
una dirección lógica designan el número de página, y los n bits de orden bajo
designan el desplazamiento de página, en donde p es un índice en la tabla de
páginas y d es el desplazamiento dentro de la página. Observe que la paginación
misma es una forma de relocalización dinámica. El hardware de paginación
vincula cada dirección lógica con alguna dirección física. El lector observadores
abrá dado cuenta que el empleo de la paginación es similar al uso de una tabla de
registros base (de relocalización) Un aspecto importante de la paginación es la
distinción clara entre la visión que tiene el usuario de la memoria y la memoria
física real: el programa de usuario ve a dicha memoria como un solo espacio
contiguo, La diferencia entre la visión que el usuario tiene de la memoria y la
memoria física real se reconcilia mediante el hardware de traducción de
direcciones, las direcciones lógicas se traducen a direcciones físicas. Este mapeo
está oculto al usuario y es controlado por el sistema operativo.
Debido a que el sistema operativo está administrando la memoria física, debe
estar consciente de los detalles de asignación de la misma: qué marcos se
asignan, cuáles marcos están disponibles, cuántos marcos en total hay, etc. Esta
información se mantiene generalmente en una estructura de datos denominada
tabla de marcos. La tabla de marcos tiene una entrada por cada marco físico de
página, indicado si el último está libre o si está asignado, a que página de qué
proceso o proceso

Estructura de la tabla de páginas

Cada sistema operativo tiene sus propios métodos para almacenar tablas de
páginas. La mayoría asigna una tabla de páginas por cada proceso. Un apuntador
a la tabla de páginas se almacena con los demás valores de registros (como el
contador de instrucciones) en el bloque de control del proceso. Cuando se le dice
al despachador que inicie un proceso, debe recargar los registros del usuario y
definir los valores correctos de la tabla de páginas de hardware a partir de la tabla
de páginas del usuario que está almacenada.

Soporte de hardware.

La implementación en hardware de la tabla de páginas puede hacerse de varias


formas. En el caso más sencillo, la tabla se implementa como un conjunto de
registros dedicados. Estos registros deberán construirse con una lógica de muy
alta velocidad para que la traducción de direcciones de página sea eficiente. Todo
acceso a la memoria debe pasar por el mapa de paginación, por lo que la
eficiencia es un aspecto importante. El despachador de la CPU recarga estos
registros, al igual que recarga a los demás registros. Las instrucciones para cargar
o modificar los registros de la tabla de páginas son, por supuesto, privilegiadas.
El uso de registros para la tabla de páginas es satisfactorio si la tabla es
razonablemente pequeña.
La mayoría de las computadoras actuales, sin embargo permiten que la tabla de
páginas sea muy grandes un millón por ejemplo, el empleo de registros rápidos
para implementar la tabla de páginas no es factible. Más bien dicha tabla se
mantiene en la memoria principal y un registro base de tabla de páginas.
La solución estándar a este problema es usar una cache de hardware especial,
pequeña y de búsqueda rápida, conocida también como registros asociativos o
buffers de traducción de vista lateral. Se construye un conjunto de registros
asociativos de memoria de alta velocidad. Cada registro consta de dos partes: una
llave un valor cuando los registros asociativos se presentan con un elemento, éste
se compara con todas las llaves simultáneamente, si se encuentra el elemento,
se produce como salida el campo de las llave del valor correspondiente, los
registros asociativos se emplean con tablas de páginas de la siguiente manera,
estos asociativos sólo contienen unas cuantas entradas de la tabla de páginas.
Cuando la cpu genera una dirección lógica, su número de página se presenta a un
conjunto de registros asociativos que contienen números de páginas y sus
correspondientes números de marco.

Protección

La protección de la memora en un ambiente con paginación se realiza mediante


bits de protección que están asociados con cada marco. Estos bits normalmente
se mantienen en la tabla de páginas. Un bit puede definir que una página sea de
lectura y escritura, o sólo de lectura. Cada referencia a la memoria pasa por la
tabla de páginas para encontrar el número correcto de marco, generalmente se
agrega un bit más a cada entrada de la tabla de páginas: Un bit de alidezinvalidez

Paginación con niveles múltiples

La mayoría de los sistemas de cómputo modernos soportan un espacio grande de


direcciones lógicas ( 2 32 / 2 64 ) En tales ambientes, la tabla de páginas misma
se vuelve excesivamente grande. Una solución sencilla a este problema consiste
en dividir la tabla de páginas en piezas más pequeñas. Hay varias formas de
lograr esta división.
Una forma consiste en utilizar un algoritmo de paginación con dos niveles, en que
la tabla de páginas misma también se pagina.

Tabla de páginas invertidas

Cada proceso tiene generalmente una tabla de páginas asociadas con él. La tabla
de páginas tiene una entrada por cada página que el proceso está utilizando ( o
una ranura por cada dirección virtual, independientemente de la validez de esta
última) . Esta es una representación natural de la tabla ya que los procesos hacen
referencia las páginas mediante las direcciones virtuales de las mismas. El
sistema operativo debe traducir después esta referencia a una dirección física de
memoria. Debido a que la tabla está ordenada por dirección virtual, el sistema
operativo puede calcular en qué lugar de la tabla está la entrada de la dirección
física asociada, y usar dicho valor directamente. Una de las desventajas de este
método es que cada tabla de páginas puede constar de millones de entradas.
Estas tablas consumen grandes cantidades de memoria física únicamente para
llevar un registro de cómo se está utilizando la otra memoria física.
Para resolver este problema se puede usar una tabla de páginas invertida. Una
tabla de páginas invertida tiene una entrada por cada página (marco) real de
memoria. Cada entrada consiste en la dirección virtual de la página almacenada
en dicha ubicación de memora real, con información acerca del proceso que
posee dicha página. Así, sólo hay una tabla de páginas en el sistema, y sólo tiene
una entrada por cada página de la memoria física..
Cada entrada de la tabla de páginas invertida es un par < id-proceso, número- de-
página>, cuando ocurre una referencia a la memoria, parte de la dirección virtual,
que consta de <id-proceso, número – de- página>, se presenta al subsistema de la
memoria. Luego, en la tabla de páginas invertida se busca una correspondencia.
Si se encuentra alguna- por ejemplo, en la entrada entonces se genera la
dirección física <i-desplazamiento>. Si no se encuentra una correspondencia, es
que se ha intentado un acceso ilegal a una dirección.
Aunque este esquema disminuye la cantidad de memoria necesaria para
almacenar cada tabla de páginas, incrementa la cantidad de tiempo necesario
para buscar en la tabla cuando ocurre una referencia a una página. Como la tabla
de páginas invertida está ordenada por dirección física, pero las búsquedas
ocurren en direcciones virtuales, podría ser necesario buscar aliviar este
problema, se usa una tabla hash para limitar la búsqueda a una entrada – o a lo
sumo unas cuantas entradas- de la tabla de páginas. Por supuesto, cada acceso a
la tabla hash agrega al procedimiento una referencia a memoria, por lo que una
referencia a la memoria virtual requiere de por lo menos dos lecturas a la memoria
real: una para la entrada en la tabla hash y una para la tabla de páginas. Para
mejorar el rendimiento, utilizamos registros asociativos de memoria para retener
las entradas localizadas recientemente. Primero se busca en estos registros, antes
de consultar la tabla hash

Páginas compartidas.

Otra venta de la paginación es la posibilidad de compartir un código común. Esta


consideración es particularmente importante en un ambiente de tiempo
compartido. Considere un sistema que soporta 40 usuarios, cada uno de los
cuales ejecuta un editor de textos consta de 150 k y 50 k de espacio para datos,
se necesitan 8000 l para soportar a los 40 usuarios. Sin embargo, si el código es
reentrante, se puede compartir.
El código reentrante (también denominado código puro) es un código que no
puede modificarse a sí mismo. Si el código es reentrante, entonces nunca cambia
durante la ejecución. Por lo tanto, dos o más procesos pueden ejecutar el mismo
código al mismo tiempo. Cada proceso tiene su propia copia de registros y
almacenamiento de datos para contener los datos para la ejecución de los
Procesos.

También podría gustarte