jueves, 11 de febrero de 2010

coquizacion del carbon.

Coquización es un proceso de destilación seca destructiva de carbón para convertirlo de un material denso y frágil a uno fuerte y poroso; los subproductos valiosos se recuperan en el proceso.
No todas las clases de carbón son útiles para fabricar coque. Entre los que no son útiles se encuentran los porosos pero con baja resistencia a la compresión o con residuos de polvo. Fuera de las tres clases de carbón reconocidas en la industria alta, media o baja volatilidad, solo una subclase entre los de alta volatilidad y algunos pero no todos los de media volatilidad son producidos para el alto horno. Por lo tanto la mezcla es de mayor importancia. Grandes cantidades de carbón de alta volatilidad son mezcladas con carbón de media o baja volatilidad. Otra razón para mezclarlos es su química no la estructura del carbón. Muchos carbones contienen grandes cantidades de cenizas de: arena de sílice, arcillas aluminosas, sulfuros de hierro y otros. Por lo tanto casi todos los carbones son lavados.
Como ya se menciono anteriormente la coquización es un proceso de destilación destructiva usando calor externo. El coque es ampliamente clasificado de acuerdo a su temperatura final del proceso de coquización – coque de alta, media y baja temperatura. Solo el último terminado entre 1700 y 2000° F (930 y 1100° C) se unas para el alto horno. Aunque algunos de los de bajas temperaturas se utilizan para mezclarlos.
Las producciones de carbón por tonelada son:
De 65 a 73% de coque y de 5 a 10 % de residuos, para una producción de coque del 75%. Puesto que cerca del 75% de sulfuro contenido en el carbón, permanece en el coque, lo cual es que el contenido de sulfuro es alrededor de la misma cantidad carbón en el coque, a menos que se empleen las técnicas adecuadas para remover los sulfuros. (Peters, 1982)

El calentamiento del carbón origina en la materia carbonosa una serie de
fenómenos que son función de la temperatura de calefacción.
- Hasta 100ºC: se desorben oxígeno, nitrógeno, metano, aire y vapor
de agua retenidos en las partículas de carbón.
- Entre 100-300ºC: continúa la desorción de gases ya exentos de
vapor de agua; abunda SH2, CO, CO2 y oleofinas de molécula corta.
- Alrededor de los 310ºC: empiezan a aparecer las primeras porciones
líquidas.
- Entre 400-450ºC: se inicia la fusión acompañada de una contracción
de volumen.
- 550ºC: acaba la fusión, dejando el carbón de ser plástico; se produce
una dilatación que en los carbones que proporcionan coque
metalúrgico alcanza el 85%.
- Entre 500-600ºC: se inicia la despolimerización, para producir
partículas independientes formada por 12 carbonos (partícula C12),
condesprendimiento abundante de hidrógeno que acompaña a los
gases hidrocarburados ya poco abundantes.
- De 700-1000ºC: ya no hay combinados esenciales, excepto craqueo.
El componente fundamental de los gases es el hidrógeno que, por su
pequeño volumen, escapa a través de los poros que deja la
estructura del coque proporcionándole gran esponjosidad sin
disminuir su resistencia mecánica. Disminuye la proporción de
líquidos destilados, porque los destruye y transforma en gases que el
propio craqueo deshidrogena conviertiéndolos en productos
insaturados en incluso en carbono libre.
- Por encima de 1000ºC: la temperatura del coque se grafita.
El rendimiento en productos sólidos (coque), líquidos (alquitrán) y gases
varía con la temperatura.
El rendimiento en coque se puede calcular por diferencias ( un 5% es
agua). En la coquerías se suele obtener un 73% de coque, del que un 88% es de tamaño siderúrgico y otro 12% es “fino”.
Cuando en la pirogenación del carbón interesa sólo el coque, todo se
subordina a las mejores propiedades de este producto. La temperatura ha de
ser lo suficientemente alta para sobrepasar la zona de plasticidad de coque
(>700ºC) y para eliminar los volátiles completamente, pues los que queden en
el coque se perderán en el alto horno. No se deben sobrepasar los 1000ºC
para evitar la grafitación del coque y la consiguiente pérdida de su reactividad
para con el O2 del aire. Esta destilación se llama a alta temperatura y la
instalación industrial se llama coquería. El carbón de partida debe ser una
mezcla de muy buenas características coquizantes, ya que en la producción de
coque siderúrgico tiene más importancia la calidad que el rendimiento.
En la coquería, la coquización se practica en cámaras de ladrillo
refractario, que se agrupan formando baterías de hasta 500 cámaras en
paralelo. La alimentación de estas cámaras de coquización se realiza por la
parte superior, mediante tolvas. Después de varias horas de coquización se
saca de cada cámara el coque empujándolo longitudinalmente y se apaga en
seguida con lluvia de agua. Se le lleva finalmente a las instalaciones de
cribado, trituración y clasificación por tamaños; ya que la fábrica siderúrgica los
aprovecha por separado. La calefacción se efectúa interponiendo cámaras de
combustión a los flancos de las de coquización. El calor pasa a través de los
ladrillos silíceos que separan ambos tipos de cámaras.
La coquización se inicia en las porciones de hulla en contacto con las
paredes de calcio, y desde ellas avanza progresivamente hacia el interior. Por
ello, y como el carbón es mal conductor, se produce un importante gradiente de
temperatura y cuando los trozos junto a la pared ya estén coquizados los del
centro de la cámara pueden permanecer aún inalterados, si la anchura de la
cámara de coquización fuera grande. Por eso, para evitar un producto muy
heterogéneo, se limita el ancho de las cámaras.
(Figura 2) Vista esquemática, en planta, de una batería de coquización.
El coque, en general, puede ser utilizado como combustible, como
reductor metalúrgico, como materia prima de gasificación o como materia prima
para síntesis química.
(Figura 3) Batería de hornos de cámara para coquización en fábricas siderúrgicas.
Como combustible se emplea en hornos para tratamientos metalúrgicos
formando lechos de espesor suficiente para que la combustión no se
interrumpa por la posible llegada de comburente frío. La principal ventaja que
ofrece este combustible deriva de la ausencia de humos, por estar exento de
materias volátiles.
El empleo del coque como reductor metalúrgico, en la obtención de
metales como el hierro, el estaño, el cobre o el cinc, utiliza conjuntamente sus
propiedades de combustible y de reductor de acción directa o indirecta por el
CO formado en la combustión incompleta, lo que implica la previa gasificación
de C a CO.
El empleo de coque para síntesis química se dirigió a la fabricación de
carburo cálcico (C2Ca) y cianamida cálcica ( CN2Ca), ambos productos ahora

El calentamiento del carbón origina en la materia carbonosa una serie de
fenómenos que son función de la temperatura de calefacción.
- Hasta 100ºC: se desorben oxígeno, nitrógeno, metano, aire y vapor
de agua retenidos en las partículas de carbón.
- Entre 100-300ºC: continúa la desorción de gases ya exentos de
vapor de agua; abunda SH2, CO, CO2 y oleofinas de molécula corta.
- Alrededor de los 310ºC: empiezan a aparecer las primeras porciones
líquidas.
- Entre 400-450ºC: se inicia la fusión acompañada de una contracción
de volumen.
- 550ºC: acaba la fusión, dejando el carbón de ser plástico; se produce
una dilatación que en los carbones que proporcionan coque
metalúrgico alcanza el 85%.
- Entre 500-600ºC: se inicia la despolimerización, para producir
partículas independientes formada por 12 carbonos (partícula C12),
condesprendimiento abundante de hidrógeno que acompaña a los
gases hidrocarburados ya poco abundantes.
- De 700-1000ºC: ya no hay combinados esenciales, excepto craqueo.
El componente fundamental de los gases es el hidrógeno que, por su
pequeño volumen, escapa a través de los poros que deja la
estructura del coque proporcionándole gran esponjosidad sin
disminuir su resistencia mecánica. Disminuye la proporción de
líquidos destilados, porque los destruye y transforma en gases que el
propio craqueo deshidrogena conviertiéndolos en productos
insaturados en incluso en carbono libre.
- Por encima de 1000ºC: la temperatura del coque se grafita.
El rendimiento en productos sólidos (coque), líquidos (alquitrán) y gases
varía con la temperatura.
El rendimiento en coque se puede calcular por diferencias ( un 5% es
agua). En la coquerías se suele obtener un 73% de coque, del que un 88% es
de tamaño siderúrgico y otro 12% es “fino”.
Cuando en la pirogenación del carbón interesa sólo el coque, todo se
subordina a las mejores propiedades de este producto. La temperatura ha de
ser lo suficientemente alta para sobrepasar la zona de plasticidad de coque
(>700ºC) y para eliminar los volátiles completamente, pues los que queden en
el coque se perderán en el alto horno. No se deben sobrepasar los 1000ºC
para evitar la grafitación del coque y la consiguiente pérdida de su reactividad
para con el O2 del aire. Esta destilación se llama a alta temperatura y la
instalación industrial se llama coquería. El carbón de partida debe ser una
mezcla de muy buenas características coquizantes, ya que en la producción de
coque siderúrgico tiene más importancia la calidad que el rendimiento.
En la coquería, la coquización se practica en cámaras de ladrillo
refractario, que se agrupan formando baterías de hasta 500 cámaras en
paralelo. La alimentación de estas cámaras de coquización se realiza por la
parte superior, mediante tolvas. Después de varias horas de coquización se
saca de cada cámara el coque empujándolo longitudinalmente y se apaga en
seguida con lluvia de agua. Se le lleva finalmente a las instalaciones de
cribado, trituración y clasificación por tamaños; ya que la fábrica siderúrgica los
aprovecha por separado. La calefacción se efectúa interponiendo cámaras de
combustión a los flancos de las de coquización. El calor pasa a través de los
ladrillos silíceos que separan ambos tipos de cámaras.
La coquización se inicia en las porciones de hulla en contacto con las
paredes de calcio, y desde ellas avanza progresivamente hacia el interior. Por
ello, y como el carbón es mal conductor, se produce un importante gradiente de
temperatura y cuando los trozos junto a la pared ya estén coquizados los del
centro de la cámara pueden permanecer aún inalterados, si la anchura de la
cámara de coquización fuera grande. Por eso, para evitar un producto muy
heterogéneo, se limita el ancho de las cámaras.
(Figura 2) Vista esquemática, en planta, de una batería de coquización.
El coque, en general, puede ser utilizado como combustible, como
reductor metalúrgico, como materia prima de gasificación o como materia prima
para síntesis química.
(Figura 3) Batería de hornos de cámara para coquización en fábricas siderúrgicas.
Como combustible se emplea en hornos para tratamientos metalúrgicos
formando lechos de espesor suficiente para que la combustión no se
interrumpa por la posible llegada de comburente frío. La principal ventaja que
ofrece este combustible deriva de la ausencia de humos, por estar exento de
materias volátiles.
El empleo del coque como reductor metalúrgico, en la obtención de
metales como el hierro, el estaño, el cobre o el cinc, utiliza conjuntamente sus
propiedades de combustible y de reductor de acción directa o indirecta por el
CO formado en la combustión incompleta, lo que implica la previa gasificación
de C a CO.
El empleo de coque para síntesis química se dirigió a la fabricación de
carburo cálcico (C2Ca) y cianamida cálcica ( CN2Ca), ambos productos ahora
obsoletos.

planta lavadora de carbon.

Se trata de reducir las cenizas que nos va a dar el producto en el proceso de combustión. Se abarata así el coste del proceso industrial de eliminación de cenizas posterior a la combustión. Se deben tener en cuenta características como tamaño, forma, elasticidad, conductividad, humidictividad, densidad.
La densidad es la característica más importante en cuanto a la clasificación por tamaños.
Los procesos de lavado pueden ser en seco y en húmedo.
Seco: Se basan en las diferencias de densidad y fricción en seco. También en las diferencias de elasticidad
Húmedo: Se basan en las diferencias de tamaño y forma. También en la densidad y fricción en húmedo, así como en la humectabilidad y densidad.
Ventajes e inconvenientes de los lavados en seco y húmedo y otros aspectos en las fotocopias
El denominado proceso de flotación por espuma es el único proceso que vale para limpiar el carbón fino. Consiste en mojar las partículas de carbón con busrbujas de espuma. Esta espuma va a humedecer el carbón fino para de esta manera limpiarlo. El carbón fino flota con la espuma y las impurezas se hunden. Esta masa de espuma con impurezas se pasa por un filtro para así volver a obtener un carbón más puro.
Un proceso para la purificación del carbón abarca la formación de una solución de lixiviación acuosa que contiene el ácido nítrico y hydrofluric. Las impurezas son quitadas entrando en contacto con el carbón que tiene un tamaño de acoplamiento 8 no mayor que (serie de Tyler) con la solución de lixiviación por un período de 15 a 120 minutos en una temperatura de 20.degree. a 100.degree. C. Durante entrar en contacto con del carbón con la solución de lixiviación, un material gaseoso tal como aire se puede burbujear therethrough para proporcionar el material adicional de la acción que se mezcla y del oxidante. Después de eso, se quita la solución y el carbón lixiviado se lava con agua.


El proceso de lixiviación requiere de la preparación adecuada y responsable del área donde se va a realizar la acción de lixiviar. Para ello, los trabajos de acondicionamiento velan por no generar impactos negativos al ambiente y al mismo tiempo lograr que el proceso sea eficiente. Entre los trabajos que se realizan, cabe mencionar los estudios previos de suelo, agua y aire, que brindan información valiosa para el diseño y seguimiento del proceso.
Las áreas de terreno dedicadas a este proceso son lugares amplios y llanos sobre la que se coloca una membrana impermeable (conocida como geomembrana) que aislará el suelo de todo el proceso químico que se ejecutará arriba.
Además, en toda el área se acondiciona:
 un sistema de cañerías distribuidas homogéneamente que se utilizan para transportar y rociar la sustancia lixiviante sobre el mineral.
 Un sistema de tuberías (sistema de drenaje) especiales que recogen las soluciones que se irán filtrando a través del material apilado durante el proceso.
2
Complementariamente se construye una poza (cercana a la zona de lixiviación) en la que se acumulan los líquidos que se obtengan de la lixiviación que luego deben ser tratados para lograr la recuperación final del material fino que se encuentran atrapados en ellos. Descripción del proceso
1. La preparación del material.
El material extraído de un yacimiento para su lixiviación inicia su camino de preparación con su fragmentación (chancado y molienda) para obtener dimensiones mucho más pequeñas de lo que antes eran grandes pedazos de rocas (el tamaño final puede alcanzar hasta un tamaño de 30 micras1), con el objeto de que el proceso de separación del mineral valioso sea más eficiente y rápido.
2. El transporte de material a la zona de lixiviación
Luego del chancado y molienda, el material debe ser llevado y dispuesto adecuadamente sobre el área de lixiviación. Por lo general las operaciones mineras usan para ello volquetes gigantes, aunque en algunos casos se realiza este trabajo mediante fajas transportadoras.
3. Formando pilas
Para el adecuado proceso, es necesario que el material molido sea acumulado sobre la membrana impermeable en montículos (pilas) de varias toneladas, formando columnas de ellos de manera ordenada.
4. Bañado o Riego
Una vez completadas las pilas de acuerdo a la capacidad de la membrana, se aplica en repetidas oportunidades y lentamente, a modo de riego por goteo o aspersores, una solución especial sobre la superficie del material. Lo solución es la mezcla de químicos disueltos en agua, los cuales varían dependiendo del material que se este trabajando y los productos a obtener (oro, cobre, etc.). La solución líquida tiene la propiedad de disolver el mineral y de esa manera fluir con el líquido hacia el sistema de drenaje. Estos líquidos son transportados mediante las tuberías instaladas hacia una poza.
5. Almacenaje y recuperación
Como se dijo líneas arriba, la sustancia obtenida del proceso de riego es transportada hacia pozas construidas y acondicionadas para almacenarlas en tanto se programe su ingreso a la siguiente etapa del proceso (recuperación y concentración). Cabe indicar que al igual que se recupera mineral valioso de la sustancia obtenida, se recupera también el agua involucrada en ella, la misma que se reutiliza en los siguientes procesos de lixiviación, buscando hacer un uso más eficiente de este recursos. De igual forma, el área donde se realiza la lixiviación, es recuperada luego de unos años de uso. Así se procede a restituir la vegetación propia de la zona, cuidando y monitoreando su desempeño. Procesos posteriores Las soluciones líquidas (lixiviadas) pasan por otros procesos para que se separe el líquido de los minerales valiosos.
En principio se busca eliminar las partículas sólidas que pudieran haber sido arrastradas y que no tienen valor. Posteriormente, la solución enriquecida (la que tiene minerales valiosos) debe pasar por a la etapa de recuperación y concentración, para lo que se usa procesos de precipitación, extracción por solventes–electro obtención (SX-EW)2, entre otros, dependiendo nuevamente del metal sólido que se quiera obtener. Finalmente…Este proceso, confirma que el sector minero hace uso de alta tecnología, requiere de un estricto diseño y planificación de acciones en su camino de alcanzar la eficiencia y rentabilidad, cuidando el ambiente.

martes, 26 de enero de 2010

1.- sistema operativo y software de aplicacion.


Universidad autónoma de Coahuila.
Esc. Sup. De Ing. Lic. Adolfo Lopez
Mateos.


Tecnologías de la información.


Ing. Alan Ayala


Sistema operativo y software de operación.



Roberto Carlos Gallegos Cruz.


22 de enero del 2010 rosita, Coahuila. México


Sistema operativo.

Un Sistema operativo (SO) es un programa informático que actúa de interfaz entre los dispositivos de hardware y el usuario. Es responsable de gestionar, coordinar las actividades y llevar a cabo el intercambio de recursos de un computador. Actúa como estación para las aplicaciones que se ejecutan en la máquina. Uno de los propósitos de un sistema operativo como estación, consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con éstos detalles. Nótese que es un error de precisión y común, considerar al conjunto de herramientas que sirven para operar al sistema operativo, (gestores de ventanas, exploradores, etc.) es decir, al programa que actúa como estación, como al sistema operativo en sí.
Cuando se aplica voltaje al procesador de un dispositivo electrónico, éste ejecuta un reducido código en lenguaje ensamblador localizado en una dirección concreta en la ROM (dirección de reset) y conocido como reset code, que a su vez ejecuta una rutina con la que se inicializa el hardware que acompaña al procesador. También en esta fase suele inicializarse el controlador de las interrupciones. Finalizada esta fase se ejecuta el código de arranque (startup code), también código en lenguaje ensamblador, cuya tarea más importante es ejecutar el programa principal (main) del software de la aplicación.[1]
Un sistema operativo se puede encontrar en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, radios, etc.).
Los sistemas operativos, en su condición de capa software que posibilitan y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en micro núcleos), podemos reseñar las siguientes:
Proporcionar más comodidad en el uso de un computador.
Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos (programas)
Brindar una interfaz al usuario, ejecutando instrucciones (comandos).
Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con los servicios que ya se prestaban (evolutividad).
Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema informático: suministro de interfaz al usuario, administración de recursos, administración de archivos, administración de tareas y servicio de soporte y utilidades.
Interfaces del usuario: Es la parte del sistema operativo que permite comunicarse con él, de tal manera que se puedan cargar programas, acceder archivos y realizar otras tareas. Existen tres tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las interfaces gráficas de usuario.
Administración de recursos: Sirven para administrar los recursos de hardware y de redes de un sistema informático, como la CPU, memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida.
Administración de archivos: Un sistema de información contiene programas de administración de archivos que controlan la creación, borrado y acceso de archivos de datos y de programas. También implica mantener el registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de almacenamiento secundarios.
Administración de tareas: Los programas de administración de tareas de un sistema operativo administran la realización de las tareas informáticas de los usuarios finales. Los programas controlan qué áreas tienen acceso al CPU y por cuánto tiempo. Las funciones de administración de tareas pueden distribuir una parte específica del tiempo del CPU para una tarea en particular, e interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad.
Servicios de soporte: Los servicios de soporte de cada sistema operativo dependerán de la implementación particular de éste con la que estemos trabajando. Entre las más conocidas se pueden destacar las implementaciones de Unix, desarrolladas por diferentes empresas de software, los sistemas operativos de Apple Inc., como Mac OS X para las computadoras de Apple Inc., los sistemas operativos de Microsoft, y las implementaciones de software libre, como GNU/Linux o BSD producidas por empresas, universidades, administraciones públicas, organizaciones sin fines de lucro y/o comunidades de desarrollo. Estos servicios de soporte suelen consistir en:
· Actualización de versiones.
· Mejoras de seguridad.
· Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, un asistente para administrar alguna determinada función ...).
· Controladores para manejar nuevos periféricos (este servicio debe coordinarse a veces con el fabricante del hardware).
· Corrección de errores de software.
· Otros.
No todas las utilidades de administración o servicios forman parte del sistema operativo, además de éste, hay otros tipos importantes de software de administración de sistemas, como los sistemas de administración de base de datos o los programas de administración de redes. El soporte de estos productos deberá proporcionarlo el fabricante correspondiente (que no tiene porque ser el mismo que el del sistema operativo).

Historia de los sistemas operativos.

Los primeros sistemas (1945 - 1950) eran grandes máquinas operadas desde la consola maestra por los programadores. Durante la década siguiente (1950 - 1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas, impresoras, cintas magnéticas, etc. Esto a su vez provocó un avance en el software: compiladores, ensambladores, cargadores, manejadores de dispositivos, etc.
Problemas de explotación y soluciones iniciales
El problema principal de los primeros sistemas era la baja utilización de los mismos, la primera solución fue poner un operador profesional que manejaba el sistema, con lo que se eliminaron las hojas de reserva, se ahorró tiempo y se aumentó la velocidad.
Para ello, los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar.
Monitores residentes
Fichas en lenguaje de procesamiento por lotes, con programa y datos, para ejecución secuencial
Según fue avanzando la complejidad de los programas, fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos.
Un monitor residente estaba compuesto por un cargador, un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida.
Sistemas con almacenamiento temporal de E/S
Se avanza en el hardware, creando el soporte de interrupciones. Luego se lleva a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos. Por ello se crea el sistema de buffers con el siguiente funcionamiento:
Un programa escribe su salida en un área de memoria (buffer 1).
El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula depositando la salida en el buffer 2.
La salida desde el buffer 1 termina y el nuevo cálculo también.
Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1.
El proceso se puede repetir de nuevo.
Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S).
Spoolers
Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. Se eliminan las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular varias cintas). Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean tablas en el disco para diferentes tareas, lo que se conoce como Spool (Simultáneos Peripherial Operation On-Line).
Sistemas Operativos Multiprogramados
Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a los problemas de rendimiento:
Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos.
Se pueden mantener en memoria varios programas.
Se asigna el uso de la CPU a los diferentes programas en memoria.
Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas tareas, naciendo lo que se denomina como Sistemas Operativos Multiprogramados, los cuales cumplen con las siguientes funciones:
Administrar la memoria.
Gestionar el uso de la CPU (planificación).
Administrar el uso de los dispositivos de E/S.
Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.






Llamadas al sistema operativo.

Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.
Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es el interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:
Las llamadas correspondientes deben tener el mismo formato.
Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.
Modos de ejecución en un CPU
Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el SO, tiene que poder utilizar todo el juego de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de operación diferentes:
Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.
Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones.
Llamadas al Sistema
Una aplicación, normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se codifica como una llamada de función, cualquier cambio en el SO haría que hubiera que reconstruir la aplicación.
Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Con lo que hay que conseguir llamar a la rutina de servicio, sin tener que conocer su ubicación, y hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno).
Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido, distintas de las que se usan para las llamadas de función.


Bibliotecas de interfaz de llamadas al sistema
Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel, por ello se crean las bibliotecas de interfaz, que son bibliotecas de funciones que pueden usarse para efectuar llamadas al sistema. Las hay para distintos lenguajes de programación.
La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa función es la que realmente hace la llamada al sistema.
Interrupciones y excepciones
El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. No se limita a utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al sistema, pudiendo deberse estas llamadas a dos condiciones:
Algún dispositivo de E/S necesita atención.
Se ha producido una situación de error al intentar ejecutar una instrucción del programa (normalmente de la aplicación).
En ambos casos, la acción realizada no está ordenada por el programa de aplicación, es decir, no figura en el programa.
Según los dos casos anteriores tenemos las interrupciones y la excepciones:
Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de la que se estaba ocupando, ya ha terminado.
Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción, que requiere tratamiento por parte del SO.
Tratamiento de las interrupciones
Una interrupción se trata en todo caso, después de terminar la ejecución de la instrucción en curso.
El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción, ante la cual debe poder identificar el dispositivo que la ha causado.



Importancia de las interrupciones
El mecanismo de tratamiento de las interrupciones permite al SO utilizar la CPU en servicio de una aplicación, mientras otra permanece a la espera de que concluya una operación en un dispositivo de E/S.
El hardware se encarga de avisar al SO cuando el dispositivo de E/S ha terminado y el SO puede intervenir entonces, si es conveniente, para hacer que el programa que estaba esperando por el dispositivo, se continúe ejecutando.
En ciertos intervalos de tiempo puede convenir no aceptar señales de interrupción. Por ello las interrupciones pueden inhibirse por programa (aunque esto no deben poder hacerlo las mismas).
Excepciones
Cuando la CPU intenta ejecutar una instrucción incorrectamente construida, la unidad de control lanza una excepción para permitir al SO ejecutar el tratamiento adecuado. Al contrario que en una interrupción, la instrucción en curso es abortada. Las excepciones al igual que las interrupciones deben estar identificadas.
Clases de excepciones
Las instrucciones de un programa pueden estar mal construidas por diversas razones:
El código de operación puede ser incorrecto.
Se intenta realizar alguna operación no definida, como dividir por cero.
La instrucción puede no estar permitida en el modo de ejecución actual.
La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus permisos de uso.
Importancia de las excepciones
El mecanismo de tratamiento de las excepciones es esencial para impedir, junto a los modos de ejecución de la CPU y los mecanismos de protección de la memoria, que las aplicaciones realicen operaciones que no les están permitidas. En cualquier caso, el tratamiento específico de una excepción lo realiza el SO.
Como en el caso de las interrupciones, el hardware se limita a dejar el control al SO, y éste es el que trata la situación como convenga.
Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba ejecutando cuando se produjo la excepción, sino que el SO aborte la ejecución de ese programa. Este factor depende de la pericia del programador para controlar la excepción adecuadamente.
Componentes de un sistema operativo
Gestión de procesos
Un proceso es simplemente, un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU, memoria, archivos y dispositivos de E/S. El SO es el responsable de:
Crear y destruir los procesos.
Parar y reanudar los procesos.
Ofrecer mecanismos para que se comuniquen y sincronicen.
La gestión de procesos podría ser similar al trabajo de oficina. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta, media, baja por ejemplo. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las de prioridad media y después las de baja. Una vez realizada la tarea se tacha. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. y permanezcan en la lista para siempre. Para solucionar esto, se puede asignar alta prioridad a las tareas más antiguas.
Gestión de la memoria principal
La Memoria (informática) es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. Este almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S, es volátil y pierde su contenido en los fallos del sistema. El SO es el responsable de:
Conocer qué partes de la memoria están utilizadas y por quién.
Decidir qué procesos se cargarán en memoria cuando haya espacio disponible.
Asignar y reclamar espacio de memoria cuando sea necesario.
Gestión del almacenamiento secundario
Un sistema de almacenamiento secundario es necesario, ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. También es necesario mantener los datos que no convenga mantener en la memoria principal. El SO se encarga de:
Planificar los discos.
Gestionar el espacio libre.
Asignar el almacenamiento.
El sistema de E/S
Consiste en un sistema de almacenamiento temporal (caché), una interfaz de manejadores de dispositivos y otra para dispositivos concretos. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S.
Sistema de archivos
Los archivos son colecciones de información relacionada, definidas por sus creadores. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes, textos, información de bases de datos, etc. El SO es responsable de:
Construir y eliminar archivos y directorios.
Ofrecer funciones para manipular archivos y directorios.
Establecer la correspondencia entre archivos y unidades de almacenamiento.
Realizar copias de seguridad de archivos.
Existen diferentes Sistemas de Archivos, es decir, existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. Por ejemplo, existen los sistemas de archivos FAT, FAT32, EXT2, NTFS...
Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista, sin embargo, existen diferencias muy importantes. Por ejemplo, los sistemas de ficheros FAT32 y NTFS , que se utilizan fundamentalmente en sistemas operativos de Microsoft, tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32 está limitado a 4 gigabytes sin embargo en un sistema NTFS el tamaño es considerablemente mayor.
Sistemas de protección
Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. El SO se encarga de:
Distinguir entre uso autorizado y no autorizado.
Especificar los controles de seguridad a realizar.
Forzar el uso de estos mecanismos de protección.
Sistema de comunicaciones
Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información, y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente.
Programas de sistema
Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. Ofrecen un entorno útil para el desarrollo y ejecución de programas, siendo algunas de las tareas que realizan:
Manipulación y modificación de archivos.
Información del estado del sistema.
Soporte a lenguajes de programación.
Comunicaciones.
Gestor de recursos
Como gestor de recursos, el Sistema Operativo administra
La CPU (Unidad Central de Proceso, donde está alojado el microprocesador).
Los dispositivos de E/S (entrada y salida)
La memoria principal (o de acceso directo).
Los discos (o memoria secundaria).
Los procesos (o programas en ejecución).
...
y en general todos los recursos del sistema.





Características del sistema operativo.

Administración de tareas
Mono tarea: Solamente puede ejecutar un proceso (aparte de los procesos del propio S.O.) en un momento dado. Una vez que empieza a ejecutar un proceso, continuará haciéndolo hasta su finalización y/o interrupción.
Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Este tipo de S.O. normalmente asigna los recursos disponibles (CPU, memoria, periféricos) de forma alternada a los procesos que los solicitan, de manera que el usuario percibe que todos funcionan a la vez, de forma concurrente.

Administración de usuarios
Mono usuario: Si sólo permite ejecutar los programas de un usuario al mismo tiempo.
Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus programas, accediendo a la vez a los recursos de la computadora. Normalmente estos sistemas operativos utilizan métodos de protección de datos, de manera que un programa no pueda usar o cambiar los datos de otro usuario.
Manejo de recursos
Centralizado: Si permite utilizar los recursos de una sola computadora.
Distribuido: Si permite utilizar los recursos (memoria, CPU, disco, periféricos... ) de más de una computadora al mismo tiempo.








Software de aplicación.


Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (p.ej. internet y toda su estructura lógica)
Videojuegos
Software médico
Software de Cálculo Numérico y simbólico.
Software de Diseño Asistido (CAD)
Software de Control Numérico (CAM)