jueves, 30 de octubre de 2008

red WAN

Una red de área amplia, WAN, acrónimo de la expresión en idioma inglés ‘Wide Area Network’, es un tipo de red de computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km, dando el servicio a un país o un continente. Un ejemplo de este tipo de Redes sería RedIRIS, Internet o cualquier red en la cual no estén en un mismo edificio todos sus miembros (sobre la distancia hay discusión posible).

Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes.

Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de Redes privadas WAN se ha reducido drásticamente mientras que las VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente.

Normalmente la WAN es una red punto a punto, es decir, red de paquete conmutado. Las Redes WAN pueden usar sistemas de comunicación vía satélite o de radio. Fue la aparición de los portátiles y los PDA´s la que trajo el concepto de Redes inalámbricas.

Una red de área amplia o WAN (Wide Area Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de Redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí. Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continua. Por esta razón también se dice que las Redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro. A diferencia de las Redes LAN (siglas de “local area network”, es decir, “red de área local”), la velocidad a la que circulan los datos por las Redes WAN suele ser menor que la que se puede alcanzar en las Redes LAN. Además, las Redes LAN tienen carácter privado, pues su uso está restringido normalmente a los usuarios miembros de una empresa, o institución, para los cuales se diseñó la red.

La infraestructura de Redes WAN la componen, además de los nodos de conmutación, líneas de transmisión de grandes prestaciones, caracterizadas por sus grandes velocidades y ancho de banda en la mayoría de los casos. Las líneas de transmisión (también llamadas “circuitos”, “canales” o “troncales”) mueven información entre los diferentes nodos que componen la red.

Los elementos de conmutación también son dispositivos de altas prestaciones, pues deben ser capaces de manejar la cantidad de tráfico que por ellos circula. De manera general, a estos dispositivos les llegan los datos por una línea de entrada, y este debe encargarse de escoger una línea de salida para reenviarlos. A continuación, en la Figura 1, se muestra un esquema general de los que podría ser la estructura de una WAN. En el mismo, cada host está conectada a una red LAN, que a su vez se conecta a uno de los nodos de conmutación de la red WAN. Este nodo debe encargarse de encaminar la información hacia el destino para la que está dirigida.

Antes de abordar el siguiente tema, es necesario que quede claro el término conmutación, que pudiéramos definirlo como la manera en que los nodos o elementos de interconexión garantizan la interconexión de dos sistemas finales, para intercambiar información.

Características

* Posee máquinas dedicadas a la ejecución de programas de usuario (hosts)
* Una subred, donde conectan uno o varios hosts.
* División entre líneas de transmisión y elementos de conmutación (enrutadores)
* Usualmente los routers son computadoras de las subredes que componen la WAN.

LAN

Permite la comunicación entre diferentes aparatos conectados entre si y también permite compartir recursos entre dos o más equipos (discos duros, CD-ROM, impresoras, y otros). A las tarjetas de red también se les llama adaptador de red o NIC (Network Interfase Card, Tarjeta de Interfaz de Red en español). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring), pero actualmente el más común es del tipo Ethernet utilizando un interfaz o conector RJ-45.
Aunque el término tarjeta de red se suele asociar a una tarjeta de expansión insertada en una ranura interna de un ordenador o impresora, se suele utilizar para referirse también a dispositivos embebidos en la placa madre del equipo, como las interfaces presentes en la videoconsola Xbox o los modernos notebooks. Igualmente se usa para expansiones con el mismo fin que en nada recuerdan a la típica tarjeta con chips y conectores soldados, como la interfaz de red para la Sega Dreamcast, las PCMCIA, o las tarjetas con conector y factor de forma CompactFlash y Secure Digital SIO utilizados en PDAs
Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC (no confundir con Apple Macintosh). Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE). Los tres primeros octetos del número MAC son conocidos como OUI e identifican a proveedores específicos y son designados por la IEEE.
Se denomina también NIC al chip de la tarjeta de red que se encarga de servir como interfaz de Ethernet entre el medio físico (por ejemplo un cable coaxial) y el equipo (por ejemplo un ordenador personal o una impresora). Es un chip usado en computadoras o periféricos tales como las tarjetas de red, impresoras de red o sistemas embebidos para conectar dos o más dispositivos entre sí a través de algún medio, ya sea conexión inalámbrica , cable UTP, cable coaxial, fibra óptica.
La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que permite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.
Tarjeta de red

miércoles, 29 de octubre de 2008

Disco Duro

Es un dispositivo de almacenamiento no volátil, es decir conserva la información que le ha sido almacenada de forma correcta aun con la perdida de energía, emplea un sistema de grabación magnética digital, es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. En este tipo de disco se encuentra dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Existen distintos tipos de interfaces las más comunes son: Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.
También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 64 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.
Historia
El primer disco duro 1956 fue el IBM 3501, con una capacidad alta de concentrar los bytes de manera que la placa base se convierte en algo más. Entre el primer disco duro, el Ramac I, introducido por IBM en 1956, y los minúsculos discos duros actuales, la evolución ha sido hasta más dramática que en el caso de la densidad creciente de los transistores, gobernada por la ley de Moore.
El Ramac I pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas al vacío y requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso a un dato no dependía de la ubicación física del mismo. En las cintas magnéticas, en cambio, para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos por años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grunberg (ambos premio Nobel de Física, por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, permitió construir cabezales de lectura y grabación más sensitivos, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento vigoroso en la capacidad de almacenamiento en los discos duros, que se elevó a 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado los 40.000 MB o 40 gigabytes (GB). En la actualidad, ya nos acercamos al uso cotidiano de los discos duros con más de un terabyte (TB) o millón de megabytes.


Características de un disco duro
Las características que se deben tener en cuenta en un disco duro son:
Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista) y la Latencia media (situarse en el sector).
Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja esta situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.
Otras características son:
Caché de pista: Es una memoria tipo RAM dentro del disco duro. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio.
Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATA, SCSI, SATA, USB, Firewire, SAS
Landz: Zona sobre las que aterrizan las cabezas una vez apagada la computadora.
Presente y Futuro
Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), lo cuales hacen un uso más eficiente de la energía. Se está empezando a observar que la Unidad de estado sólido es posible que termine sustituyendo al disco duro a largo plazo.
Fabricantes
Western Digital
Seagate
Maxtor que pasa a ser de Seagate.
Samsung
Hitachi
Fujitsu
Quantum Corp.
Toshiba


Estructura física

Cabezal de lectura/escritura
Dentro de un disco duro hay varios platos (entre 2 y 4), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.
Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros) ó 3 millonésimas de milímetro. Si alguna llega a tocarlo, causaría muchos daños en el disco, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.500 revoluciones por minuto se mueve a 120 km/h en el borde).



Direccionamiento

Cilindro, Cabeza y Sector

Pista, Sector, Cluster
Hay varios conceptos para referirse a zonas del disco:
Palo: Cada uno de las discos que hay dentro del disco duro.
jeta: Cada uno de los dos lados de un palo
melón: Número de cabezales;
Pista: pista de baile (dance floor-vease también Arctic Monkeys-I bet that you look good on the dancefloor)
Tubo: Conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
Sector : Cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y usa más eficientemente el disco duro.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Este es el que actualmente se usa.
IDE: Integrated Device Electronics, "Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace bien poco, el estándar principal por su versatilidad y relación calidad/precio.
SCSI: Son discos duros de gran capacidad de almacenamiento (desde 5 GB hasta 23 GB). Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos CSI Las Vegas y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2).
Un controlador CSI Miami puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos.
SATAN (Serial ATANaaaa): Nuevo stándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATAn 1 de hasta 1.5 Gb/s (150 MB/s) y yuoibb[[Título del enlace]]2 de hasta 3.0 Gb/s (300 MB/s) de velocidad de transferencia.
Estructura lógica
Dentro del disco se encuentran:
El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.
Las particiones, necesarias para poder colocar los sistemas de archivos.



Funcionamiento de los discos duros

El disco duro por dentro
Un disco duro consiste básicamente en uno más platos giratorios impulsados por un motor eléctrico. Estos platos son construidos habitualmente de aluminio o de vidrio y recubiertos por una capa magnética. Sobre esta superficie magnética se sitúa "flotando" un cabezal capaz de cambiar la polaridad de pequeños sectores -compuestos por unos pocos cientos de granos magnéticos- representando así, según la polaridad, unos y ceros que unidos conforman los datos almacenados. Esta misma cabeza es capaz de leer los datos previamente grabados en el disco. El cabezal es movido sobre los platos por un brazo móvil, permitiéndole así acceso a prácticamente cualquier punto de la superficie magnética. Podemos imaginar la información almacenada en el disco duro asemejándola a la manera en que se graba música en discos de vinilo, con la diferencia de que los discos rígidos almacenan la información en círculos concéntricos en vez de hacerlo en una sola pista en espiral como es el caso de los discos de vinilo. Los discos duros se venden completamente sellados para proteger sus mecanismos internos de los efectos del polvo, humedad y otras fuentes de contaminación.

En los discos más modernos, el eje giratorio puede contener más de un plato, y cada plato puede contener material magnético en ambas caras, asignándose a cada una de estas caras un cabezal independiente, aumentando de este modo la capacidad del disco y la velocidad de acceso a los datos. Adicionalmente los cabezales consisten en dos cabezas unidad al mismo brazo, una especializada en leer y la otra en grabar datos.

Funcionamiento mecánico

Piezas de un disco duro
Un disco duro suele tener:
Platos en donde se graban los datos,
Cabezal de lectura/escritura,
Motor que hace girar los platos,
Electroimán que mueve el cabezal,
circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché,
Bolsita desecante (gel de sílice) para evitar la humedad,
Caja, que ha de proteger de la suciedad (aunque a veces no está al vacío)
Tornillos, a menudo especiales.

Clases de Bus

Hay tres clases de buses: bus de datos, bus de direcciones y bus de control. Una placa base tipo ATX tiene tantas pistas eléctricas destinadas a buses, como anchos sean los Canales de Buses del Microprocesador de la CPU: 64 para el Bus de datos y 32 para el Bus de Direcciones. El "ancho de canal" explica la cantidad de bits que pueden ser transferidos simultáneamente. Así, el Bus de datos transfiere 8 bytes a la vez.
Así, el Canal de Direcciones del Microprocesador para una PC-ATX puede "direccionar" más de 4 mil millones de combinaciones diferentes para el conjunto de 32 bits de su bus.
Bus de datos
Mueve los datos entre los dispositivos del hardware de Entrada como el teclado, el ratón, etc.; de salida como la Impresora, el Monitor; y de Almacenamiento como el Disco Duro, el Disquete o la Memoria-Flash. Estas transferencias que se dan a través del Bus de Datos son gobernadas por varios dispositivos y métodos, de los cuales el Controlador PCI, "Peripheral Component Interconnect", Interconexión de componentes Periféricos, es uno de los principales. Su trabajo equivale, simplificando mucho el asunto, a una central de semáforos para el tráfico en las calles de una ciudad.
Bus de direcciones
El Bus de Direcciones, por otra parte, está vinculado al bloque de Control de la CPU para tomar y colocar datos en el Sub-sistema de Memoria durante la ejecución de los procesos de cómputo.
Para el Bus de Direcciones, el "ancho de canal" explica así mismo la cantidad de ubicaciones o Direcciones diferentes que el microprocesador puede alcanzar. Esa cantidad de ubicaciones resulta de elevar el 2 a la 32ª potencia. "2" porque son dos las señales binarias, los bits 1 y 0; y "32ª potencia" porque las 32 pistas del Bus de Direcciones son, en un instante dado, un conjunto de 32 bits. Nos sirve para calcular la capacidad de memoria en el CPU.
Bus de control
Este bus transporta señales de estado de las operaciones efectuadas por la CPU. El método utilizado por el ordenador para sincronizar las distintas operaciones es por medio de un reloj interno que posee el ordenador y facilita la sincronización y evita las colisiones de operaciones (unidad de control).Estas operaciones se transmiten en un modo bidireccional.

martes, 21 de octubre de 2008

Servidores Google

Servidores de Google

S. BASCO | MADRID
Viernes, 19-09-08

Nadie sabe a ciencia cierta de cuántos servidores dispone Google, el motor de búsqueda por excelencia en internet, para dar servicio a centenares de millones de internautas a escala planetaria. Las estimaciones sobre el número de sus servidores oscilan entre los 450.000 y un millón, cifra esta última aportada por Gartner Group, una de las consultoras más fiables en el campo de las nuevas tecnologías.
Aparentemente, Google comenzó a comprar procesadores AMD Opteron para prácticamente todos sus nuevos servidores. La decisión no sería una cuestión de poder de computación, sino de consumo de energia. Google tiene en este momento una base instalada de 200.000 servidores alrededor de todo el mundo.
http/:www.mografias.com
Todo esto viene a razón de la cantidad de servidores que tienen esparcidos por el mundo. Si bien no se conoce su cantidad exacta el periodista de Cnet lo estimó con datos que ya se conocen. Google posee 36 Data Center en todo el mundo, cada uno de ellos posee 150 racks de servidores, y en cada uno de esos racks hay 40 servidores. Eso nos da la cifra de 216000 servidores, una cantidad impresionante que según Cnet debe ser bastante mayor.

martes, 14 de octubre de 2008

Estructura E/S

2.2. ESTRUCUTURA DE E/S.

· Un sistema de computo de una CPU y varios controladores de dispositivos que están conectados mediante un bus común.
· La interfaz de computo pequeños pueden estar conectados a siete ó más dispositivos.
· El controlador es un dispositivo de almacenamiento de buffer local y un conjunto de registro de propósito especial, este controlador es responsable de mover los datos entre los dispositivos periféricos que controla y su buffer local.
· El tamaño del buffer varía de un controlador a otro.

2.2.1. INTERRUPCIONES DE E/S.

· Al iniciar una operación de E/S, la CPU carga los registros apropiados dentro del manejador de dispositivos y también el controlador examina los contenidos de éstos registros y así determinar que acción tomar.
· Después que se inicia la operación E/S hay dos caminos a seguir:
1. Se inicia la operación de E/S; luego al terminarla el control se regresa al proceso de usuario. Este caso se conoce como E/S sincrónica.
2. Regresa el control al programa del usuario sin esperar que se complete la operación de E/S. Ésta operación puede continuar mientras ocurren otras operaciones en el sistema. Este caso se denomina como E/S asincrónica.

Estructura de los Sistemas Operativos y Web

Multitarea: es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. En ocasiones se utiliza como sinónimo de multiproceso, aunque estrictamente hablando se trata de procedimientos diferentes, que en el caso de disponer de capacidad de multiproceso son complementarios.

Multiprocesamiento: se denomina así al funcionamiento de dos o más procesadores en un ordenador o computadora, o a dos o más ordenadores procesando juntos. Se utiliza para cálculos intensivos, cuando se quiere obtener una alta velocidad de proceso o cuando las computadoras se someten a una gran carga de trabajo. Se diferencia de la multitarea en que ésta se refiere a un ordenador que trabaja con varios programas al mismo tiempo, mientras que el multiproceso se refiere a varios ordenadores o procesadores que trabajan en una misma tarea. Un sistema puede ser a la vez multitarea y multiproceso.


La multiprogramación se apoya en varios elementos del hardware: la
interrupción, el DMA y el canal. En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el programa en ejecución (es decir, el que ocupa la CPU) realiza una operación de E/S, emite ciertas órdenes al controlador (al igual que en los sistemas monoprogramados); pero en lugar de esperar a que termine la operación de E/S comprobando el bit de ocupación, se pasa a ejecutar otro programa. Si este nuevo programa realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro programa. Esto permite que varios dispositivos trabajen simultáneamente, además, en la CPU no se tienen que ejecutar ciclos de comprobación del estado de los dispositivos.

Multiusuario: después de la aparición de la multiprogramación surgieron los ordenadores de acceso múltiple o multiusuario. En ellos cada usuario dispone de un terminal, es decir, un teclado y una pantalla conectados al ordenador. Los usuarios ejecutan programas interactivos. Un programa interactivo es aquel que se comunica con el usuario por medio de un terminal, el usuario le suministra información al programa mediante el teclado, y recibe información del programa a través de la pantalla. Los programas de los usuarios comparten los recursos (CPU, memoria, discos, impresoras, etc.) del ordenador. Estos sistemas hacen uso de una variante de la multiprogramación llamada tiempo compartido.

Estructura de un sistema operativo
Veremos brevemente algunas
estructuras de diseños de sistemas operativos.
Estructura Modular:
También llamados sistemas monolíticos. Este tipo de
organización es con mucho la mas común; bien podría recibir el subtitulo de "el gran embrollo". La estructura consiste en que no existe estructura alguna. El sistema operativo se escribe como una colección de procedimientos, cada uno de los cuales puede llamar a los demás cada vez que así lo requiera. Cuando se usa esta técnica, cada procedimiento del sistema tiene una interfaz bien definida en términos de parámetros y resultados y cada uno de ellos es libre de llamar a cualquier otro, si este ultimo proporciona cierto cálculo útil para el primero. Sin embargo incluso en este tipo de sistemas es posible tener al menos algo de estructura. Los servicios (llamadas al sistema) que proporciona el sistema operativo se solicitan colocando los parámetros en lugares bien definidos, como en los registros o en la pila, para después ejecutar una instrucción especial de trampa de nombre "llamada al núcleo" o "llamada al supervisor".

Estructura po
r anillos concéntricos (capas):

El sistema por "capas" consiste en organizar el sistema operativo como una jerarquía de capas, cada una construida sobre la inmediata inferior. El primer sistema construido de esta manera fue el sistema THE (Technische Hogeschool Eindhoven), desarrollado en Holanda por E. W. Dijkstra (1968) y sus estudiantes.

El sistema tenia 6 capas, como se muestra en la figura 3. La capa 0 trabaja con la asignación del
procesador y alterna entre los procesos cuando ocurren las interrupciones o expiran los cronómetros. Sobre la capa 0, el sistema consta de procesos secuénciales, cada uno de los cuales se podría programar sin importar que varios procesos estuvieran ejecutándose en el mismo procesador, la capa 0 proporcionaba la multiprogramación básica de la CPU.
La capa 1 realizaba la
administración de la memoria. Asignaba el espacio de memoria principal para los procesos y un recipiente de palabras de 512K se utilizaba para almacenar partes de los procesos (páginas) para las que no existía lugar en la memoria principal. Por encima de la capa 1, los procesos no debían preocuparse si estaban en la memoria o en el recipiente; el software de la capa 1 se encargaba de garantizar que las páginas llegaran a la memoria cuando fueran necesarias.
La capa 2 se encargaba de
la comunicación entre cada proceso y la consola del operador. Por encima de esta capa, cada proceso tiene su propia consola de operador.
La capa 3 controla los dispositivos de E/S y guarda en
almacenes (buffers) los flujos de información entre ellos. Por encima de la capa 3, cada proceso puede trabajar con dispositivos exactos de E/S con propiedades adecuadas, en vez de dispositivos reales con muchas peculiaridades.
La capa 4 es donde estaban los programas del usuario, estos no tenían que preocuparse por el proceso, memoria, consola o control de E/S.
el proceso operador del sistema se localizaba en la capa 5.Una generalización mas avanzada del
concepto de capas se presento en el sistema MULTICS. En lugar de capas, MULTICS estaba organizado como una serie de anillos concéntricos, siendo los anillos interiores los privilegiados. Cuando un procedimiento de un anillo exterior deseaba llamar a un procedimiento de un anillo interior, debió hacer el equivalente a una llamada al sistema.
Mientras que el esquema de capas de THE era en realidad un apoyo al
diseño, debido a que todas las partes del sistema estaban ligadas entre si en un solo programa objeto, en MULTICS, el mecanismo de anillos estaba mas presente durante el tiempo de ejecución y era reforzado por el hardware. La ventaja del mecanismo de anillos es su facilidad de extensión para estructurar subsistemas del usuario.

5 El operador
4 Programas del usuario
3 Control de entrada/salida
2 Comunicación operador-proceso
1 Administración de la memoria y del disco
0 Asignación del procesador y multiprogramación

Estructura
cliente – servidor
Una tendencia de los sistemas operativos modernos es la de explotar la idea de mover el código a capas superiores y eliminar la mayor parte posible del sistema operativo para mantener un núcleo mínimo. El punto de vista usual es el de implantar la mayoría de las funciones del sistema operativo en los procesos del usuario. Para solicitar un servicio, como
la lectura de un bloque de cierto archivo, un proceso del usuario (denominado proceso cliente) envía la solicitud a un proceso servidor, que realiza entonces el trabajo y regresa la respuesta. En este modelo, que se muestra en la figura 4, lo único que hace el núcleo es controlar la comunicación entre los clientes y los servidores. Al separar el sistema operativo en partes, cada una de ellas controla una faceta del sistema, como el servicio a archivos, servicios a procesos, servicio a terminales o servicio a la memoria, cada parte es pequeña y controlable. Además como todos los servidores se ejecutan como procesos en modo usuario y no en modo núcleo, no tienen acceso directo al hardware.

Sistemas Operativos Web: es decir que se ejecutan online desde un navegador, no requieren ninguna instalación en el sistema operativo, son multiplataforma y algunos permiten un espacio de alojamiento extra para nuestros documentos, recursos y demás archivos con los que podamos trabajar normalmente.
En los años 60 y 70 (antes incluso) la mayoría de las aplicaciones corrían en grandes servidores y
mainframes, donde los usuarios ejecutaban de forma remota las aplicaciones en terminales virtuales.
La importancia de estos Sistemas Operativos Web se ve cada día más en el mundo de los blogs. Muchas de las más importantes bitácoras vienen observando como un número muy creciente de visitas acceden desde estos lugares.