jueves, 15 de noviembre de 2012

HERRAMIENTAS DE LIMPIEZA PARA PC


En esta sección del manual de limpieza y mantenimiento de computadoras vamos a enlistar cuáles son las herramientas y materiales que se requieren para llevar a cabo el mantenimiento preventivo mas adelante también mencionaremos cuáles son las medidas de seguridad que se deben tomar en cuenta. Puesto que tendrás que abrir el gabinete, será necesario: Una pulsera antiestática, y en la gran mayoría de los casos con un destornillador para retirar la tapa del gabinete bastará.


  • Paño para limpiar, que no suelte pelusa preferentemente de microfibra (No usar toallas de papel).
  • Agua.
  • Solución de limpieza suave que no contenga ningún tipo de solventes.
  • Producto para limpiar vidrios (no utilizar en monitores LCD).
  • Algodón o un pedazo de esponja (preferible la esponja, ya que no suelta pelusa).
  • Aspiradora de mano o lata de aire comprimido.
  • Pequeños pinceles (como los utilizados para óleo) para desalojar la suciedad en áreas estrechas y lugares de difícil acceso.
  • Isotopos de algodón


Precauciones antes de limpiar la computadora
Es indispensable que antes de continuar con el procedimiento tomes en cuenta los pasos siguientes, de lo contrario puedes dañar seriamente tu equipo y no solo eso, tambien existe el riesgo de que pierdas información valiosa. Personalmente también sugiero que planees el día que pretendas darle mantenimiento y evitar que te veas apresurado y termines derramando algún liquido o algo por el estilo.
A continuación se enlistan algunos puntos que debes de tomar en cuenta:


  • Asegúrate de desconectar la computadora del tomacorrientes antes de proceder con la limpieza y mantenimiento de la computadora
  • Utiliza los paños de limpieza únicamente para limpiar el exterior de la computadora.
  • Nunca apliques soluciones limpiadoras o productos en aerosol directamente sobre el monitor. Aplica un poco sobre el paño o la esponja, En caso que tu monitor sea LCD utiliza solo agua.
  • No utilices limpiadores a base de amoniaco, limpiadores fuertes o que contengan solventes ya que estos compuestos químicos pueden reaccionar con el plástico del gabinete de tu computadora o de algún otro elemento.
  • Puedes utilizar una aspiradora estándar para limpiar el exterior de tu computadora, pero para el interior de la misma utiliza una aspiradora de mano o de preferencia aire comprimido. Las aspiradoras estándar producen una gran cantidad de electricidad estática que puede dañar fácilmente los componentes que se encuentran dentro del gabinete, así que procura utilizarla con extremo cuidado.
  • Asegúrate de portar la pulsera antiestática cuando te dispongas a limpiar el interior del ordenador
  • Si utilizas aire comprimido, mantén la lata en posición vertical cuando la utilices, de no hacerlo algunas sustancias contenidas dentro del envase pueden derramarse y dañar algún elemento. También es recomendable el uso de una mascarilla para cubrirse del polvo y si es posible hacer la limpieza en el exterior o al menos en un lugar con buena ventilación.



Preparación previa al mantenimiento de la computadora





Nuevamente hacemos hincapie en desconectar todos los cables que van a los tomacorrientes y los distintos cables de los periféricos de tu ordenador; pon el equipo sobre una superficie lisa y limpia, cuida que no haya ningún líquido derramado sobre la superficie.
Es indispensable que cada que tengas pensado dar un poco de mantenimiento preventivo o mantenimiento correctivo a la computadora, o que desees realizar una limpieza del interior de la PC utilices la pulsera antiestática. Utiliza únicamente limpiadores suaves o agua para limpiar las superficies del gabinete y el monitor. Es recomendable que consultes la documentación de tu equipo para cualquier instrucción de limpieza del fabricante del monitor CRT o LCD o algún otro componente de tu ordenador.

Estas son algunas imagenes de herramientas para mantenimiento












martes, 30 de octubre de 2012

¿QUE ES MONITOR? 

un monitor es un periférico  de salida que muestra la información  de forma gráfica de una computadora. Los monitores se conectan a la computadora a través de una tarjeta gráfica (o adaptador o tarjeta de vídeo).

Un monitor puede clasificarse, según la tecnología empleada para formar las imágenes en: LCD, CRT,plasma o TFT.


En tanto, según el estándar, un monitor puede clasificarse en: Monitor numérico, MDA, CGA, EGA, analógico, VGA, SVGA, entro otros.


En cuanto a los colores que usan los monitores pueden ser monocromáticos o policromáticos.


Existen algunos conceptos cuantificables relacionados a los monitores y sirven para medir su calidad, estos son: píxel, paso (dot pitch), resolución, tasa de refresco, dimensión del tubo, tamaño de punto,área útil.




¿QUE ES TECLADO?


En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127 teclas aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como ImprPant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePág, AvPág, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o Enter.


¿QUE ES MOUSE?


El ratón o mouse (del inglés, pronunciado [maʊs] en esa lengua) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en una computadora. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.



¿QUE ES SCANNER?

Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital. El scanner nace en 1984 cuando Microtek crea el MS-200, el primer scanner blanco y negro que tenia una resolución de 200dpi. Este scanner fue desarrollado para Apple Macintosh. Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción con sus respectivas ventajas y desventajas.



¿QUE ES FAX?

Fax (abreviación de facsímil), a veces llamado tele copia, es la transmisión telefónica de material escaneado impreso (tanto texto como imágenes), normalmente a un número de teléfono conectado a una impresora o a otro dispositivo de salida. El documento original es escaneado con una máquina de fax, que procesa los contenidos (texto o imágenes) como una sola imagen gráfica fija, convirtiéndola en un mapa de bits, la información se transmite como señales eléctricas a través del sistema telefónico. El equipo de fax receptor reconvierte la imagen codificada, y la imprime en papel. Antes del triunfo de la tecnología digital, durante muchas décadas, los datos escaneados se transmiten como señal analógica.
Aunque las empresas suelen mantener algún tipo de función de fax, la tecnología se ha enfrentado a la creciente competencia de las alternativas basadas en Internet. Las máquinas de fax todavía conservan algunas ventajas, sobre todo en la transmisión de material sensible que, si se envían sin cifrar a través de Internet, pueden ser vulnerables a la interceptación, sin necesidad de escucha telefónica. En algunos países, ya que la firma electrónica en los contratos no son reconocidos por la ley mientras que los contratos enviados por fax con las copias de las firmas lo son, las máquinas de fax siguen siendo una constante en los negocios.
En muchos entornos corporativos, las máquinas de fax independientes han sido sustituidos por servidores de fax y otros sistemas informáticos capaces de recibir y almacenar electrónicamente los faxes entrantes y, a continuación de enviarlo a los destinatarios como papel, copia en una cola de impresión o mediante un correo electrónico (que puede securizarse). Tales sistemas tienen la ventaja de reducir los costes mediante la eliminación de las impresiones innecesarias y reduciendo el número de líneas telefónicas entrantes necesarias para una oficina.


¿QUE ES LÁPIZ ÓPTICO?

El lápiz óptico es un periférico de entrada para computadoras, tomando en la forma de una varita fotosensible, que puede ser usado para apuntar a objetos mostrados en un televisor de CRT o un monitor, en una manera similar a una pantalla táctil pero con mayor exactitud posicional. Este periférico es habitualmente usado para sustituir al mouse o, con menor éxito, a la tableta digitalizadora. Está conectado a un cable eléctrico y requiere de un software especial para su funcionamiento. Haciendo que el lápiz toque el monitor el usuario puede elegir los comandos de los programas (el equivalente a un clic del mouse), bien presionando un botón en un lado del lápiz óptico o presionando éste contra la superficie de la pantalla.
Se creía hace mucho tiempo que este periférico podría funcionar con cualquiera pantalla basada en CRT, pero no con las pantallas de cristal líquido, los proyectores, u otros dispositivos de visualización. Sin embargo, en 2011, Fairlight Instruments lanzó su Fairlight CMI-30A, que use un monitor LCD de 17 pulgadas, controlable con lápices ópticos.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, la computadora puede determinar la posición del lápiz en la pantalla. El lápiz no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.
El lápiz óptico fue creado en 1952 como parte de la Computadora Whirlwind, desarrollado por el Instituto Tecnológico de Massachusetts. Se hizo bastante popular durante los años 1980, cuando se utilizó en el Fairlight CMI y el BBC Micro. El lápiz óptico fue compatible también con varios tarjetas gráficas de los IBM PCs, incluyendo el Color Graphics Adapter (CGA), el Hercules Graphics Card (HGC), y el Enhanced Graphics Adapter (EGA). Desde 1984, los concursantes del concurso de televisión Jeopardy! utilizan lápices ópticos para escribir sus apuestas y respuestas en la ronda Final Jeopardy!
Porque los lápices ópticos operan mediante la detección de luz emitida por los fósforos de la pantalla, un cierto nivel de intensidad no nulo debe estar presente en la posición de las coordenadas para ser seleccionado; de lo contrario, el lápiz no se activará.







¿QUE ES PROCESADOR?


El procesador, también conocido como CPU o micro, es el cerebro del PC. Es por lo tanto el encargado tanto de ejecutar las aplicaciones como de responder al uso que hagas de los periféricos de entrada como teclado o ratón.
Físicamente, el procesador no es más que un chip, es decir una pastilla de silicio, el cual tiene unas pequeñas patitas de cobre que lo conectan directamente al socket o conector que se encuentra sobre la placa base.
Es en la placa base, también conocida como placa madre, donde gracias a los circuitos que se encuentran sobre ella, el famoso chipset, donde se conecta con todos las partes de tu equipo como la memoria RAM, la tarjeta gráfica, o el disco duro.
Hasta la aparición de las tarjetas gráficas, con función de aceleración 3D, que descargan a este de realizar ciertas tareas, no existía otro elemento que fuera capaz de realizar operaciones.
El micro es quizás el elemento de tu computadora que más ha avanzado a lo largo de los años. Gracias a la mejora en las tecnologías de fabricación, ha sido cada vez más sencillo introducir nuevas funcionalidades en estos elementos. Prácticamente, cada 2 años, los fabricantes han conseguido reducir el tamaño de los transistores a la mitad. Estos, son los bloques esenciales que componen los micros. Si reducimos el tamaño podemos incluir un mayor número de ellos en la misma área pudiendo duplicar los bloques que integramos.
El camino esta bien marcado, al final tendremos SOCs en lugar de micros que incorporaran todos los elementos de la placa base en un pequeño chip. Los fabricantes, ven cada vez más oportunidades en el mercado móvil, donde los aparatos son más pequeños y necesitan 


¿QUE ES MAINBOARD?

La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Es una parte fundamental a la hora de armar una PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.
La tarjeta madre debe realizar básicamente las siguientes tareas:
  • Conexión física.  • Administración, control y distribución de energía eléctrica.  • Comunicación de datos.  • Temporización.  • Sincronismo.  • Control y monitoreo.





¿QUE ES USB?


Una memoria USB (de Universal Serial Bus), es un dispositivo de almacenamiento que utiliza una memoria flash para guardar información. Se lo conoce también con el nombre de unidad flash USBlápiz de memorialápiz USBminidisco durounidad de memoriallave de memoria, entre otros. Los primeros modelos requerían de una batería, pero los actuales ya no. Estas memorias son resistentes a los rasguños (externos), al polvo, y algunos hasta al agua, factores que afectaban a las formas previas de almacenamiento portátil, como los disquetes, discos compactos y los DVD.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128 y hasta 256 GB. Esto supone, como mínimo, el equivalente a 180 CD de 700 MB o 91.000 disquetes de 1,44 MB aproximadamente.
Su gran éxito le ha supuesto infinidad de denominaciones populares relacionadas con su pequeño tamaño y las diversas formas de presentación, sin que ninguna haya podido destacar entre todas ellas. En España son conocidas popularmente como pinchos o lápices, y en otros países como El Salvador, Honduras, México y Guatemala son conocidas como memorias. El calificativo USB o el propio contexto permite identificar fácilmente el dispositivo informático al que se refiere; aunque siendo un poco estrictos en cuanto al concepto, USB únicamente se refiere al puerto de conexión.
Los sistemas operativos actuales pueden leer y escribir en las memorias sin más que enchufarlas a un conector USB del equipo encendido, recibiendo la energía de alimentación a través del propio conector que cuenta con 5 voltios y 2,5 vatios como máximo. En equipos algo antiguos (como por ejemplo los equipados con Windows 98) se necesita instalar un controlador de dispositivo(controlador) proporcionado por el fabricante. GNU/Linux también tiene soporte para dispositivos de almacenamiento USB desde la versión 2.4 del núcleo



¿QUE ES PCI?

Un Peripheral Component Interconnect (PCI, "Interconexión de Componentes Periféricos") es un bus de ordenador estándar para conectar dispositivos periféricos directamente a su placa base. Estos dispositivos pueden ser circuitos integrados ajustados en ésta (los llamados "dispositivos planares" en la especificación PCI) o tarjetas de expansión que se ajustan en conectores. Es común en PC, donde ha desplazado al ISA como bus estándar, pero también se emplea en otro tipo de ordenadores.
A diferencia de los buses ISA, el bus PCI permite configuración dinámica de un dispositivo periférico. En el tiempo de arranque del sistema, las tarjetas PCI y el BIOS interactúan y negocian los recursos solicitados por la tarjeta PCI. Esto permite asignación de IRQs y direcciones del puerto por medio de un proceso dinámico diferente del bus ISA, donde las IRQs tienen que ser configuradas manualmente usando jumpers externos. Las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play". Aparte de esto, el bus PCI proporciona una descripción detallada de todos los dispositivos PCI conectados a través del espacio de configuración PCI.
La especificación PCI cubre el tamaño físico del bus, características eléctricas, cronómetro del bus y sus protocolos.



¿QUE ES AGP?

Accelerated Graphics Port o AGP (en español "Puerto de Gráficos Acelerados") es una especificación de bus que proporciona una conexión directa entre el adaptador de gráficos y la memoria. Es un puerto (puesto que sólo se puede conectar un dispositivo, mientras que en el bus se pueden conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones del PCI 2.1.
El puerto AGP es de 32 bits como PCI pero cuenta con notables diferencias como 8 canales más adicionales para acceso a la memoria de acceso aleatorio (RAM). Además puede acceder directamente a esta a través del puente norte pudiendo emular así memoria de vídeo en la RAM. La velocidad del bus es de 66 MHz.
El bus AGP cuenta con diferentes modos de funcionamiento.

  • AGP 1X: velocidad 66 MHz con una tasa de transferencia de 266 MB/s y funcionando a un voltaje de 3,3V.
  • AGP 2X: velocidad 133 MHz con una tasa de transferencia de 532 MB/s y funcionando a un voltaje de 3,3V.
  • AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.
  • AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Estas tasas de transferencias se consiguen aprovechando los ciclos de reloj del bus mediante un multiplicador pero sin modificarlos físicamente..
El puerto AGP se utiliza exclusivamente para conectar tarjetas gráficas, y debido a su arquitectura sólo puede haber una ranura. Dicha ranura mide unos 8 cm y se encuentra a un lado de las ranuras PCI.
A partir de 2006, el uso del puerto AGP ha ido disminuyendo con la aparición de una nueva evolución conocida como PCI-Express, que proporciona mayores prestaciones en cuanto a frecuencia y ancho de banda. Así, los principales fabricantes de tarjetas gráficas, como ATI y nVIDIA, han ido presentando cada vez menos productos para este puerto.




¿QUE ES SATA?

Serial ATA o SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades al instante, es decir, insertar el dispositivo sin tener que apagar el ordenador o que sufra un cortocircuito como con los viejos Molex.
Actualmente es una interfaz aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar para la interfaz SATA.


¿QUE ES IDE?

 Un IDE es un entorno de programación que ha sido empaquetado como un programa de aplicación, o sea, consiste en un editor de código, un compilador, un depurador y un constructor de interfaz gráfica. Los IDEs pueden ser aplicaciones por sí solas o pueden ser parte de aplicaciones existentes. El lenguaje Visual Basic, por ejemplo, puede ser usado dentro de las aplicaciones de Microsoft Office, lo que hace posible escribir sentencias Visual Basic en forma de macros para Microsoft Word.
















¿QUE ES CPU?

La unidad central de procesamientoUCP o CPU (por el acrónimo en idioma inglés de central processing unit), o simplemente el procesador o microprocesador, es el componente principal del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Las CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con la memoria principal y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
La expresión "unidad central de proceso" es, en términos generales, un dispositivo lógico que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.
Las primeras CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.
En la actualidad muchas personas llaman CPU al armazón del computador (torre), confundiendo de esta manera a los principiantes en el mundo de la computación.





PARTES QUE COMPONEN LA CPU


1.LA UNIDAD DE LÓGICA/ARITMÉTICA (ALU)


En computación, la unidad aritmético lógica, también conocida como ALU (siglas en inglés de arithmetic logic unit), es un circuito digital que calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y operaciones lógicas (si, y, o, no), entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el sonido de la alarma, etc.
Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De hecho, un microprocesador moderno (y los mainframes) puede tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.
Muchos otros circuitos pueden contener en el interior una unidad aritmético lógica: unidades de procesamiento gráfico como las que están en las GPU NVIDIA y AMD, FPU como el viejo coprocesador matemático 80387, y procesadores digitales de señales como los que se encuentran en tarjetas de sonido Sound Blaster, lectoras de CD y los televisores de alta definición. Todos éstos tienen en su interior varias ALU potentes y complejas.

 2.LA UNIDAD DE CONTROL (CU)

La unidad de control (UC) es uno de los tres bloques funcionales principales en los que se divide una unidad central de procesamiento (CPU). Los otros dos bloques son la unidad de proceso y el bus de entrada/salida.
Su función es buscar las instrucciones en la memoria principal, decodificarlas (interpretación) y ejecutarlas, empleando para ello la unidad de proceso.
Existen dos tipos de unidades de control, las cableadas, usadas generalmente en máquinas sencillas, y las microprogramadas, propias de máquinas más complejas. En el primer caso, los componentes principales son el circuito de lógica secuencial, el de control de estado, el de lógica combinacional y el de emisión de reconocimiento de señales de control. En el segundo caso, la microprogramación de la unidad de control se encuentra almacenada en una micromemoria, a la cual se accede de manera secuencial para posteriormente ir ejecutando cada una de las microinstrucciones. Estructura del computador: Unidad aritmético-lógica (UAL o ALU por su nombre en inglés, Arithmetic Logic Unit): aquí se llevan a cabo las operaciones aritméticas y lógicas.
Por otra parte esta la unidad de control, que fue históricamente definida como una parte distinta del modelo de referencia de 1946 de la Arquitectura de von Neumann. En diseños modernos de computadores, la unidad de control es típicamente una parte interna del CPU y fue conocida primeramente como arquitectura Eckert-Mauchly. Memoria: que almacena datos y programas. Dispositivos de entrada y salida: alimentan la memoria con datos e instrucciones y entregan los resultados del cómputo almacenados en memoria. Buses: proporcionan un medio para transportar los datos e instrucciones entre las distintos elementos. La ALU, la unidad de control y algunos dispositivos de almacenamiento más rápidos y pequeños que la memoria principal (los registros), constituyen la unidad central de procesamiento (UCP o CPU por su nombre en inglés: Central Processing Unit), que hoy en día normalmente reside íntegramente en el procesador.


lunes, 29 de octubre de 2012

¿QUE ES ENSAMBLE?

Unión de varias cosas que forman parte de una cosa compleja y organizada de modo que queden bien trabadas o relacionadas entre sí

en informática, ensamblar un computador es seguir una secuencia lógica de pasos que nos llevará de tener unos componentes que por sí solos no ofrecen grandes prestaciones, a tener una máquina poderosa para desarrollar actividades relacionadas con nuestros trabajos, nuestro hogar y hasta nuestros ratos de ocio y esparcimiento. En esta sesión aprenderemos por medio de una secuencia de imágenes y de unos vídeos, la forma correcta de ensamblar un computador desde cero, como si recientemente se hubiesen comprado cada una de sus partes.



¿QUE ES MANTENIMIENTO PREVENTIVO?


En las operaciones de mantenimiento, el mantenimiento preventivo es el destinado a la conservación de equipos o instalaciones mediante realización de revisiones y reparaciones que garanticen su buen funcionamiento y fiabilidad, el mantenimiento preventivo se realiza en equipos en condiciones de funcionamiento, por oposición al mantenimiento correctivo que repara o pone en condiciones de funcionamiento aquellos que dejaron de funcionar o están dañados.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.

Relativo a la informática, el mantenimiento preventivo consiste en la revisión de equipos en funcionamiento para garantizar su buen funcionamiento, tanto de hardware como de software en un ordenador. Estos influyen en el desempeño fiable del sistema, en la integridad de los datos almacenados y en un intercambio de información correcta, a la máxima velocidad posible dentro de la configuración óptima del sistema.
Dentro del mantenimiento preventivo existe software que permite al usuario vigilar constantemente el estado de su equipo, así como también realizar pequeños ajustes de una manera fácil.
Además debemos agregar que el mantenimiento preventivo en general se ocupa en la determinación de condiciones operativas, de durabilidad y fiabilidad de un equipo en mención este tipo de mantenimiento nos ayuda en reducir los tiempos de parada que pueden generarse por mantenimiento correctivo.
En lo referente al mantenimiento preventivo de un producto software, se diferencia del resto de tipos de mantenimiento, especialmente del mantenimiento de actualización, que se produce generalmente tras una petición de cambio por parte del cliente o del usuario final o tras un estudio de posibilidades de mejora en los diferentes módulos del sistema, el preventivo se produce para garantizar el funcionamiento en las condiciones actuales de prestaciones, seguridad y fiabilidad.
Aunque el mantenimiento preventivo es considerado valioso para las organizaciones, existen una serie de fallas en la maquinaria o errores humanos: averías, mal uso, etc. que son impredecibles a la hora de realizar estos procesos de mantenimiento.
El mantenimiento preventivo programado y la sustitución planificada de equipos son dos de las tres políticas disponibles para los ingenieros de mantenimiento.


¿QUE ES MANTENIMIENTO CORRECTIVO?

Dentro de las operaciones de mantenimiento, se denomina mantenimiento correctivo, a aquel que corrige los defectos observados en los equipamientos o instalaciones, es la forma más básica de mantenimiento y consiste en localizar averías o defectos y corregirlos o repararlos.
Históricamente es el primer concepto de mantenimiento que se planteo, y el único hasta la primera guerra mundial, dada la simplicidad de las maquinas, equipamientos e instalaciones de la época, mantenimiento era sinónimo de reparar aquello que estaba averiado. Posteriormente se planteo que el mantenimiento no solo tenia que corregir las averías, sino que tenia que adelantarse a ellas garantizando el correcto funcionamiento de las maquinas, evitando el retraso producido por las averías y sus consecuencia, dando lugar a lo que se denomino: mantenimiento preventivo que es el que se hace, preventivamente en equipo en funcionamiento, en evicción de posteriores averías, garantizando un periodo de uso fiable.


¿QUE ES MANTENIMIENTO PREDICTIVO?

Se realiza en forma visual a través de un Diagnostico, con finalidad de predecir alguna falla futura, aun cuando la computadora este funcionando correctamente. Ejemplo:
- Ruidos que ocasionan las disqueteras- Por pitidos constantes- Por medio de software




¿QUE ES UN SISTEMA OPERATIVO?

Un Sistema Operativo es el software encargado de ejercer el control y coordinar el uso del hardware entre diferentes programas de aplicación y los diferentes usuarios. Es un administrador de los recursos de hardware del sistema. 

En una definición informal es un sistema que consiste en ofrecer una distribución ordenada y controlada de los procesadores, memorias y dispositivos de E/S entre los diversos programas que compiten por ellos.
A pesar de que todos nosotros usamos sistemas operativos casi a diario, es difícil definir qué es un sistema operativo. En parte, esto se debe a que los sistemas operativos realizan dos funciones diferentes. 

Proveer una máquina virtual, es decir, un ambiente en el cual el usuario pueda ejecutar programas de manera conveniente, protegiéndolo de los detalles y complejidades del hardware. Administrar eficientemente los recursos del computador. 

El sistema operativo como máquina virtual
Un computador se compone de uno o más procesadores o CPUs, memoria principal o RAM, memoria secundaria (discos), tarjetas de expansión (tarjetas de red, modems y otros), monitor, teclado, mouse y otros dispositivos. O sea, es un sistema complejo. Escribir programas que hagan uso correcto de todas estas componentes no es una tarea trivial. Peor aún si hablamos de uso óptimo. Si cada programador tuviera que preocuparse de, por ejemplo, como funciona el disco duro del computador, teniendo además siempre presentes todas las posibles cosas que podrían fallar, entonces a la fecha se habría escrito una cantidad bastante reducida de programas. 

Es mucho más fácil decir `escriba "Chao" al final del archivo "datos"', que
1-Poner en determinados registros del controlador de disco la dirección que se quiere escribir, el número de bytes que se desea escribir, la posición de memoria donde está la información a escribir, el sentido de la operación (lectura o escritura), amén de otros parámetros; 

2-Decir al controlador que efectué la operación. 


3-Esperar. Decidir qué hacer si el controlador se demora más de lo esperado (¿cuánto es "lo esperado"?). 


4-Interpretar el resultado de la operación (una serie de bits). 


5-Reintentar si algo anduvo mal. 



6-etc. 

Además, habría que reescribir el programa si se instala un disco diferente o se desea ejecutar el programa en otra máquina. 


Hace muchos años que quedó claro que era necesario encontrar algún medio para aislar a los programadores de las complejidades del hardware. Esa es precisamente una de las tareas del sistema operativo, que puede verse como una capa de software que maneja todas las partes del sistema, y hace de intermediario entre el hardware y los programas del usuario. El sistema operativo presenta, de esta manera, una interfaz o máquina virtual que es más fácil de entender y de programar que la máquina "pura". Además, para una misma familia de máquinas, aunque tengan componentes diferentes (por ejemplo, monitores de distinta resolución o discos duros de diversos fabricantes), la máquina virtual puede ser idéntica: el programador ve exactamente la misma interfaz. 

El sistema operativo como administrador de recursos
La otra tarea de un sistema operativo consiste en administrar los recursos de un computador cuando hay dos o más programas que ejecutan simultáneamente y requieren usar el mismo recurso (como tiempo de CPU, memoria o impresora). 
Además, en un sistema multiusuario, suele ser necesario o conveniente compartir, además de dispositivos físicos, información. Al mismo tiempo, debe tenerse en cuenta consideraciones de seguridad: por ejemplo, la información confidencial sólo debe ser accesada por usuarios autorizados, un usuario cualquiera no debiera ser capaz de sobrescribir áreas críticas del sistema, etc. (En este caso, un usuario puede ser una persona, un programa, u otro computador). En resumen, el sistema operativo debe llevar la cuenta acerca de quién está usando qué recursos; otorgar recursos a quienes los solicitan (siempre que el solicitante tenga derechos adecuados sobre el recurso); y arbitrar en caso de solicitudes conflictivas. 

Las tareas que generalmente realiza un Sistema Operativo son las siguientes:
-Realizar el interfaz sistema-usuario. 
-Compartir los recursos de Hardware entre los usuarios. -Permitir a los usuarios compartir sus datos entre ellos. -Prevenir que las actividades de un usuario no interfieran en las de los demás usuarios. -Calendarizar los recursos de los usuarios. -Facilitar el acceso a los dispositivos de E/S. -Recuperarse de fallas o errores. -Llevar el control sobre el uso de los recursos. -Entre otras. 
-Manejo de procesos. 
-Manejo de E/S. 
-Manejo de Memoria. 
-Manejo del Sistema de Archivos. 


Un sistema operativo está formado por varios programas que en conjunto presentan al usuario una vista integrada del sistema, los componentes principales de un sistema operativo son los siguientes módulos:

El sistema operativo indica a la computadora la manera de utilizar otros programas de software y administra todo el hardware, tanto el interno como el externo, que está instalado en la computadora. 

Los sistemas operativos pueden ser basados en caracteres o gráficos. Un sistema operativo basado en caracteres, tal como MS-DOS, le permite escribir comandos en un indicador para controlar la computadora. Un interfaz gráfico del usuario, o GUI, le permite enviar comandos a la computadora al hacer clic en iconos o al seleccionar elementos en los menús. Windows 95 cuenta con un GUI. 
La mayoría de los sistemas operativos pueden manejar programas de 16 o 32 bits, o ambos. Microsoft Windows 3.x ejecuta únicamente los programas de 16 bits; Windows 95 de Microsoft puede ejecutar ambos programas de 16 o 32 bits.



SISTEMAS OPERATIVOS EXISTENTES


MICROSOFT


Windows 1.0


 es un entorno operativo gráfico de 16 bits, desarrollado por Microsoft Corporation y lanzado el 20 de noviembre, 1985. Fue el primer intento de Microsoft de implementar un usuario gráfico multitarea operativos en la plataforma de PC basados en una interfaz gráfica. Windows 1.0 fue la primera versión que Windows lanzó.

Windows 2.0

es un sistema operativo de Microsoft Windows con una interfaz gráfica de usuario de 16 bits, que fue lanzado el 9 de diciembre de 1987 y es el sucesor de Microsoft Windows 1.0. Microsoft Windows 2.0 fue completada con Windows/286 y Windows/386, quienes fueron reemplazados por Microsoft Windows 3.0 en mayo de 1990, pero con el apoyo de Microsoft durante catorce años hasta 31 de diciembre de 2001, que dejó de recibir soporte técnico.
Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esa popularidad se debió a que incluía nuevas aplicaciones gráficas como, por ejemplo, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS y ejecutar Windows a la vez que el programa, y cerrar Windows al salir de ellas.

Windows 3.0

es el nombre genérico con el que se suele conocer a las versiones 3.0, 3.1 y 3.11 de la Interfaz gráfica de usuario del sistema Microsoft DOS (MsDOS) (Microsoft Windows nunca fue realmente un Sistema Operativo con verdadero entorno gráfico hasta Windows 95).
Con estas versiones Microsoft consiguió vender Windows a un público mayor mientras que las versiones anteriores no habían sido muy bien acogidas. Unas de las razones era el soporte de "True type" y el manejo más avanzado de la memoria. Funciona en modo protegido (para procesadores 80286 o superior) con soporte de memoria grande o large memory. Podía abrir múltiples sesiones MS-DOS en modo real. A esta versión se le agregó un administrador de programas y de archivos además de los controles comunes de Windows (Combo Boxes, Menús Jerárquicos, Diálogos...) y archivos de configuración (extensión .ini) para cada aplicación (que más tarde dio lugar al Registro del sistema de Windows).

OS/2

es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de las computadoras personales. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2.

OS/2.1

La versión 1.0 apareció en 1987 y era de 16 bits, aunque trabajaba exclusivamente en el modo protegido del procesador intel 80286. Poco después apareció la versión 1.1, la cual incorporaba la primera versión del Presentation Manager, el gestor de ventanas de OS/2, con una apariencia idéntica a la del todavía inexistente windows 3.0. Dos versiones nuevas aparecieron poco después, la 1.2 y 1.3, también de 16 bits. Fue entonces cuando comenzaron las discusiones entre IBM y Microsoft, pues la primera quería desarrollar una versión de 32 bits para los procesadores intel 80386 y posteriores, mientras que la segunda proponía mejorar la actual de 16 bits.

Características:

  • Soporte de Multitarea.
  • El sistema Operativo era de texto, permitía múltiples aplicaciones corriendo a la vez aunque solo podía mostrar una aplicación a la vez en la pantalla.
  • Permitía una sesión de DOS.
  • El tamaño máximo de discos soportado era de 32MB.
  • El Sistema Operativo está diseñado para correr en equipos 80286 aunque también era capaz de correr en sistemas 80386.



OS/2 2.0

Características:

  • La primera versión de 32-bit de OS/2. Mejoras en esta versión:
  • Soporte para procesadores de 32 bits.
  • Se incluyó el Workplace Shell (WPS), un potente escritorio orientado a objetos, como nueva interfaz gráfica de OS/2.
  • Capaz de ejecutar múltiples aplicaciones DOS, Windows (16 bits) y OS/2 1.x simultáneamente.


OS/2 3.0 y 4.0

IBM continuó distribuyendo OS/2, creando versiones posteriores, como OS/2 3.0 y 4.0 (también llamado Warp). Pero con la llegada de Windows 95 OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía ejecutando aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requería Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95.

Windows 3.1 y Windows 3.11

Estas versiones de Windows se desarrollaron como una versión de Windows 3.1 que trabajaba en red. Aunque Windows 3.1, por sí solo, podía trabajar en red, la instalación y configuración se mejoró con Windows 3.11 para Trabajo en grupo. Ofrecía capacidades para compartir archivos e impresoras punto a punto. Se podía tener acceso a los archivos desde otras máquinas que ejecutaran DOS o Windows. Aportaba dos aplicaciones adicionales: Microsoft Mail, aplicación de correo electrónico, y Schedule+, una agenda para trabajo en grupo. Windows 3.11 para Trabajo en grupo significó una importante mejora respecto de la versión 3.1, pues agregaba también acceso a archivos de 32 bits y capacidad de fax.

Windows NT

Mientras se distribuía Windows 3.1 y 3.11 en sus diferentes versiones, Microsoft continuaba desarrollando Windows NT. Para ello, contaron con la ayuda de Dave Cutler, uno de los jefes analistas de VMS en DEC (Digital Equipment Corporation), para convertir NT en un sistema más competitivo. Cutler había estado desarrollando un sucesor del VMS en DEC, llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT. Al ser un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos, y éstos sólo estaban disponibles en equipos grandes y caros. Por ello, muchos usuarios no pudieron migrar a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1, que era más rudimentaria que la de Workplace Shell de OS/2.

Windows NT 3.1

Windows NT 3.1 apareció en su versión beta para desarrolladores en la Conferencia de desarrolladores profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido comercializado). Este sucesor unificaría ambos sistemas en uno solo, y su nombre clave era «Cairo». Cairo fue un proyecto más difícil de lo que Microsoft había previsto y, como resultado, NT y Chicago no sería unificados hasta la aparición de Windows XP.

Windows NT 3.5/3.51

Las novedades que presentaba Windows NT 3.5 fueron la diferenciación entre versiones Workstations y Server, soporte para OpenGL y ficheros de hasta 255 caracteres. Poco después apareció Windows NT 3.51 que tenía como mejoras más notables, la capacidad para funcionar en procesadores Pentium o superiores (Windows NT 3.5, al igual que NT 3.1 cancelaban la instalación al detectar un proceador superior al Pentium) y una libreria de controladores más extensa. Otras características fueron el soporte para BackOffice y el arranque y la instalación remota de Windows 95 en los clientes.

Cabe destacar que el interfaz gráfico de Windows NT 3.5 y Windows 3.51 era el mismo que el de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta del nuevo interfaz gráfico de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x el nuevo interfaz gráfico.



Windows NT 4.0

Después de la aparición de Windows 95, Windows NT continuaba usando la interfaz de Windows 3.1. A continuación, Microsoft  comercializó Windows NT 4.0, que aportaba la nueva interfaz de Windows 95 pero sobre Windows NT. De este sistema operativo se desarrollan tres versiones: Windows NT 4.0 Workstation, Windows NT 4.0 Server y Windows NT 4.0 Advanced Server.

windows CE

Es una plataforma de sistema operativo para un amplio rango de dispositivos computacionales móviles. Windows CE hace posible que otras categorías de dispositivos distintos a los PC puedan comunicarse entre sí, compartir información almacenada en PC basados en Windows, y conectarse a Internet. Los primeros productos basados en Windows CE, los PC de mano, comenzaron a distribuirse en Estados Unidos en noviembre de 1996. El sistema operativo Windows CE es un sistema de 32 bits, multitarea y multihilo, con una arquitectura abierta, y compatible con gran cantidad de dispositivos móviles. Como se ha comentado anteriormente, Windows CE es compacto, ofrece un alto rendimiento en dispositivos con memoria limitada; escalable, ya que admite gran variedad de productos multimedia y móviles; y portable, ya que permite a los fabricantes personalizarlo para un microprocesador determinado.

Windows 95

En respuesta a ello, Microsoft comenzó a desarrollar un sucesor para Windows 3.1 cuyo nombre clave era Chicago. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. También se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preventiva, como OS/2 o el mismo Windows NT. Sin embargo, sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits; la mayor parte siguió usando una arquitectura de 16 bits. Microsoft argumentaba que una conversión completa retrasaría demasiado la comercialización de Chicago y sería demasiado costosa. Asimismo desarrolló una nueva API, para reemplazar la API de Windows de 16 bits, denominada Win32. Desde entonces, Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, una para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1. De este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes.Microsoft adoptó Windows 95 como nombre de producto para Chicago cuando fue comercializado en agosto de 1995. Aunque compartía mucho código con Windows  3 e incluso con MS-DOS, Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo: ya no era necesario adquirir MS-DOS e instalar Windows encima. Segundo, introducía un subsistema en modo protegido, que estaba especialmente escrito para procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este aspecto, Windows 95 se acercaba más a Windows NT.


Windows 98

 (cuyo nombre en clave es Memphis) fue un sistema operativo gráfico publicado el 25 de junio de 1998 por Microsoft y el sucesor de Windows 95. Como su predecesor, es un producto monolítico híbrido de 16 y 32 bits.
La primera edición de Windows 98 fue designada por los números de versión internos 4.10.1998, o 4.10.1998A si había sido actualizado con el CD de seguridad de Microsoft. Windows 98 Segunda Edición está designado por los números de versión internos 4.10.2222A o 4.10.2222B si había sido actualizado con el CD de seguridad de Microsoft. El sucesor de Windows 98 es Windows Me.


Windows 98 Second Edition (SE)

Sucesor de Windows 95, Microsoft sacó al mercado Windows 98 y Windows 98 Segunda Edición, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. Podría decirse que esta nueva versión del sistema operativo Windows podría decirse que es una compilación de características, muchas de las cuales ya se encontraban en Internet Explorer 4.0 (cuando se instalaba con la actualización de escritorio) y en Windows 95 OSR-2. Es compatible con FAT32 (Windows 95 OSR-2 también lo era), con Active Desktop (de IE 4) y con dispositivos USB y DVD.

Windows Millenium Edition (ME)

Sucesor de Windows 98, Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones, especialmente multimedia. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP. En teoría, Windows 2000 iba a suponer la unificación entre las dos familias de Windows, la profesional y la doméstica, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y, oficialmente, ya no se podía distinguir entre MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía con versiones  anteriores).

Windows 2000

En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de redes y con una gran cantidad de servicios de red. En su versión Server, existen en el mercado varias distribuciones que a continuación de tallamos:

  • windows 2000 Server, anteriormente windows NT 4.0 server
  • windows 2000 advanced server, anteriormente windows NT 4.0 advanced server
  • windows 2000 datacenter server. nueva y eficaz distribución del sistema operativo de Microsoft  que se pude instalar en equipos hasta con 16 procesadores simétricos y 64 GB de memoria RAM.


Windows XP (Experience)

La unión de Windows NT/2000 y Windows 3.1/95/98/SE se alcanzó con Windows XP, comercializado a finales de 2001 en sus versiones Home y Professional. Windows XP utiliza el núcleo de Windows NT.

Windows LONGHORN

Según su fabricante, Microsoft, este sistema operativo (corniveleto o cuernilargo) determinará el desarrollo de las futuras aplicaciones que se ejecuten en su entorno. Incorpora un nuevo sistema de almacenamiento, una tecnología de búsqueda natural que mejorará los métodos utilizados por los buscadores de Internet e incluirá importantes mejoras para garantizar la seguridad ante virus, intrusos o correo basura y no deseado.

El nuevo sistema de almacenamiento de archivos, denominado WinFS, mejorará el actual NTFS, aunque será incompatible con él. En cuando a la interfaz gráfica Abalon, nombre que recibe el código de este nuevo sistema operativo, utilizará efectos tridimensionales en movimiento e incluirá una interfaz general de medios audiovisuales.

El manejo de todas estas versiones de Windows es muy similar; por ello, las operaciones que explicaremos se realizan de forma parecida en todas. Hay algunas cuestiones que cambian, pero no tienen mayor importancia, ya que la interfaz de todos estos sistemas operativos es prácticamente la misma.

Comentaremos cómo trabajar con archivos y directorios (carpetas en Windows) y las operaciones más habituales de configuración del propio sistema operativo. También describiremos el proceso de instalación de las diferentes versiones, prestando especial atención a las versiones de NT y 2000. El proceso de instalación de las diferentes versiones se describe en el CD-ROM adjunto. A partir de este momento, siempre hablaremos de forma genérica, es decir, cuando se explique algo, hará referencia a todas las versiones de Windows. Si algo es específico de una versión concreta, se indicará.


Windows Server 2003

es un sistema operativo de la familia Windows de la marca Microsoft para servidores que salió al mercado en el año 2003. Está basada en tecnología NT y su versión del núcleo NT es la 5.2.
En términos generales, Windows Server 2003 se podría considerar como un Windows XP modificado para labores empresariales, no con menos funciones, sino que estas están deshabilitadas por defecto para obtener un mejor rendimiento y para centrar el uso de procesador en las características de servidor; por ejemplo, la interfaz gráfica denominada Luna de Windows XP viene desactivada por lo que sólo se utiliza la interfaz clásica de Windows.

Windows Vista

 es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Esta versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, tabletas y equipos media center.
El proceso de desarrollo terminó el 8 de noviembre de 2006 y en los siguientes tres meses fue entregado a los fabricantes de hardware y software, clientes de negocios y canales de distribución. El 30 de enero de 2007 fue lanzado mundialmente y fue puesto a disposición para ser comprado y descargado desde el sitio web de Microsoft.
La aparición de Windows Vista viene más de 5 años después de la introducción de Windows XP, es decir, el tiempo más largo entre dos versiones consecutivas de Microsoft Windows. La campaña de lanzamiento fue incluso más costosa que la de Windows 95, ocurrida el 25 de agosto de 1995, debido a que ésta incluyó además otros productos como Microsoft Office 2007 y Exchange Server 2007.

Windows Server 2008

Es el sucesor de Windows Server 2003, distribuido al público casi cinco años despues. Al igual que Windows 7 , Windows Server 2008 se basa en el núcleo Windows NT 6.1. . Entre las mejoras de esta edición, se destacan nuevas funcionalidades para el Active Directory, nuevas prestaciones de virtualización y administración de sistemas, la inclusión de IIS 7.5 y el soporte para más de 256 procesadores. Hay siete ediciones diferentes: Foundation, Standard, Enterprise, Datacenter, Web Server, HPC Server y para Procesadores Itanium.


es el nombre de un sistema operativo de Microsoft diseñado para servidores.

Windows 7
es una versión de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, tablet PCnetbooks y equipos media center. El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.
A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era compatible. Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas simplificado y fácil de usar denominado «Grupo en el hogar», además de importantes mejoras en el rendimiento general del sistema operativo.

APPLE


System 6

("Software del Sistema") fue una versión del Mac OS, desarrollado por Apple para ordenadores Apple Macintosh, a fines de los años 1980s. Fue reemplazado por el System 7.

System 7

(nombre clave Big Bang y a veces llamado Mac OS 7) es una versión de Mac OS, el sistema operativo de los ordenadores personales Macintosh introducido el 13 de mayo de 1991. Sucede al System 6, y fue el principal sistema operativo de los Mac hasta ser sustituido por Mac OS 8 en 1997. Las características añadidas al System 7 incluyeron Multitarea cooperativa, memoria virtual, compartir archivos personales, QuickTime, QuickDraw 3D y una interfaz gráfica mejorada. Hoy en día todavía es utilizado por un pequeño número de usuarios Macintosh que utilizan equipos basados en Microprocesadores Motorola de la familia 68000.
Téngase en cuenta que "System 7" es usado como un término genérico para referirse a todas sus versiones. Con el lanzamiento de la versión 7.6 en 1997, Apple cambió oficialmente el nombre del sistema operativo a Mac OS, un nombre que apareció por primera vez en el System 7.5.1. System 7 fue desarrollado para procesadores Motorola 68k pero fue portado a PowerPC, cuando Apple adoptó el uso del nuevo procesador.

Mac OS

es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.
Deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh en favor de que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.
Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería hasta la versión 9 del sistema, lanzada en 1999. A partir de la versión 10 (Mac OS X), el sistema cambio su arquitectura totalmente y pasó a basarse en Unix, sin embargo su interfaz gráfica mantiene muchos elementos de las versiones anteriores.


Mac os 8.5 

Mac OS 8.5 se convierte en la primera versión del MacOS en requerir un procesador PowerPC, incluyendo versiones nativas de QuickDraw y AppleScript, así como la utilidad de búsqueda Sherlock.
El copiado de archivos sobre una red era más rápido que en las versiones anteriores y Apple lo anunció como “más rápidamente que Windows NT”. AppleScript también fue reescrito para utilizar solamente el código de PowerPC, que mejoró perceptiblemente la velocidad de la ejecución de AppleScript.
El proceso de la instalación fue simplificado considerablemente en 8.5. El instalador del Mac OS 8.5 requería generalmente poca interacción del usuario una vez comenzado, permitiendo posponer la configuración de determinados elementos.
El Mac OS 8.5 era la primera versión del sistema operativo con la capacidad de cambiar de apariencia usando “temas” o skins; esta función fue retirada a última hora, y apareció solamente en versiones beta.

Mac OS 9 

Este sistema, al igual que todos los de esta familia, carecía de algunos servicios y prestaciones comunes en los sistemas de su tiempo, tales como la memoria protegida o multitarea preventiva. Sin embargo presentaba numerosas ventajas con respecto a los anteriores Mac OS, como por ejemplo interfaz para varios usuarios (un multiusuario básico), búsqueda avanzada y mayor compatibilidad.

Mac OS X

 Es el sucesor del Mac OS 9 (la versión final del Mac OS Classic), el sistema operativo de Apple desde 1984. Está basado en BSD, y se construyó sobre las tecnologías desarrolladas en NeXT entre la segunda mitad de los 80's y finales de 1996, cuando Apple adquirió esta compañía. Desde la versión Mac OS X 10.5 Leopard para procesadores Intel, el sistema tiene la certificación UNIX 03.

Mac OS X v10.1 (Puma)

nombre en código “Puma”, es la segunda versión del Mac OS X, el sistema operativo de Apple para desktops y servidores. Viene después del Mac OS X v10.0 y es reemplazado por el Mac OS X v10.2. Fue liberada el 25 de septiembre de 2001 como una actualización gratuita a la versión 10.0. Comenzando con la versión 10.1.2, Apple hizo del Mac OS X su sistema operativo predeterminado en los nuevos Macs.
Fue distribuido a los usuarios de Macintosh el 25 de octubre de 2001 en las Apple Store y distribuidores de la compañía. El sistema operativo tuvo una mejor recepción que el Mac OS X versión 10.0, aunque los críticos afirmaron que carecía de funciones y estaba plagado de bugs.

Mac OS X v10.2 (Jaguar)


es la tercera versión del Mac OS X, el sistema operativo de Apple para desktops y servidores. Fue presentado después del Mac OS X v10.1 y es reemplazado por el Mac OS X v10.3. El sistema operativo estuvo inicialmente disponible el 23 de agosto de 2002 tanto en versión única como en "family pack", la cual permite la instalación en 5 computadores independientes que estén ubicados en un mismo hogar. Fue a grandes rasgos recibido por los usuarios de Macintosh como un gran paso en las áreas de estabilidad, velocidad en funcionamiento y en la línea de aplicaciones disponibles tanto con interfaz gráfica como con línea de comandos; sin embargo, muchos críticos siguieron insistiendo en hacer observaciones en lo relacionado con la velocidad de la interfaz de usuario y en la inmadurez y dificultad de uso.
Jaguar fue la primera versión del Mac OS X en usar su nombre en código en la publicidad, una práctica que se ha sido subsecuente hasta Mac OS X Lion.


Mac OS X v10.3 (Panther)


Mac OS X v10.3 «Panther» se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor, incorporó la mayor actualización en la interfaz de usuario, y tantas o más mejoras que Jaguar el año anterior. Por otra parte, en esta versión dejaron de soportarse algunos modelos antiguos G3.
Las nuevas mejoras de Panther incluyen: Finder actualizado (que incorpora una interfaz metálica y búsqueda rápida), Exposé (una nueva forma de manipular ventanas), cambio rápido de usuarios (permite tener sesiones con diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente), iChat AV (que añade soporte para videoconferencia a iChat), renderización mejorada de PDF, soporte integrado de fax, interoperabilidad mejorada con Microsoft Windows, FileVault (sistema de cifrado en tiempo real) e incremento de velocidad en todo el sistema con un mayor soporte para los G5.


Mac OS X v10.4 (Tiger)


Mac OS X v10.4 "Tiger" se puso a la venta el 29 de abril de 2005. Contiene más de 150 nuevas mejoras, pero al igual que con el lanzamiento de Panther, algunas máquinas antiguas dejaron de ser soportadas; en particular, cualquier equipo Apple que no cuente con conexión FireWire no está ya soportado en Tiger. Como curiosidad cabe comentar que Apple dispone a partir de Tiger, de una versión "paralela" compilada para procesadores Intel, si bien, teóricamente, sólo podrá instalarse bajo ciertas restricciones de hardware y en procesadores con soporte SSE3. Esta versión apareció oficialmente el día 10 de enero de 2006 con los primeros equipos "Mac Intel": El iMac Core Duo (ex iMac G5), Mac mini Core Solo y Core Duo (ex Mac mini G4) además de los nuevos portátiles denominados MacBook y MacBook Pro, ambos equipados con procesadores Intel Core Duo. También han existido versiones para G4 de este sistema operativo, incluida al menos en los últimos PowerBook G4 a la venta.
Las aplicaciones incluidas en versiones anteriores fueron mejoradas. Entre lo más destacable se tiene: Spotlight (sistema de búsqueda basado en contenidos y metadatos),Dashboard (conjunto de miniaplicaciones para realizar tareas comunes y ofrecen acceso instantáneo a la información), iChat (soporte para el códec de vídeo H.264 para la realización de videoconferencias de hasta 4 personas. Además, también permite realizar audioconferencias de hasta 10 personas), QuickTime 7 (soporte para H.264 y una interfaz completamente rediseñada), Safari (incorpora soporte para RSS, mayor velocidad y seguridad, etc.).
Se introdujeron los siguientes programas y tecnologías: Automator (sistema que permite llevar a cabo de forma eficaz y sencilla toda clase de tareas manuales y repetitivas de forma automática y sin necesidad de conocimientos de programación), Core Image y Core Video (tecnologías avanzadas de procesamiento de imágenes en tiempo real), soporte de memoria de 64 bits (para los nuevos G5, usando el sistema LP64), utilidades Unix actualizadas (como cp y rsync, que pueden preservar los metadatos en HFS Plus y resource fork) y un sistema extendido de permisos usando listas de control de acceso.


Mac OS X v10.5 (Leopard)

Mac OS X v10.5 «Leopard» fue liberado el 26 de octubre de 2007. Fue llamado por Apple como «la mayor actualización del Mac OS X». Trajo consigo más de 300 nuevas funciones. Leopard soporta tanto procesadores PowerPC como Intel; el soporte para procesadores G3 fue abandonado y el procesador G4 requiere una velocidad mínima de 867 MHz, y 512 MB de RAM para permitir la instalación. El DVD de instalación funciona con todas las arquitecturas soportadas (incluyendo maquinas de 64 bits). Las nuevas funciones incluyen una nueva apariencia, un Finder actualizado, Time Machine (software para realizar copias de seguridad), Spaces, Boot Camp preinstalado, soporte completo para aplicaciones de 64 bits, nuevas funciones en Mail e iChat, y nuevas características de seguridad. Leopard es un sistema UNIX certificado para la plataforma Intel. Es además el primer sistema operativo basado en BSD en recibir la certificación UNIX 03. Leopard abandonó el soporte para el Entorno Classic y las aplicaciones del mismo. Fue la última versión del Mac OS X con soporte para la arquitectura PowerPC.

Mac OS X v10.6 (Snow Leopard)


Mac OS X v10.6 «Snow Leopard» fue liberado el 28 de agosto de 2009. En lugar de incluir grandes cambios en la apariencia y funcionalidades como ocurrió en las versiones anteriores de Mac OS X, Snow Leopard se enfocó en cambios internos, como lo son: incrementar el rendimiento, la eficiencia y la estabilidad del sistema operativo. Para la mayoría de usuarios, los cambios más notables son: la cantidad de espacio que ocupa una instalación limpia, un Finder reescrito en Cocoa, copias de seguridad más rápidas en Time Machine, a una versión más completa de la aplicación Vista Previa, al igual que mayor velocidad en el navegador de internet Safari.
Finder ahora toma las ventajas de la tecnología integrada de 64 bits al igual que de Grand Central Dispatch, permite expulsar los discos de una forma más amigable (diversas cajas de diálogos le notifican al usuario si algún servicio o programa está utilizando tal disco), y provee en general de una sensación de mejor respuesta.
La nueva versión de Safari (4.0) mejora su rendimiento en JavaScript y HTML, lo que permite una navegación más veloz. La mayoría de incremento en el rendimiento se debe a SquirrelFish (el nuevo intérprete de JavaScript para Webkit). Este intérprete incrementa la velocidad de renderizado en un 50%. El nuevo Top Sites ahora muestra los sitios web más visitados así como los favoritos en vista panorámica, permitiendo al usuario acceso a sus sitios favoritos a la vez que ofrece la vista Cover Flow para el historial de navegación. El navegador ahora es más resistente a los cuelgues, siendo capaz de aislar complementos que son la causa número de este tipo de problemas.
Mac OS X v10.6 también tiene soporte para Microsoft Exchange Server para Mail, iCal y Agenda, así como soporte para mayores cantidades de memoria RAM, un QuickTime X totalmente renovado con una interfaz de usuario más fresca y más funcionalidades para los usuarios de QuickTime Pro.
Los cambios internos incluyen soporte mejorado para procesadores de varios núcleos mediante Grand Central Dispatch, el cual intenta facilitar el desarrollo de aplicaciones con soporte multi-núcleo, y así mejorar la utilización de la CPU. Anteriormente los desarrolladores necesitaban reprogramar su software de forma que tomara explícitamente ventaja de los múltiples núcleos, hecho que fácilmente se volvía tedioso y problemático, especialmente en software complejo. También incluye rendimiento avanzado en la GPU con OpenCL(un estándar abierto para plataformas GPGPU distinta de CUDA, DX11 Compute Shader o STREAM) al proveer apoyo a la labor de descarga normalmente, sólo destinados a una CPU a la GPU de la tarjeta gráfica. Esto puede ser especialmente útil en tareas que hacen que el computador se cuelgue fácilmente.
Snow Leopard soporta solo equipos con procesadores Intel, y requiere de 1 GB de memoria RAM para funcionar. Esta versión abandona el soporte para la arquitectura PowerPC, sin embargo permite la ejecución de programas para esta arquitectura tras instalar el traductor binario Rosetta.



LINUX 


Linux Red Hat.

Red Hat es una distribución Linux creada por Red Hat, que fue una de las más populares en los entornos de usuarios domésticos.
Es una de las distribuciones Linux de "mediana edad". La versión 1.0 fue presentada el 3 de noviembre de 1994. No es tan antigua como la distribución Slackware, pero ciertamente es más antigua que muchas otras. Fue la primera distribución que usó RPM como su formato de paquete, y en un cierto plazo ha servido como el punto de partida para varias otras distribuciones, tales como la orientada hacia PCs de escritorio Mandrake Linux (originalmente Red Hat Linux con KDE), Yellow Dog Linux, la cual se inició desde Red Hat Linux con soporte para PowerPC, y ASPLinux (Red Hat Linux con mejor soporte para caracteres no-Latinos).


FEDORA

Originalmente el Red Hat Linux fue desarrollado exclusivamente dentro de Red Hat, con la sola realimentación de informes de usuarios que recuperaban de fallos y contribuciones a los paquetes de software incluidos; y no contribuciones a la distribución como tal. Esto cambió tardíamente en el 2003 cuando Red Hat Linux se fusionó con el Proyecto Fedora Linux orientado a la comunidad de usuarios. El nuevo plan es extraer el código base de Fedora para crear nuevas distribuciones de Red Hat Enterprise Linux.
Fedora Core sustituye a las versiones originales de Red Hat Linux para descarga y venta al detalle. Este modelo es similar a la relación entre Netscape Communicator y Mozilla, o entre StarOffice y Open Office.org, aunque en este caso el producto comercial resultante es software libre.


SOLARIS

Solaris es un sistema operativo desarrollado por Sun Microsystems. Es un sistema certificado como una versión de UNIX. Aunque Solaris en sí mismo aún es software propietario, la parte principal del sistema operativo se ha liberado como un proyecto de software libre denominado Opensolaris. Solaris puede considerarse uno de los sistemas operativos más avanzados. Sun denomina así a su sistema operativo.

OPENSOLARIS

El código fuente de Solaris (con unas pocas excepciones) ha sido liberado bajo la licencia CDDL (Licencia Común de Desarrollo y Distribución) como un proyecto de software libre bajo el nombre OpenSolaris.
La licencia CDDL ha sido aprobada por la Open Source Initiative (OSI) como una licencia open source y por la FSF como una licencia de software libre (aunque incompatible con la popular licencia GPL ).
La base de OpenSolaris fue alimentada el 

La base de OpenSolaris fue alimentada el 14 de junio de 2005 a partir de la entonces actual base de desarrollo de código de Solaris. Es posible descargar y licenciar versiones tanto binarias como en forma de código fuente sin coste alguno. Además, se ha añadido al proyecto Open Solaris código para características venideras como soporte Xen. Sun ha anunciado que las versiones futuras de Solaris se derivarán a partir de OpenSolaris.




SYMBIAN OS

es un sistema operativo que fue producto de la alianza de varias empresas de telefonía móvil, entre las que se encuentran Nokia, Sony Ericsson, Psion, Samsung, Siemens, Arima, Benq, Fujitsu, Lenovo, LG, Motorola, Mitsubishi Electric, Panasonic,Sharp, etc. Sus orígenes provienen de su antepasado EPOC32, utilizado en PDA's y Handhelds de PSION.
El objetivo de Symbian fue crear un sistema operativo para terminales móviles que pudiera competir con el de Palm o el Windows Mobile 6.X de Microsoft y ahora Android de Google Inc. iOS de Apple Inc. y BlackBerry de RIM.

UNIX 


es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969, por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.
Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc. Solo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.