Introduccion1

  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Introduccion1 as PDF for free.

More details

  • Words: 23,905
  • Pages: 50
Materia: Introducción Computacional EL ORDENADOR Es un dispositivo electrónico capaz de procesar la información recibida, a través de unos dispositivos de entrada (input), y obtener resultados que serán mostrados haciendo uso de unos dispositivos de salida (output), gracias a la dirección de un programa escrito en el lenguaje de programación adecuado. Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es completamente inútil. Para escribir estos programas necesitamos usar un determinado lenguaje de programación. Los lenguajes de programación permiten escribir programas y comunicarnos correctamente con el ordenador. Hardware: componentes físicos que constituyen el PC junto con los dispositivos que realizan las tareas de E/S. Programa: conjunto de instrucciones, escritas en un determinado lenguaje de programación, que controlan el funcionamiento de un ordenador. Software: conjunto de programas escritos para un ordenador. Componentes de un Ordenador Componentes básicos: ➢ Unidades de almacenamiento (memoria) ➢ Unidad Central de Proceso (CPU) o procesador ➢ Unidad de entrada/salida (E/S) ➢ Buses Unidades de almacenamiento: memoria principal, central o interna, y almacenamiento externo (memoria masiva auxiliar, secundaria o externa). Almacenamiento Interno (memoria principal, central o interna): Memoria RAM (Random Access Memory): Zona de memoria de lectura/escritura. Es volátil. Almacena el S.O. y los programas que están en ejecución junto con sus datos. Costosa, capacidad limitada, tiempo de recuperación casi inmediato. Memoria ROM (Read Only Memory): Zona de la memoria de sólo lectura. Es permanente. Almacena la BIOS (Basic Input-Output System): Conjunto de programas que se ejecutan al encender el PC (chequean el sistema y cargan el S.O. en RAM) Características de la Memoria Principal: El acceso a la memoria principal es muy rápido, sin embargo al ser costosa, es un recurso escaso. Está ligada a las unidades más rápidas del ordenador (UC y ALU). Está dividida en una serie de celdas (posiciones de memoria o palabras), numeradas con una dirección unívoca a través de la cual se accede a cada una de ellas. La longitud de las palabras se mide en número de bits (unidad mínima de información que se puede almacenar: 0 ó 1). Características de los ordenadores.- Los ordenadores son máquinas automáticas que realizan un tratamiento de la información (cálculo, copia, ordenación) siguiendo las instrucciones de unos programas y sin necesidad de una continua intervención humana. Son programables. Ejecutan las instrucciones que reciben a través de un programa. Versatilidad.- Podemos realizar diversos trabajos: escribir cartas, controlar otras máquinas. Interactividad.- Mantienen diálogos con los usuarios y actúan en función de sus ordenes y acciones.

Materia: Introducción Computacional Capacidad de almacenar.- Almacenan grandes cantidades de información en discos muy pequeños. Rapidez.- Hacen los trabajos con más rapidez que las personas y no suelen equivocarse. Tipos de ordenadores. Según su capacidad de memoria y la velocidad con la que procesan la información los ordenadores se clasifican en tres grupos: ➢ GRANDES ORDENADORES (main frames). Ordenadores de grandes dimensiones que gestionan grandes volúmenes de información a alta velocidad y pueden servir simultáneamente a muchos usuarios. Los usan las grandes empresas y centros de búsqueda. ➢ MINI ORDENADORES. Tienen una capacidad y una velocidad de trabajo alta pero menor que los main frames. Su volumen y el número de posibles usuarios también es menor. ➢ MICROORDENADORES. Pequeños ordenadores generalmente utilizados por un único usuario, pero con buena capacidad de trabajo y velocidad de proceso. Dentro de este grupo están los ordenadores personales. HISTORIA DEL ORDENADOR Evolución histórica de los ordenadores. Los últimos 50 años, y debido al vertiginoso desarrollo de la microelectrónica, el tamaño y el precio de los ordenadores no ha dejado de bajar, mientras aumentan continuamente su fiabilidad, su rapidez y sus prestaciones en general. Precursores de los ordenadores. La aparición de los ordenadores no ha sido un hecho que se halla producido de repente; a lo largo del tiempo encontramos diversas máquinas mecánicas que intentan facilitar la realización de los cálculos y automatizar algunos trabajos: la sumadora de Pascal (XV), la calculadora de Leibniz (XVII), la máquina analítica de Babbage (XIX), la clasificadora de fichas perforadas de Hollerit (XIX). Ordenadores electromecánicos. En el año 1944, Howard Aiken (EE.UU) construyó MARK-1, el primer calculador programable. Se programaba mediante la conexión de clavijas externas, era enorme y poco fiable pero inicia la era de los ordenadores. Ordenadores de válvulas electrónicas (1946).- Enormes ordenadores que usaban fichas perforadas para la toma de los datos y de los programas. El primer de estos ordenadores fue el ENIAC (Eckert y Mauchly, EE.UU), un prototipo con finalidad científica y militar, a partir del cual se construyeron otros modelos con un planteamiento más comercial. Ordenadores transistorizados (1956).- Grandes ordenadores con muchos terminales que usaban fichas perforadas y cintas magnéticas para entrar datos y archivar los resultados. Ordenadores a base de circuitos integrados (1965).- Eran ya miniordenadores que solían utilizar teclado y pantalla y almacenaban la información en discos magnéticos como el IBM 360 y el UNIVAC 90. Ordenadores a base de un microprocesador (1971).- Permitieron reducir más el tamaño de todos los ordenadores y especialmente en la producción de pequeños y potentes microordenadores como los ordenadores personales.

INFORMÀTICA

Materia: Introducción Computacional El Tratamiento de la Información.-La informática es la ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información utilizando dispositivos electrónicos y sistemas computacionales. También está definida como el procesamiento automático de la información. Datos: Entendemos por datos la información que introducimos en el ordenador para ser procesada. Por ejemplo los nombres y las direcciones de los socios de un club, con las que elaboramos un fichero informatizado que nos facilitará la gestión de las cuotas anuales y la emisión de listados. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas: ➢ Entrada: Captación de la información digital. ➢ Proceso: Tratamiento de la información. ➢ Salida: Transmisión de resultados binarios. En los inicios del procesado de información, con la informática sólo se facilitaba los trabajos repetitivos y monótonos del área administrativa, gracias a la automatización de esos procesos, ello trajo como consecuencia directa una disminución de los costes y un incremento en la producción. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de datos (como Internet), la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, etc. Una de la aplicaciones más importantes de la informática es facilitar información en forma oportuna y veraz, lo cual, por ejemplo, puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas, hasta cálculos científicos complejos. Entre las funciones principales de la informática se cuentan las siguientes: ➢ Creación de nuevas especificaciones de trabajo. ➢ Desarrollo e implementación de sistemas informáticos. ➢ Sistematización de procesos. ➢ Optimización de los métodos y sistemas informáticos existentes. El término TIC (Tecnologías de Comunicación e Información), por lo general abreviado como IT, usando las siglas inglesas), se usa ampliamente en los campos políticos, administrativos, universitarios y académicos para hacer referencia a las tecnologías de la información, telecomunicación y audiovisual. HISTORIA DE LA INFORMÁTICA El origen de las máquinas de calcular está dado por el ábaco chino, éste era una tablilla dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos se podía realizar operaciones de adición y sustracción. Con los logaritmos funciones matemáticas llega el primer calculador mecánico en 1642 construido por Blaise Pascal. Se trataba de una serie de ruedas con números del 0 al 9 tales que

Materia: Introducción Computacional cada una de las cuales hacía avanzar un paso a la siguiente al completar una vuelta. Estas ruedas se movían mediante una manivela en sentido positivo o negativo. Leibnitz fue el inventor del cálculo. Con una máquina de calcular que podía multiplicar dividir y obtener la raíz cuadrada trabajaba en sistema binario que es la base de numeración empleada por los modernos ordenadores actuales. Joseph Jacquard utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer que se utilizaron para mediante unas fichas perforadas controlar la máquina de tejer. Jacquard fue el primero en emplear tarjetas perforadas para almacenar la información. En 1822 diseñó su máquina para el cálculo de polinomios. Utilizada para el cálculo de tablas de navegación y artillería. es considerado el padre de la informática actual. Su máquina tenía un mecanismo de entrada y salida por tarjetas perforadas una memoria una unidad de control y una unidad aritmético-lógica. Disponia de tarjetas separadas según los programas y datos y podía alterar su secuencia de operaciones en base al resultado de cálculos anteriores algo fundamental. Herman Hollerith utilizó tarjetas perforadas en las que mediante agujeros se volcaban los datos personales de la población para realizar el censo. Estas perforaciones activaban un contador y un mecanismo de selección de tarjetas que eran leidas en la entonces increible velocidad de 80 por minuto. Hollerith fusionó su compañía y formo la Internacional Bussines Machines que actualmente es la internacional IBM. James Powers diseñó nuevas máquinas para el censo. Aficionado a la electrónica, empezó a considerar la posibilidad de construir un calculador digital en sistema binario para hacer los cálculos de modo totalmente distinto a como los realizaban las calculadoras mecánicas y un dispositivo de memoria mediante almacenamiento de carga eléctrica. En colaboracion con Clifford Berry crearon el conocido como ABC Atanasoff Berry-Computer. A pesar de la lentitud e esos calculo, se habia conseguido ya ser 50 veces más rápido que un hombre con una sumadora. El proyecto ENIAC (Electronic Numerical integrator and Computer) pesaba unas 30 toneladas y ocupaba unos 1.600 metros cuadrados y era capaz de sumar restar multiplicar y dividir, disponia de tablas de funciones. Entre 1939 y 1944 Howard Aiken en colaboración con IBM desarrolló el Mark 1 o Calculador Automático de Secuencia Controlada que realizaba las cuatro operaciones básicas y trabajaba con información almacenada en forma de tablas. Operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo. El Mark 1 y las versiones que posteriormente se realizaron del mismo tenían el mérito de asemejarse considerablemente al tipo de máquina ideado por Babbage aunque trabajaban en código decimal y no binario. El avance que estas máquinas electromecánicas supuso fue rápidamente ensombrecido por el Eniac con sus circuitos electrónicos. John Von Neumann en 1.946 realizó una mejora del Eniac; el Edvac (Electronic Discrete Variable Automatic Computer) que se construyó en 1952. Empleaba aritmética binaria lo que simplificaba enormemente los circuitos electrónicos de cálculo y permitía trabajar con un programa almacenamiento, pudiendo procesar instrucciones tan deprisa como los datos.

Materia: Introducción Computacional Eckert y Mauchly fundaron su propia compañía, fue absorbida por Remington Rand y el 14 de junio de 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente) IBM fabricó en 1953 su primer computador para aplicaciones científicas el 701 y posteriormente el primer ordenador que empleaba memorias de núcleos de ferrita IBM superó rápidamente a Sperry en volumen de ventas. Generaciones

Primera Generación: Se desarrolla entre 1940 y 1952. Es la época de los ordenadores que funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos había que modificar directamente los valores de los circuitos de las máquinas. Segunda Generación: Va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya tenían una programación previa que serían los sistemas operativos. Éstos interpretaban instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje máquina. Tercera Generación: Se dio entre 1964 y 1971. Es la generación en la cual se comienzan a utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas. Por otra parte, esta generación es importante porque se da un notable mejoramiento en los lenguajes de programación y, además, surgen los programas utilitarios. Cuarta Generación: Se desarrolla entre los años 1971 y 1981. Esta fase de evolución se caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador, que es la integración de todos los elementos básicos del ordenador en un sólo circuito integrado. Quinta Generación: Va desde 1981 hasta nuestros días (aunque ciertos expertos consideran finalizada esta generación con la aparición de los procesadores Pentium, consideraremos que aun no ha finalizado). Esta quinta generación se caracteriza por el surgimiento de la PC, tal como se la conoce actualmente.

DISPOSITIVOS DE ENTRADA SALIDA Y ALMACENAMIENTO Dispositivos de entrada Son los que envían información a la unidad de procesamiento, en código binario. Teclado: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos describir: Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números y símbolos ortográficos.

Materia: Introducción Computacional Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1. Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta.. Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos: uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas. Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado: De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura. Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario. Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/II o al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del ratón por la pantalla del ordenador. Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del usuario aunque se origina el mismo efecto. Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los salva, etc. Se conecta a la tarjeta de sonido. Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se pueden manipular por medio de un software de tratamiento de imágenes o con reconocimiento óptico. Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del documento. Un tipo muy popular de escáner es el escáner de mano, también llamado hand-held, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros. Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.

Materia: Introducción Computacional Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos: Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador. Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas. Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario. Joystick: dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de ordenador o computadora, pero que también se emplea para otras tareas. Un joystick o palanca de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada una palanca vertical. Los botones de control se localizan sobre la base y algunas veces en la parte superior de la palanca, que puede moverse en todas direcciones para controlar el movimiento de un objeto en la pantalla. Los botones activan diversos elementos de software, generalmente produciendo un efecto en la pantalla. Un joystick es normalmente un dispositivo señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve con respecto al centro y que detiene el movimiento cuando se suelta. En aplicaciones industriales de control, el joystick puede ser también un dispositivo señalador absoluto, en el que con cada posición de la palanca se marca una localización específica en la pantalla. Tarjetas perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm (3 pulgadas) de ancho por 18 cm (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas.

Materia: Introducción Computacional Pantalla Táctil: pantalla diseñada o modificada para reconocer la situación de una presión en su superficie. Al tocar la pantalla, el usuario puede hacer una selección o mover el cursor. El tipo de pantalla táctil más sencillo está compuesto de una red de líneas sensibles, que determinan la situación de una presión mediante la unión de los contactos verticales y horizontales. Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y sensores alrededor de los bordes externos de la pantalla, para detectar la cantidad de cambio eléctrico y señalar exactamente donde se ha realizado el contacto. Un tercer tipo fija diodos emisores de rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y sensores alrededor de los bordes externos de la pantalla. Estos LEDs y sensores crean una red invisible de infrarrojos en la parte delantera de la pantalla que interrumpe el usuario con sus dedos. Las pantallas táctiles de infrarrojos se usan a menudo en entornos sucios, donde la suciedad podría interferir en el modo de operación de otros tipos de pantallas táctiles. La popularidad de las pantallas táctiles entre los usuarios se ha visto limitada porque es necesario mantener las manos en el aire para señalar la pantalla, lo que sería demasiado incómodo en largos periodos de tiempo. Además no ofrece gran precisión al tener que señalar ciertos elementos en programas de alta resolución. Las pantallas táctiles, sin embargo, son enormemente populares en aplicaciones como los puestos de información porque ofrecen una forma de señalar que no requiere ningún hardware móvil y porque presionar la pantalla es algo intuitivo.

Dispositivos de salida Son los dispositivos que reciben información que es procesada por la CPU y la reproducen para que sea perceptible para la persona. Monitor: es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD). Puntos a tratar en un monitor: Resolución (RESOLUTION): Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Así, un monitor cuya resolución máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una, probablemente además de otras resoluciones inferiores, como 640x480 u 800x600. Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.

Materia: Introducción Computacional Tamaño de punto (DOT PITCH): Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. Lo mínimo, exigible en este momento es que sea de 0,25 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen. Controles y conexiones: Aunque se va cada vez más el uso de monitores con controles digitales, en principio no debe ser algo determinante a la hora de elegir un monitor, si bien se tiende a que los monitores con dichos controles sean los más avanzados de la gama. Multimedia: Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de video. Esto resulta interesante cuando se trata de un monitor de 15'' ó 17'' cuyo uso vaya a ser doméstico, para juegos o videoconferencias. Pantalla táctil: véase en dispositivos de entrada. Impresoras: Dispositivo que sirve para captar la información que le envía la CPU y imprimirla en papel, plástico, etc. Hay varios tipos: Matriciales: Ofrecen mayor rapidez pero una calidad muy baja. Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas características. Claro está que hay razones de peso que justifican éstas características, pero para imprimir algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el coste muy inferior. Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables. Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición como de mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa velocidad y calidad frente a otras tecnologías. Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto coste y solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el material que le pongamos las imágenes que le haya enviado la CPU. Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces. Sin duda alguna, se nota perfectamente el esfuerzo que todos los fabricantes han realizado para ponerse al día en esta tecnología, ya que en poco tiempo han incorporado a su tecnología desarrollos basados en Dolby Surround o Dolby Digital. Los más avanzados constan de 4 altavoces (2 delanteros y 2 traseros) de reducido tamaño, otro más central para los diálogos y un último altavoz mucho más voluminoso que se encarga de

Materia: Introducción Computacional realzar las fuerzas de los graves. Hasta aquí todo parece indicar que se trata de otros juegos de altavoces cuadrafónicos. Pero la diferencia principal de estos sistemas es que incorporan un descodificador Dolby Digital, mediante el cual, podremos ajustar los volúmenes de cada juego de altavoces, así como aplicar diferentes filtros de sonido en función del tipo de sonido que estemos reproduciendo en cada momento (música, película). Para sacar partido de estos altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido. La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el precio de este tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los 6s altavoces no puede ser especialmente buena, aunque para un uso casero resulta más que válida. Otra cuestión es la potencia. Tratándose de altavoces pequeños y baratos no conseguirán una fidelidad de sonido muy grande a poco que la habitación tenga un tamaño medio. En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y debemos recurrir a equipos grandes si deseamos una calidad de sonido suficiente y por tanto será inevitable gastar una cantidad de dinero bastante importante. Auriculares: son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza. Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta. Dispositivos de almacenamiento Son dispositivos que sirven para almacenar el software del ordenador. Se basa en dos tipos de tecnologías: la óptica y la magnética. La magnética se basa en la histéresis magnética de algunos materiales y otros fenómenos magnéticos, mientras que la óptica utiliza las propiedades del láser y su alta precisión para leer o escribir datos. Disco duro: Un disco duro es un soporte de almacenamiento más o menos perdurable. Tiene tecnología magnética. Son habituales desde que salió el 286. Un disco duro está compuesto de numeroso discos de material sensible a los campos magnéticos, apilados unos sobre otros; en realidad se parece mucho a una pila de disquetes sin fundas y con el mecanismo de giro y el brazo lector incluido en la carcasa. Su giro posee una velocidad tan alta (unas 4.000 rpm), que es recomendable instalarle un ventilador para su refrigeración. Disquetera: Por malo y anticuado que sea un ordenador, siempre dispone de al menos uno de estos aparatos. Su capacidad es totalmente insuficiente para las necesidades actuales, pero cuentan con la ventaja que les dan los muchos años que llevan como estándar absoluto para almacenamiento portátil. Originariamente los disquetes eran flexibles y bastante grandes, unas 5,25 pulgadas de ancho. La capacidad primera de 160 Kb se reveló enseguida como insuficiente, por lo que empezó a crecer y no paró hasta los 1,44 Mb, ya con los disquetes actuales, más pequeños (3,5'') más rígidos y protegidos por una pestaña metálica. Las disqueteras son compatibles "hacia atrás"; es decir, que en una disquetera de 3,5'' de alta densidad (de 1,44 Mb) podemos usar discos de 720 Kb o de 1,44 MB, pero en una de doble densidad, más antigua, sólo podemos usarlos de 720 Kb. CD-ROM: La palabra CD-ROM viene de Compact Disc-Read Only Memory. Disco compacto de solo lectura. Es un soporte óptico. Sistema de almacenamiento de información en el que la

Materia: Introducción Computacional superficie del disco está recubierta de un material que refleja la luz. La grabación de los datos se realiza creando agujeros microscópicos que dispersan la luz (pits) alternándolos con zonas que sí la reflejan (lands). Se utiliza un rayo láser y un fotodiodo para leer esta información. Su capacidad de almacenamiento es de unos 650 Mb de información (equivalente a unos 74 minutos de sonido grabado). DVD: Es lo mismo que un CD-ROM pero posee mayor capacidad (410 minutos, frente a los 74 de un CD). Este tan solo ha cambiado la longitud del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio. Otros dispositivos de almacenamiento: Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética. EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica. Magneto-ópticos de 3,5'': Caben de 128 Mb a 640 Mb Jaz (Iomega): Es como el Zip y caben de 1 GB a 2 GB. Cintas Magnéticas: Caben hasta más de 4 GB. Dispositivos de memoria Discos Flexibles: Dispositivo de entrada-salida. Se diferencian dos tipos según su diámetro, los de 51/4 y los de 31/2, estas medidas están expresadas en pulgadas (13,3 y 8,8 centímetros). En los dos tipos hay, segundos de capacidad de almacenamiento, dos grupos: los de doble caradoble densidad (DD) y los de doble cara-alta densidad (HD), las capacidades de almacenamiento son las siguientes: Discos Duros: Dispositivos de entrada-salida. Difiere de los flexibles en la capacidad, la velocidad de acceso en el hecho de que no es transportable (removible), sino que está conectado (en la mayoría de los casos) al interior del ordenador. Las capacidades de los tiempos de acceso de los discos duros son diversos, en cuanto a la capacidad varían entre 20 Mb (actualmente desfasados), 40 Mb, 60 Mb, 80 Mb, 120 Mb, 170 Mb hasta los 550, 720, 1 GigaByte o más (actualmente se ofertan discos de hasta 18 Gb.). Los tiempos de acceso también varían y se miden en milisegundos. Discos Ópticos: Dispositivo de entrada-salida. Estos dispositivos utilizan tecnología láser para grabar los datos. Tienen una gran capacidad de almacenamiento de la orden de Gigabytes (1 Gigabyte=1024Mb- unos mil millones de bytes).

Tipos de Memoria

Tipos de Memoria RAM DRAM (Dynamic Random Access Memory): Es la memoria de trabajo, también llamada RAM, está organizada en direcciones que son reemplazadas muchas veces por segundo. Esta memoria llegó a alcanzar velocidades de 80 y 70 nanosegundos (ns), esto es el tiempo que tarda en vaciar una dirección para poder dar entrada a la siguiente, entre menor sea el número, mayor la velocidad, y fué utilizada hasta la época de los equipos 386.

Materia: Introducción Computacional FPM (Fast Page Mode): El nombre de esta memoria procede del modo en el que hace la transferencia de datos, que también es llamado paginamiento rápido. Hasta hace aproximadamente un año ésta memoria era la más popular, era el tipo de memoria normal para las computadores 386, 486 y los primeros Pentium®, llegó a fabricarse en velocidades de 60ns y la forma que presentaban era en módulos SIMM de 30 pines y para los equipos Pentium® era en SIMM de 72 pines. EDO (Extended Data Output): Esta memoria fue una innovación en cuestión de transmisión de datos pudiendo alcanzar velocidades de hasta 45ns, dejando satisfechos a los usuarios. SDRAM (Synchronous DRAM): Esta memoria funciona como su nombre lo indica, se sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de BUS de hasta 100Mhz, lo que nos refleja una muy buena estabilidad y alcanzar velocidades de 10ns. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits, no es necesario instalarlo en pares. RDRAM (Rambus DRAM): Esta memoria tiene una transferencia de datos de 64 bits que se pueden producir en ráfagas de 2ns, además puede alcanzar taza de transferencia de 533 Mhz con picos de 1.6Gb/s. Muy pronto alcanzará dominio en el mercado, ya que se estará utilizando en equipos con el nuevo procesador Pentium 4®. Es ideal ya que evita los cuellos de botella entre la tarjeta gráfica AGP y la memoria del sistema, hoy en día se pueden encontrar éste tipo de memorias en las consolas NINTENDO 64®. Será lanzada al mercado por SAMSUNG® e HITACHI®. Tipos de Memoria ROM EPROM (Erasable Programmable Read-Only Memory): Se utiliza para corregir errores de última hora en la ROM, el usuario no la puede modificar y puede ser borrada exponiendo la ROM a una luz ultravioleta. EEPROM (Electrically Erasable Programmable Read-Only Memory): Esta memoria puede ser borrada y volver a ser programada por medio de una carga eléctrica, pero sólo se puede cambiar un byte de información a la vez. MEMORIA FLASH: Es un tipo de memoria EEPROM que es reprogramable, su utilización por lo regular es en BIOS de ahí su nombre. Otros tipos de memoria RAM BEDO (Burst Extended Data Output): Fue diseñada para alcanzar mayores velocidades de BUS. Trabaja de igual forma que la SDRAM, ó sea, la transferencia de datos se hace en cada ciclo de reloj, pero esta memoria lo hace en ráfagas (burst), haciendo que los tiempos de entrega desaparezcan casi totalmente. DDR SDRAM (Double Data Rate SDRAM ó SDRAM-II): Esta memoria tendrá el mismo aspecto que un DIMM, pero la diferencia estará en que tendrá más pines, pasando de 168 pines del actual DIMM a 184 pines, además de tener sólo una muesca en la tableta. Viendo un poco de voltaje, la DDR trabajará con tan sólo 2.5V, siendo ésta una reducción del 30% respecto a los actuales 3.3V de la SDRAM. Trabajará a velocidades de 200Mhz. VRAM: Es como la memoria RAM normal, pero la diferencia reditúa en que podrá ser accedida al mismo tiempo por el monitor y el procesador de la tarjeta de video, se podrá leer y escribir en ella al mismo tiempo.

Materia: Introducción Computacional SGRAM (Synchronous Graphic RAM): Ofrece las mismas capacidades de la memoria SDRAM pero para las tarjetas gráficas, se utiliza en las nuevas tarjetas gráficas aceleradoras 3D.

MAINBOARD El mainboard también conocido como motherboard, placa madre o base es uno de los componentes básicos por no decir el más relevante en una PC. Su función es vital y gran parte de la calidad del funcionamiento general está determinada por este componente. Su función es administrar el cpu e interconectar los distintos periféricos. Así como el CPU es el cerebro, la placa madre es el sistema nervioso. Componentes básicos: Zócalo para Microprocesador Memoria ROM (BIOS) Bancos de memoria Chips de soporte o Chipset: Puente norte y sur, Placas onboard. Buses internos: de control, de direcciones, de datos Buses externos: los denominados bancos, zócalos o slots Conexión con una fuente de alimentación y estándares de fabricación (factor de forma). Microprocesador: A partir de la 486 en adelante las placas madre ofrecían una posibilidad más de expansión que era la de colocar distintas unidades de CPU ofreciendo capacidades de procesamiento diferentes. Obviamente existen ciertos límites, es así que es común tener una placa base y que ambas tengan una CPU de frecuencias bastantes dispares pero siempre conservando las misma características (socket, FSB) con la única excepción del clock y multiplicador del CPU. El chipset va a determinar automáticamente el clock y multiplicador del CPU (en algunos casos se puede hacer en forma manual permitiendo el overclocking). Una placa base de Pentium 3 no es compatible con un Pentium 2, pero una placa base de Pentium 3 puede soportar tanto uno de 500 MHz como otro de 800 MHz por ejemplo. Actualmente por razones de costo alguna placas madre económicas ofrecen los procesadores ensamblados en la misma placa pero en realidad es el cpu soldado al zócalo de expansión. Zócalos de CPU posibles: PGA: son el modelo clásico, usado en el 386 y muchos 486; consiste en un cuadrado de conectores en forma de agujero donde se insertan las patitas del chip por pura presión. Según el chip, tiene más o menos agujeritos. Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador.

Materia: Introducción Computacional Hay de diferentes tipos: Socket 423 y 478. En ellos se insertan los nuevos Pentium 4 de Intel. El primero hace referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología de 0,13 micras (Northwood). También hay algunos de 478 con núcleo Willamete. Socket 462/Socket A. Ambos Se trata donde se insertan los procesadores.

son

el

mismo

tipo.

Athlon en sus versiones más nuevas: Athlon Duron Athlon Thunderbird Athlon XP Athlon MP Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel. Socket 8: Utilizado por los procesadores Pentium Pro. Socket 7: Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros. Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Socket 754: Utilizado por el Athlon 64 Socket 940: AMD Athlon 64 FX Slot A / Slot 1 /Slot 2: Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base. Memoria ROM: Los motherboards poseen una pequeña porción de memoria ROM donde se aloja el BIOS (Basic Input / Output System). Antes eran memorias ROM estándar donde no permitían ser rescritas, pero actualmente se usan EPROM del tipo flash que permite ser rescrita varias veces (proceso delicado y lento). Por medio de este BIOS se definen ciertas características que va a tener el sistema, entre ellas los clocks que van a tener los diferentes buses y además sería un pequeño sistema operativo básico. Los Sistemas Operativos se comunican con el sistema a través de la BIOS. Por diversas razones o por simples errores en la programación, los fabricantes suelen ofrecer actualizaciones de la BIOS que son rescritas por medio un software. No existen muchos fabricantes de BIOS, podemos limitarnos casi a 3 que son Ami, Award y Phoenix.

Materia: Introducción Computacional

Zócalos: ISA (8 bits XT): El bus ISA maneja un bus de direcciones de 20 bits y un bus de datos de 8 bits. El flujo de datos viaja igual que la XT 4.77Mhz. ISA (16 bits AT): La extensión AT maneja un bus de direcciones de 24 bits y un bus de datos de 16 bits. Este bus físicamente tiene una parte idéntica y una extensión. El flujo de datos fue duplicado (8.33 Mhz) Microchannel®: Permite una ruta de datos de 32 bits, más ancha, y una velocidad de reloj ligeramente más elevada de 10 Mhz, con una velocidad de transferencia máxima de 20 Mbps frente a los 8 Mbps del bus ISA. Su inconveniente fue que era patentado. IBM intentó poner freno a la competencia que fabricaba clones. EISA: Fue la respuesta de la industria a IBM por su Micro Canal. Pretendía funcionar a 32 bits manteniendo la compatibilidad con el tipo de bus isa, por lo que funcionaba a 8.33mhz. MCA y EISA no fueron adoptadas (muy poco) porque aumentaba su costo en más de un 50% y en el momento que fueron creadas su aumento de rendimiento no resultaba necesario. VESA Local Bus: Se creó con fines de procesamiento de video, para aumentar su rendimiento. Su bus de datos es de 32 Bits y funcionaba sincrónicamente con el CPU (de ahí el Local Bus). Irónicamente su buen rendimiento hizo que no sea adoptado masivamente y perdiera terreno con el PCI, pues al ser sincrónico, a medida que los CPU aumentaban su velocidad el VLB iba a ser más caro así como sus placas fabricadas, además de una falta de compatibilidad entre generaciones de CPU. PCI: Se lo denominó CPU independiente ya que su velocidad no dependía de la frecuencia del CPU como el VESA. Soporta 32 ó 64 bits en el bus de datos y de direccionamiento. Puede funcionar a 33, 66 o inclusive 100 Mhz. Actualmente está funcionando a 32 bits y a 33 mhz por lo que debería contar todavía de futuro, de toda forma va a ser mejorado antes que se use en 64 bits. Esta arquitectura es capaz de auto-configurar las interrupciones, canales de DMA y puertos que utilizan los periféricos conectados en este tipo de bus. AGP: Se creó en base al PCI con el único fin que para las placas de video (Accelarated Graphics Port). La idea es que no comparta el bus con otros dispositivos y además es más rápido. Por no tener tráfico y ser más veloz se logra mayor velocidad en las imágenes (especialmente en gráficos 3D). El AGP es administrado completamente por separado del resto de los bus de datos. Actualmente hay varias especificaciones distintas (1x, 2x, 4x y 8x) que duplica su velocidad nominal de transmisión. Este puerto soporta un modo llamado Fast Writes que la memoria de la placa de video puede ser escrita directamente sin pasar los datos por la memoria principal. Buses de reciente aparición o por aparecer: AMR: Audio/Modem Riser. Es un bus de un único zócalo. Fue creado para que se puedan fabricar módems o placas de audio (o ambas) en una única placa en forma más económica. CNR: Communication and Network Riser. Parecido al AMR, soporta Audio, Módem y Ethernet. Se suele usarlo en chips onboard.

Materia: Introducción Computacional PCI Express: Es el bus que va a reemplazar al PCI, si bien el PCI soporta mayor ancho y velocidad de lo que se está usando actualmente prefirieron reemplazarlo. Tiene un diseño para ser utilizado en todo tipo de PC, sea estación de trabajo, de escritorio, portátil o servidor, no es únicamente para la PC de escritorio como fue diseñado el PCI. Como viene acostumbrando la industria, el PCI Express a nivel software es compatible completamente con el PCI por lo que los sistemas operativos no tendrán problemas en reconocer este tipo de zócalo y utilizarlo. El cambio es idéntico del ISA-8 hacia ISA-16, se le agrega un pequeño modulo al zócalo ya existente. Sus ventajas es que las placas de este tipo de bus pueden ser insertadas y removidas en funcionamiento, su frecuencia es muy superior al PCI estándar y su costo beneficio es muy bajo. También existen buses de comunicación entre periféricos externos a la PC, estos buses o puertos pueden ser USB, paralelo, serial, PS/2 y FireWire entre otros. Si bien estos puertos no son propios del mainboard (como lo es el PCI), sino que son placas que suelen conectarse al mismísimo PCI, resultan casi imprescindibles y vienen en la mayoría de los casos ya incorporados (en placas onboard). Serial: Es de 1 BIT. Se utiliza básicamente para el Mouse, módem u algún otro periférico de muy baja velocidad. Paralelo: Es de 8 bits, es frecuente su uso en impresoras y lectores escáner. Soportan varios modos (Normal, EPP y/o ECP) que básicamente cambia la velocidad de lectura escritura (en realidad la cantidad de operaciones disminuye por transacción).

PS/2: Su idea era la de liberar un puerto serial para el Mouse y mejorar otros aspectos como el modo vi direccional. Actualmente los mainboard tienen 2 puertos PS/2 se utilizan para Mouse y teclado. USB: Universal Serial Bus. Como su nombre lo indica, no fue diseñado para ningún periférico en específico pudiendo utilizar desde escáner, impresoras, teclados, Mouse, grabadoras de CD y un sin fin de posibilidades. FireWire: Algo similar al USB pero mucho más veloz, su idea es la utilizar discos duros, video-filmadoras digitales. Este tipo de puerto usa el bus PCI 2.1. Bancos de memoria: La forma y tipos de memoria son un capítulo aparte por su complejidad. En los mainboards podremos encontrar básicamente (pero no únicamente) tres tipos de bancos posibles. Bancos SIMM: Pueden ser de 30 pines (16 bits) o 72 (32 bits).

Materia: Introducción Computacional Bancos DIMM: Son de 168 contactos (64 bits). Bancos RIMM: Son memoria de arquitectura y diseño propietaria de Rambus, se usan en muchos Pentium 4. Chipset Es conjunto de varios chips ensamblados en la placa madre. Se denominan puente norte y puente sur a los 2 más importantes. El puente sur suele venir acompañado de otros chips que reemplazan a placas genuinas, a este tipo se los denomina placas onboard. Estos dos chips son vitales, son parte del sistema elemental de la PC. Su concepto original es que el puente norte administre la memoria y el puente sur el bus de datos (zócalos, serial y paralelo), el puente sur se comunica con el CPU por medio del puente norte. Sus funciones con el tiempo sufrieron algunas modificaciones que iremos viendo. En la actualidad el puente norte se encarga de administrar la memoria y el puerto AGP. Se conecta con el CPU por medio de un bus de datos llamado FSB (Front Side Bus). Este chipset el encargado de mantener la sincronización entre los distintos buses del sistema y el FSB. El puente norte se conecta por medio de otro bus de datos (su nombre depende del fabricante) con el chip denominado puente sur. El puente sur se va a encargar de administrar básicamente a todo el bus de datos restante. Todo el tráfico entrante y saliente es administrado por este chip. Su función es algo básica, simplemente determina que placa hace solicitud del bus (por medio de una IRQ) e informa al CPU. No solo están estos 2 únicos chips, también se ofrecen algunos chips adicionales que se encargan de gestionar otros servicios de la PC, tales como audio, video, controladora IDE, serial, PS/2, USB, entre otros. Estos chips, no son más que "placas", a excepción que están montadas sobre la misma tarjeta madre. Su ventaja es la economía y comodidad de tener todo en una sola unidad. Su desventaja es el rendimiento que no es comparable a los de una placa genuina. Aunque en la mayoría de los casos (puertos de periféricos e IDE) no hay diferencias vs. a una placa PCI, en otros como placas de video la diferencia puede ser gigantesca. Otro tipo de chipset más económico son los puentes norte y sur juntos. Por ejemplo es el caso del chip SiS 735 que logró un aumento de rendimiento con respecto a su competencia y un ahorro en el costo de fabricación.

Materia: Introducción Computacional

Recientemente salió al mercado una arquitectura nueva denominada AMD-x64, corresponde a AMD siendo el procesador de nombre Athlon 64. Este tipo de procesadores trae incorporado un administrador de memoria, por lo que el puente norte quede relegado únicamente a administrar el puerto AGP y de interfase con el puente sur.

Factores de Forma: Los nuevos requerimientos de alimentación, además de solucionar varios problemas de cableado interno y de mantener una norma estándar con los gabinetes produjeron algunos cambios en la forma en que estas placas van a ser fabricadas así como cambiaron sus respectivos gabinetes. A los distintos tipos de alimentación y de organización del mainboard se lo denomina Factor de forma. Existen varios, tales como Sistemas de plano posterior (LPX), AT de tamaño natural, Baby-AT, NLX y el más usado actualmente el ATX y sus variantes, mini ATX, flex ATX y algunas especificas de fabricantes. El ATX está llegando a su fin, pues va a ser reemplazado por una nueva norma denominada BTX. ATX La versión actual del estándar ATX es la 2.1. con alrededor de 10 años de desarrollo, puesta en práctica y corrección de errores y mejoras han hecho del ATX un formato absolutamente extendido. Para dar forma a todo el PC lo que se hace es definir un formato de placa base y de esta dependerá todo el resto de la distribución de componentes. Cuando hace 10 años se comenzó a trabajar sobre el formato ATX se pensó en mejorar la situación del procesador, que en el formato Baby AT, quedaba situado entre los slots de ampliación, para poder dar cabida a tarjetas de expansión de mayores dimensiones, se mejoró también el conector de corriente simplificándolo y se englobaron todos los conectores integrados de la placa en la situación que ahora todos conocemos. Anteriormente la mayoría de los puertos quedaban situados en slots como ocurre ahora en algunas placas con muchos conectores Firewire o USB. Esta nueva colocación de los conectores

Materia: Introducción Computacional también dejaba sitio para aumentar el número de slots PCI que por aquel entonces también estaba ya en funcionamiento. Por el estándar ATX han pasado diferentes revisiones que han afectado no solo a la forma del PC sino también a su forma de alimentarse. Por ejemplo, muchos recordarán que con el lanzamiento del Pentium 4 muchas fuentes de alimentación debieron ser sustituidas por modelos con conector auxiliar y de 12v para cumplir los estándares de Intel y el tamaño de las cajas también se vio afectado en longitud para dar cabida a placas base más anchas. El estándar ATX verá su fin en poco tiempo ya que a principios de año que viene comenzará a comercializarse un nuevo formato denominado BTX. Dentro de las especificaciones de ATX encontraremos en la actualidad placas base estándar ATX, MicroATX y FlexATX. El resto de placas fuera de estas tres grandes ramas son aplicaciones específicas para entornos específicos.

Si bien puede existir gabinetes de distintos tamaños el ATX define un mínimo y una ubicación específica de cada componente ensamblado en la placa base.

Gabinete ATX Micro ATX MicroATX nace con la intención de reducir el tamaño del PC a la vez que se mantienen el mayor número de posibilidades de ampliación y de integración del componentes. Se diferencia básicamente en que el máximo de tarjetas de implicación se reduce a cuatro incluido el AGP. Flex ATX Este tipo de placa es lo más reducido que hallaremos dentro de los parámetros marcados por Intel dentro del estándar ATX. Suele tratarse de placas base muy pensadas en la integración total de todo lo necesario para conseguir PCs baratos, reducidos y para aplicaciones muy

Materia: Introducción Computacional especificas como son las de hacer de ordenador de oficina. Normalmente este nivel de integración hace que opciones como el AGP no se conciban para este tipo de PCs.

SOFTWARE La palabra software se refiere al equipamiento lógico o soporte lógico de una computadora digital, y comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware). Clasificación del software Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos: Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles de la computadora en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, herramientas y utilidades de apoyo que permiten su mantenimiento. Incluye entre otros: Sistemas operativos Controladores de dispositivos Herramientas de diagnóstico Herramientas de Corrección y Optimización Servidores Utilidades Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluye entre otros: Editores de texto Compiladores Intérpretes Enlazadores Depuradores

Materia: Introducción Computacional Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI). Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros: Aplicaciones para Control de sistemas y automatización industrial Software educativo Software empresarial Bases de datos Software médico Software de Cálculo Numérico y simbólico. Software de Diseño Asistido (CAD) Software de Control Numérico (CAM) SISTEMAS OPERATIVOS El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos sirven para realizar tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlan los dispositivos periféricos tales como impresoras, escáner. En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema. Clasificación de los Sistemas Operativos Los sistemas operativos pueden ser clasificados de la siguiente forma: Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo. Multiprocesador: soporta el abrir un mismo programa en más de una CPU. Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo. Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como Dos y Unix, no funcionan en tiempo real. EJEMPLOS DE SISTEMAS OPERATIVOS Familia Macintosh Mac OS 7 Mac OS 8 Mac OS 9 Mac OS X Familia UNIX

Materia: Introducción Computacional AIX AMIX GNU/Linux

HISTORIA DE LOS SISTEMAS OPERATIVOS Los Sistemas Operativos, al igual que el Hardware de los computadores, han sufrido una serie de cambios revolucionarios llamados generaciones. En el caso del Hardware, las generaciones han sido marcadas por grandes avances en los componentes utilizados, pasando de válvulas ( primera generación ) a transistores ( segunda generación ), a circuitos integrados ( tercera generación), a circuitos integrados de gran y muy gran escala (cuarta generación). Cada generación Sucesiva de hardware ha ido acompañada de reducciones substanciales en los costos, tamaño, emisión de calor y consumo de energía, y por incrementos notables en velocidad y capacidad. Generación Cero (década de 1940) Los primeros sistemas computacionales no poseían sistemas operativos. Los usuarios tenían completo acceso al lenguaje de la maquina. Todas las instrucciones eran codificadas a mano. Primera Generación (década de 1950) Los sistemas operativos de los años cincuenta fueron diseñados para hacer más fluida la transición entre trabajos. Antes de que los sistemas fueran diseñados, se perdía un tiempo considerable entre la terminación de un trabajo y el inicio del siguiente. Este fue el comienzo de los sistemas de procesamiento por lotes, donde los trabajos se reunían por grupos o lotes. Cuando el trabajo estaba en ejecución, este tenía control total de la maquina. Al terminar cada trabajo, el control era devuelto al sistema operativo, el cual limpiaba y leía e iniciaba el trabajo siguiente. Al inicio de los 50's esto había mejorado un poco con la introducción de tarjetas perforadas (las cuales servían para introducir los programas de lenguajes de máquina), puesto que ya no había necesidad de utilizar los tableros enchufables. Además el laboratorio de investigación General Motors implementó el primer sistema operativo para la IBM 701. Los sistemas de los 50's generalmente ejecutaban una sola tarea, y la transición entre tareas se suavizaba para lograr la máxima utilización del sistema. Esto se conoce como sistemas de procesamiento por lotes de un sólo flujo, ya que los programas y los datos eran sometidos en grupos o lotes. La introducción del transistor a mediados de los 50's cambió la imagen radicalmente. Se crearon máquinas suficientemente confiables las cuales se instalaban en lugares especialmente acondicionados, aunque sólo las grandes universidades y las grandes corporaciones o bien las oficinas del gobiernose podían dar el lujo de tenerlas. Para poder correr un trabajo (programa), tenían que escribirlo en papel (en Fortran o en lenguaje ensamblador) y después se perforaría en tarjetas. Enseguida se llevaría la pila de tarjetas al cuarto de introducción al sistema y la entregaría a uno de los operadores. Cuando la

Materia: Introducción Computacional computadora terminara el trabajo, un operador se dirigiría a la impresora y desprendería la salida y la llevaría al cuarto de salida, para que la recogiera el programador. Segunda Generacion (a mitad de la década de 1960) La característica de los sistemas operativos fue el desarrollo de los sistemas compartidos con multiprogramación, y los principios del multiprocesamiento. En los sistemas de multiprogramación, varios programas de usuario se encuentran al mismo tiempo en el almacenamiento principal, y el procesador se cambia rápidamente de un trabajo a otro. En los sistemas de multiprocesamiento se utilizan varios procesadores en un solo sistema computacional, con la finalidad de incrementar el poder de procesamiento de la maquina. La independencia de dispositivos aparece después. Un usuario que desea escribir datos en una cinta en sistemas de la primera generación tenía que hacer referencia específica a una unidad de cinta particular. En la segunda generación, el programa del usuario especificaba tan solo que un archivo iba a ser escrito en una unidad de cinta con cierto número de pistas y cierta densidad. Se desarrollo sistemas compartidos, en la que los usuarios podían acoplarse directamente con el computadora través de terminales. Surgieron sistemas de tiempo real, en que los computadores fueron utilizados en el control de procesos industriales. Los sistemas de tiempo real se caracterizan por proveer una respuesta inmediata. Tercera Generación (mitad de década 1960 a mitad década de 1970) Se inicia en 1964, con la introducción de la familia de computadores Sistema/360 de IBM. Los computadores de esta generación fueron diseñados como sistemas para usos generales . Casi siempre eran sistemas grandes, voluminosos, con el propósito de serlo todo para toda la gente. Eran sistemas de modos múltiples, algunos de ellos soportaban simultáneamente procesospor lotes, tiempo compartido, procesamiento de tiempo real y multiprocesamiento. Eran grandes y costosos, nunca antes se había construido algo similar, y muchos de los esfuerzos de desarrollo terminaron muy por arriba del presupuestoy mucho después de lo que el planificador marcaba como fecha de terminación. Estos sistemas introdujeron mayor complejidad a los ambientes computacionales; una complejidad a la cual, en un principio, no estaban acostumbrados los usuarios. Cuarta Generación (mitad de década de 1970 en adelante) Los sistemas de la cuarta generación constituyen el estado actual de la tecnología. Muchos diseñadores y usuarios se sienten aun incómodos, después de sus experiencias con los sistemas operativos de la tercera generación. Con la ampliación del uso de redes de computadores y del procesamiento en línea los usuarios obtienen acceso a computadores alejados geográficamente a través de varios tipos de terminales. Los sistemas de seguridad se ha incrementado mucho ahora que la información pasa a través de varios tipos vulnerables de líneas de comunicación. La clave de cifrado esta recibiendo mucha atención; han sido necesario codificar los datos personales o de gran intimidad para que; aun si los datos son expuestos, no sean de utilidad a nadie mas que a los receptores adecuados. El porcentaje de la población que tiene acceso a un computador en la década de los ochenta es mucho mayor que nunca y aumenta rápidamente. El concepto de maquinas virtuales es utilizado. El usuario ya no se encuentra interesado en los detalles físicos de; sistema de computación que esta siendo accedida. En su lugar, el usuario ve un panorama llamado maquina virtual creado por el sistema operativo.

Materia: Introducción Computacional Los sistemas de bases de datos han adquirido gran importancia. Nuestro mundo es una sociedad orientada hacia la información, y el trabajo de las bases de datos es hacer que esta información sea conveniente accesible de una manera controlada para aquellos que tienen derechos de acceso.

HISTORIA DE WINDOWS Windows 1.0 En 1985 Microsoft publicó la primera versión de Windows, una interfaz gráfica de usuario (GUI) para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. La primera versión de Microsoft Windows Premium nunca fue demasiado potente ni tampoco se hizo popular. Estaba severamente limitada debido a los recursos legales de Apple, que no permitía imitaciones de sus interfaces de usuario. Por ejemplo, las ventanas sólo podían disponerse en mosaico sobre la pantalla; esto es, nunca podían solaparse u ocultarse unas a otras. Tampoco había "papelera de reciclaje" debido a que Apple creía que ellos tenían la patente de este paradigma o concepto. Ambas limitaciones fueron eliminadas cuando el recurso de Apple fue rechazado en los tribunales. Por otro lado, los programas incluidos en la primera versión eran aplicaciones "de juguete" con poco atractivo para los usuarios profesionales. Windows 2.0 Apareció en 1987, y fue un poco más popular que la versión inicial. Gran parte de esta popularidad la obtuvo de la inclusión en forma de versión "run-time" de nuevas aplicaciones gráficas de Microsoft, Microsoft Excel y Microsoft Word para Windows. Éstas podían cargarse desde MS-DOS, ejecutando Windows a la vez que el programa, y cerrando Windows al salir de ellas. Windows 2 todavía usaba el modelo de memoria 8088 y por ello estaba limitado a 1 megabyte de memoria; sin embargo, mucha gente consiguió hacerlo funcionar bajo sistemas multitareas como DesqView. Windows 3.0 La primera versión realmente popular de Windows fue la versión 3.0, publicada en 1990. Ésta se benefició de las mejoradas capacidades gráficas para PC de esta época, y también del microprocesador 80386, que permitía mejoras en las capacidades multitarea de las aplicaciones Windows. Esto permitiría ejecutar en modo multitarea viejas aplicaciones basadas en MS-DOS. Windows 3 convirtió al IBM PC en un serio competidor para el Apple Macintosh. OS/2 OS/2 es un sistema operativo de IBM que intentó suceder a DOS como sistema operativo de los PC. Se desarrolló inicialmente de manera conjunta entre Microsoft e IBM, hasta que la primera decidió seguir su camino con su Windows 3.0 e IBM se ocupó en solitario de OS/2. OS/2.1 Durante la segunda mitad de los 80, Microsoft e IBM habían estado desarrollando conjuntamente OS/2 como sucesor del DOS, para sacar el máximo provecho a las capacidades del procesador Intel 80286. OS/2 utilizaba el direccionamiento hardware de memoria disponible en el Intel 80286 para poder utilizar hasta 16 MB de memoria. La mayoría de los programas de DOS estaban por el contrario limitados a 640 KB de memoria. OS/2 1.x también soportaba memoria virtual y multitarea. Más adelante IBM añadió, en la versión 1.1 de OS/2, un sistema gráfico llamado Presentation Manager (PM). Aunque en muchos aspectos era superior a Windows, su API (Programa de

Materia: Introducción Computacional Interfaz de Aplicaciones) era incompatible con la que usaban los programas de este último. (Entre otras cosas, Presentation Manager localizaba el eje de coordenadas X, Y en la parte inferior izquierda de la pantalla como las coordenadas cartesianas, mientras que Windows situaba el punto 0,0 en la esquina superior izquierda de la pantalla como otros sistemas informáticos basados en ventanas). A principio de los 90, crecieron las tensiones en la relación entre IBM y Microsoft. Cooperaban entre sí en el desarrollo de sus sistemas operativos para PC y cada uno tenía acceso al código del otro. Microsoft quería desarrollar Windows aún más, mientras IBM deseaba que el futuro trabajo estuviera basado en OS/2. En un intento de resolver estas diferencias, IBM y Microsoft acordaron que IBM desarrollaría OS/2 2.0 para reemplazar a OS/2 1.3 y Windows 3.0, mientras Microsoft desarrollaría un nuevo sistema operativo, OS/2 3.0, para suceder más adelante al OS/2 2.0. Este acuerdo pronto fue dejado de lado y la relación entre IBM y Microsoft terminó. IBM continuó desarrollando IBM OS/2 2.0 mientras que Microsoft cambió el nombre de su (todavía no publicado) OS/2 3.0 a Windows NT. (Microsoft promocionó Windows NT con tanto éxito que la mayoría de la gente no se dio cuenta de que se trataba de un OS/2 remozado.) Ambos retuvieron los derechos para usar la tecnología de OS/2 y Windows desarrollada hasta la fecha de terminación del acuerdo. OS/2 2.0 IBM publicó OS/2 versión 2.0 en 1992. Esta versión suponía un gran avance frente a OS/2 1.3. Incorporaba un nuevo sistema de ventanas orientado a objetos llamado Workplace Shell como sustituto del Presentation Manager, un nuevo sistema de ficheros, HPFS, para reemplazar al sistema de ficheros FAT de DOS usado también en Windows y aprovechaba todas las ventajas de las capacidades de 32 bit del procesador Intel 80386. También podía ejecutar programas DOS y Windows, ya que IBM había retenido los derechos para usar el código de DOS y Windows como resultado de la ruptura. OS/2 3.0 y 4.0 IBM continuó vendiendo OS/2, produciendo versiones posteriores como OS/2 3.0 (también llamado Warp) y 4.0 (Merlin). Pero con la llegada de Windows 95, OS/2 comenzó a perder cuota de mercado. Aunque OS/2 seguía corriendo aplicaciones de Windows 3.0, carecía de soporte para las nuevas aplicaciones que requerían Windows 95. Al contrario que con Windows 3.0, IBM no tenía acceso al código fuente de Windows 95; y tampoco tenía el tiempo ni los recursos necesarios para emular el trabajo de los programadores de Microsoft con Windows 95; no obstante, OS/2 3.0 (Warp) apareció en el mercado antes que Windows 95 (que se retrasaba respecto a la fecha inicial de lanzamiento); como mejoras incorporaba una reducción en los requisitos de hardware (pasaba de pedir 8 Mb de memoria RAM de su antedecesor OS/2 2.1 a pedir sólo 4 Mb), y como gran añadido, incorporaba el llamado BonusPack, un conjunto de aplicaciones de oficina, comunicaciones, etc que ahorraban el tener que comprar software adicional como en el caso de Windows. Todo esto unido a una gran campaña publicitaria y a un muy reducido precio (el equivalente a unos 59.40 € frente a los 100 € de Windows) provocaron que mucha gente se animase a probarlo en lugar de esperar la llegada de Windows 95. Lamentablemente, el posterior abandono por parte de IBM hizo que fuese quedando relegado (aunque sigue siendo utilizado -cada vez menos- en sectores bancarios por su alta estabilidad). Windows 3.1 y Windows 3.11 En respuesta a la aparición de OS/2 2.0 , Microsoft desarrolló Windows 3.1, que incluía diversas pequeñas mejoras a Windows 3.0 (como las fuentes escalables TrueType), pero que consistía principalmente en soporte multimedia. Más tarde Microsoft publicó el Windows 3.11 (denominado Windows para trabajo en grupo), que incluía controladores y protocolos mejorados para las comunicaciones en red y soporte para redes punto a punto.

Materia: Introducción Computacional Windows NT Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo. Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT. Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2 Windows NT 3.1 Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS. Windows NT 3.5/3.51 Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica. Windows NT 4.0 Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo. Windows 95 Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptive, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16

Materia: Introducción Computacional bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa. Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16. Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto. Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998 Windows 98 El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema. Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores. Windows 98 Second Edition (SE) A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes: 1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo

Materia: Introducción Computacional 2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul. Windows Millenium Edition (ME) En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores). Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto. Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000. Windows 2000 En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT. La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server). Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son: Almacenamiento: Soporte para FAT16, FAT32 y NTFS. Cifrado de ficheros (EFS). Servicio de indexación. Sistema de archivos distribuido (DFS). Nuevo sistema de backup (ASR). Sistema de tolerancia a fallos (RAID) con discos dinámicos (software). Comunicaciones: Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento). Nueva versión de IIS con soporte para HTTP/1.1. Active Directory. Balanceo de carga (clustering) Servicios de instalación desatendida por red (RIS). Servicios nativos de Terminal Server. Estos avances marcan un antes y un después en la historia de Microsoft. Windows XP (Experience)

Materia: Introducción Computacional La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...). Windows Server 2003 Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas). Windows Vista Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP. Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoría de los usuarios regresen a su antecesor Windows XP o que migren a Mac OS X o GNU/Linux. Windows Server 2008 Al igual que su sucesor, Windows Server 2003 se basaba en la última versión del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2

Materia: Introducción Computacional

REDES ¿Qué es una red? Una red informática está formada por un conjunto de ordenadores intercomunicados entre sí que utilizan distintas tecnologías de hardware/software. Las tecnologías que utilizan (tipos de cables, de tarjetas, dispositivos...) y los programas (protocolos) varían según la dimensión y función de la propia red. De hecho, una red puede estar formada por sólo dos ordenadores, aunque también por un número casi infinito; muy a menudo, algunas redes se conectan entre sí creando, por ejemplo, un conjunto de múltiples redes interconectadas, es decir, lo que conocemos por Internet Historia de la Red En realidad, la historia de la red se puede remontar al principio del siglo XIX. El primer intento de establecer una red amplia estable de comunicaciones, que abarcara al menos un territorio nacional, se produjo en Suecia y Francia a principios del siglo XIX. Estos primeros sistemas se denominaban de telégrafo óptico y consistian en torres, similares a los molinos, con una serie de brazos o bien persianas. Estos brazos o persianas codificaban la información por sus distintas posiciones. Estas redes permanecieron hasta mediados del siglo XIX, cuando fueron sustituidas por el telégrafo. Cada torre, evidentemente, debia de estar a distancia visual de las siguientes; cada torre repetía la información hasta llegar a su destino. Un sistema similar aparece, y tiene un protagonismo especial, en la novela Pavana, de Keith Roberts, una ucronía en la cual Inglaterra ha sido conquistada por la Armada Invencible. Estos telégrafos ópticos fueron pioneros de algunas técnicas que luego se utilizaron en transmisiones digitales y analógicas: recuperación de errores, compresión de información y encriptación, por ejemplo. Se ha calculado que la velocidad efectiva de estos artilugios sería unos 0.5 bits por segundo, es decir, aproximadamente unos 20 caracteres por minuto. Supongo que los métodos de señales de humo utilizados por los indios también se podrían considerar algo así, con la diferencia de que no consistían en un establecimiento permanente, y que además no funcionaba a nivel nacional. Posteriormente, la red telegráfica y la red telefónica fueron los principales medios de transmisión de datos a nivel mundial. Alexander Graham Bell fue el descubridor del teléfono. En realidad, él hubiera querido que fuera algo así como una ``radio por cable'', de forma que una central sirviera a los interesados informaciones habladas a cierta hora del dia, por ejemplo. Evidentemente, pronto se descubrió que era mucho mejor para la comunicación interpersonal, aunque en Hungría estuvo funcionando durante cierto tiempo un servicio como el indicado, denominado Telefon Hirmond, que era una fuente centralizada de noticias, entretenimiento y cultura. A ciertas horas del día, sonaba el teléfono, se enchufaba un altavoz, y se empezaba a oír, por ejemplo, la saga de los porretas (en húngaro, claro está). La primera red telefónica se estableció en los alrededores de Boston, y su primer éxito fue cuando, tras un choque de trenes, se utilizó el teléfono para llamar a algunos doctores de los alrededores, que llegaron inmediatamente.

Materia: Introducción Computacional Los primeros intentos de transmitir información digital se remontan a principios de los 60, con los sistemas de tiempo compartido ofrecidos por empresas como General Electric y Tymeshare. Estas redes solamente ofrecían una conexión de tipo cliente-servidor, es decir, el ordenadorcliente estaba conectado a un solo ordenador-servidor; los ordenadores-clientes a su vez no se conectaban entre sí. Pero la verdadera historia de la red comienza en los 60 con el establecimiento de las redes de conmutación de paquetes. Conmutación de paquetes es un método de fragmentar mensajes en partes llamadas paquetes, encaminarlos hacia su destino, y ensamblarlos una vez llegados alli. La conmutación de paquetes se contrapone a la conmutación de circuitos, el método de telefonía más habitual, donde se establece un circuito físico entre los hablantes. Inicialmente se hacía mediante interruptores físicos, y hoy en día se hace la mayoría de los casos mediante interruptores digitales. El transmitir la información en paquetes tiene bastantes ventajas: Permite que varios usuarios compartan la misma conexión. Sólo hace falta reenviar los paquetes que se hayan corrompido, y no toda la información desde el principio. Los paquetes pueden llevar información de encaminado: por donde han pasado, de donde vienen y hacia donde van. Ademas, dado que se trata de información digital, se puede comprimir o encriptar. La primera red experimental de conmutación de paquetes se usó en el Reino Unido, en los National Physics Laboratories; otro experimento similar lo llevó a cabo en Francia la Societè Internationale de Telecommunications Aeronautiques. Hasta el año 69 esta tecnología no llego a los USA, donde comenzó a utilizarla el ARPA, o agencia de proyectos avanzados de investigación para la defensa. Esta agencia estaba evidentemente interesada en esta tecnología desde el punto de vista de la defensa nacional. Se trataba de crear un sistema de comunicaciones donde no hubiera ningun punto central de mando y control, sino que, aunque cualquier punto de la red fuera destruido, podría ser restituida la comunicación encaminándola por otra ruta. La corporación Rand aconsejo la creación de tal tipo de red en un informe de 1962. El ancestro de la InterNet , pues, fue creado por la ARPA y se denominó ARPANET. El plan inicial se distribuyó en 1967. Los dispositivos necesarios para conectar ordenadores entre si se llamaron IMP (lo cual, entre otras cosas, significa ``duende'' o ``trasgo''), es decir, Information Message Processor, y eran un potente miniordenador fabricado por Honeywell con 12 Ks de memoria principal. El primero se instaló en la UCLA, y posteriormente se instalaron otros en Santa Barbara, Stanford y Utah. Curiosamente, estos nodos iniciales de la InterNet todavía siguen activos, aunque sus nombres han cambiado. Los demás nodos que se fueron añadiendo a la red correspondían principalmente a empresas y universidades que trabajaban con contratos de Defensa. Pero InterNet viene de interconexión de redes, y el origen real de la InterNet se situa en 1972, cuando, en una conferencia internacional, representantes de Francia, Reino Unido, Canada, Noruega, Japón, Suecia discutieron la necesidad de empezar a ponerse de acuerdo sobre protocolos, es decir, sobre la forma de enviar información por la red, de forma que todo el mundo la entendiera. Un esfuerzo similar había sido llevado a cabo por la CCITT, o Comité Consultivo Internacional sobre Telefonía y Telegrafía, que fue capaz de poner de acuerdo a todos los países para que cada uno tuviera un prefijo telefónico, se repartieran los costes de las llamadas entre diferentes compañías nacionales, y básicamente, cualquier usuario en el mundo pudiera descolgar el auricular y marcar un número y llamar a su tía en Pernambuco.

Materia: Introducción Computacional Se trató entonces de conectar esas redes muy diversas a través de pórticos o gateways, que tradujeran la información del formato comprensible por una red al formato comprensible por otras redes. Estos protocolos se referían principalmente a como tenía que estar codificada la información y cómo se envolvía en los paquetes. Hay muchas maneras posibles de codificar la información (aunque actualmente se esté llegando a una serie de estándares, por ejemplo, el texto suele estar codificado utilizando el código ASCII ), y muchas más maneras posibles de indicar errores entre dos nodos de la red, de incluir en el paquete información sobre rutado, etc. El formato y la forma de esta información es lo que se denomina protocolo. Más adelante, de la ARPANET se disgregó la MILNET, red puramente militar, aunque tiene pórticos que la unen a la InterNet . ARPANET se convirtió en la columna vertebral de la red, por donde tarde o temprano pasaban todos los mensajes que van por la red. España fue, paradójicamente, uno de los primeros países de Europa que instaló una red de conmutación de paquetes, la IBERPAC, que todavía está en servicio. Esta red la utilizan principalmente empresas con múltiples sucursales, como los bancos, oficinas del gobierno, y, evidentemente, como soporte para la rama de Internet en España. España se conectó por primera vez a la Internet en 1985 Tipos de Red Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución lógica. Clasificación según su tamaño Las redes PAN (red de administración personal) son redes pequeñas, las cuales están conformadas por no más de 8 equipos, por ejemplo: café Internet. CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso. Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos, es decir, aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red. Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.

Características preponderantes: Los canales son propios de los usuarios o empresas. Los enlaces son líneas de alta velocidad. Las estaciones están cercas entre sí. Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información. Las tasas de error son menores que en las redes WAN.

Materia: Introducción Computacional La arquitectura permite compartir recursos. LAN mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas las computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre LANs, las cuales se verán mas adelante. Las redes WAN (Wide Area Network, redes de área extensa) son redes punto a punto que interconectan países y continentes. Al tener que recorrer una gran distancia sus velocidades son menores que en las LAN aunque son capaces de transportar una mayor cantidad de datos. El alcance es una gran área geográfica, como por ejemplo: una ciudad o un continente. Está formada por una vasta cantidad de computadoras interconectadas (llamadas hosts), por medio de subredes de comunicación o subredes pequeñas, con el fin de ejecutar aplicaciones, programas, etc. Una red de área extensa WAN es un sistema de interconexión de equipos informáticos geográficamente dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar esta interconexión suelen ser parte de las redes públicas de transmisión de datos. Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a mejores servicios, como por ejemplo a Internet. Las redes WAN son mucho más complejas, porque deben enrutar correctamente toda la información proveniente de las redes conectadas a ésta. Una subred está formada por dos componentes: Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts. Elementos interruptores (routers): son computadoras especializadas usadas por dos o más líneas de transmisión. Para que un paquete llegue de un router a otro, generalmente debe pasar por routers intermedios, cada uno de estos lo recibe por una línea de entrada, lo almacena y cuando una línea de salida está libre, lo retransmite. INTERNET WORKS: Es una colección de redes interconectadas, cada una de ellas puede estar desallorrada sobre diferentes software y hardware. Una forma típica de Internet Works es un grupo de redes LANs conectadas con WANs. Si una subred le sumamos los host obtenemos una red. El conjunto de redes mundiales es lo que conocemos como Internet. Las redes MAN (Metropolitan Area Network, redes de área metropolitana) , comprenden una ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de 4 Kmts. Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto a la transferencia de datos. Es básicamente una gran versión de LAN y usa una tecnología similar. Puede cubrir un grupo de oficinas de una misma corporación o ciudad, esta puede ser pública o privada. El mecanismo para la resolución de conflictos en la transmisión de datos que usan las MANs, es DQDB. DQDB consiste en dos buses unidireccionales, en los cuales todas las estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando una computadora quiere transmitir a otra, si esta está ubicada a la izquierda usa el bus de arriba, caso contrario el de abajo. Redes Punto a Punto. En una red punto a punto cada computadora puede actuar como cliente y como servidor. Las redes punto a punto hacen que el compartir datos y periféricos sea fácil para

Materia: Introducción Computacional un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la administración no está centralizada. Redes Basadas en servidor. Las redes basadas en servidor son mejores para compartir gran cantidad de recursos y datos. Un administrador supervisa la operación de la red, y vela que la seguridad sea mantenida. Este tipo de red puede tener uno o mas servidores, dependiendo del volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un servidor de impresión, un servidor de comunicaciones, y un servidor de base de datos, todos en una misma red. Clasificación según su distribución lógica Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora de un determinado servicio pero cliente de otro servicio. Servidor. Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión, de archivos, de páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base de datos. Cliente. Máquina que accede a la información de los servidores o utiliza sus servicios. Ejemplos: Cada vez que estamos viendo una página web (almacenada en un servidor remoto) nos estamos comportando como clientes. También seremos clientes si utilizamos el servicio de impresión de un ordenador remoto en la red (el servidor que tiene la impresora conectada). Todas estas redes deben de cumplir con las siguientes características: Confiabilidad transportar datos. Transportabilidad dispositivos. Gran procesamiento de información. De acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del usuario, como son: Compañías - centralizar datos. Compartir recursos periféricos, archivos. Confiabilidad transporte de datos. Aumentar la disponibilidad de la información. Comunicación entre personal de las mismas áreas. Ahorro de dinero. Home Banking. Aportes a la investigación vídeo demanda, line T.V, Game Interactive. Elementos de una red Una red de computadoras consta tanto de hardware como de software. En el hardware se incluyen: estaciones de trabajo, servidores, tarjeta de interfaz de red, cableado y equipo de conectividad. En el software se encuentra el sistema operativo de red (Network Operating System, NOS). Estaciones de trabajo Cada computadora conectada a la red conserva la capacidad de funcionar de manera independiente, realizando sus propios procesos. Asimismo, las computadoras se convierten en estaciones de trabajo en red, con acceso a la información y recursos contenidos en el servidor de archivos de la misma. Una estación de trabajo no comparte sus propios recursos con otras computadoras. Esta puede ser desde una PC XT hasta una Pentium, equipada según las

Materia: Introducción Computacional necesidades del usuario; o también de otra arquitectura diferente como Macintosh, Silicon Graphics, Sun, etc. Servidores Son aquellas computadoras capaces de compartir sus recursos con otras. Los recursos compartidos pueden incluir impresoras, unidades de disco, CD-ROM, directorios en disco duro e incluso archivos individuales. Los tipos de servidores obtienen el nombre dependiendo del recurso que comparten. Algunos de ellos son: servidor de discos, servidor de archivos, servidor de archivos distribuido, servidores de archivos dedicados y no dedicados, servidor de terminales, servidor de impresoras, servidor de discos compactos, servidor web y servidor de correo. Tarjeta de Interfaz de Red Para comunicarse con el resto de la red, cada computadora debe tener instalada una tarjeta de interfaz de red (Network Interface Card, NIC). Se les llama también adaptadores de red o sólo tarjetas de red. En la mayoría de los casos, la tarjeta se adapta en la ranura de expansión de la computadora, aunque algunas son unidades externas que se conectan a ésta a través de un puerto serial o paralelo. Las tarjetas internas casi siempre se utilizan para las PC's, PS/2 y estaciones de trabajo como las SUN's. Las tarjetas de interfaz también pueden utilizarse en minicomputadoras y mainframes. A menudo se usan cajas externas para Mac's y para algunas computadoras portátiles. La tarjeta de interfaz obtiene la información de la PC, la convierte al formato adecuado y la envía a través del cable a otra tarjeta de interfaz de la red local. Esta tarjeta recibe la información, la traduce para que la PC pueda entender y la envía a la PC. Son ocho las funciones de la NIC: Comunicaciones de host a tarjeta Buffering Formación de paquetes Conversión serial a paralelo Codificación y decodificacián Acceso al cable Saludo Transmisión y recepción Estos pasos hacen que los datos de la memoria de una computadora pasen a la memoria de otra.

Cableado La LAN debe tener un sistema de cableado que conecte las estaciones de trabajo individuales con los servidores de archivos y otros periféricos. Si sólo hubiera un tipo de cableado disponible, la decisión sería sencilla. Lo cierto es que hay muchos tipos de cableado, cada uno con sus propios defensores y como existe una gran variedad en cuanto al costo y capacidad, la selección no debe ser un asunto trivial. Cable de par trenzado: Es con mucho, el tipo menos caro y más común de medio de red. Cable coaxial: Es tan fácil de instalar y mantener como el cable de par trenzado, y es el medio que se prefiere para las LAN grandes. Cable de fibra óptica: Tiene mayor velocidad de transmisión que los anteriores, es inmune a la interferencia de frecuencias de radio y capaz de enviar señales a distancias considerables sin perder su fuerza. Tiene un costo mayor. Equipo de conectividad Por lo general, para redes pequeñas, la longitud del cable no es limitante para su desempeño; pero si la red crece, tal vez llegue a necesitarse una mayor extensión de la longitud de cable o exceder la cantidad de nodos especificada. Existen varios dispositivos que extienden la longitud

Materia: Introducción Computacional de la red, donde cada uno tiene un propósito específico. Sin embargo, muchos dispositivos incorporan las características de otro tipo de dispositivo para aumentar la flexibilidad y el valor. Hubs o concentradores: Son un punto central de conexión para nodos de red que están dispuestos de acuerdo a una topología física de estrella. Repetidores: Un repetidor es un dispositivo que permite extender la longitud de la red; amplifica y retransmite la señal de red. Puentes: Un puente es un dispositivo que conecta dos LAN separadas para crear lo que aparenta ser una sola LAN. Ruteadores: Los ruteadores son similares a los puentes, sólo que operan a un nivel diferente. Requieren por lo general que cada red tenga el mismo sistema operativo de red, para poder conectar redes basadas en topologías lógicas completamente diferentes como Ethernet y Token Ring. Compuertas: Una compuerta permite que los nodos de una red se comuniquen con tipos diferentes de red o con otros dispositivos. Podr´a tenerse, por ejemplo, una LAN que consista en computadoras compatibles con IBM y otra con Macintosh. Sistema operativo de red Después de cumplir todos los requerimientos de hardware para instalar una LAN, se necesita instalar un sistema operativo de red (Network Operating System, NOS), que administre y coordine todas las operaciones de dicha red. Los sistemas operativos de red tienen una gran variedad de formas y tamaños, debido a que cada organización que los emplea tiene diferentes necesidades. Algunos sistemas operativos se comportan excelentemente en redes pequeñas, así como otros se especializan en conectar muchas redes pequeñas en áreas bastante amplias. Los servicios que el NOS realiza son: Soporte para archivos: Esto es, crear, compartir, almacenar y recuperar archivos, actividades esenciales en que el NOS se especializa proporcionando un método rápido y seguro. Comunicaciones: Se refiere a todo lo que se envía a través del cable. La comunicación se realiza cuando por ejemplo, alguien entra a la red, copia un archivo, envía correo electrónico, o imprime. Servicios para el soporte de equipo: Aquí se incluyen todos los servicios especiales como impresiones, respaldos en cinta, detección de virus en la red. Medios de Transmisión El medio de transmisión constituye el canal que permite la transmisión de información entre dos terminales en un sistema de transmisión. Las transmisiones se realizan habitualmente empleando ondas electromagnéticas que se propagan a través del canal. A veces el canal es un medio físico y otras veces no, ya que las ondas electromagnéticas son susceptibles de ser transmitidas por el vacio Características Entre las características más importantes dentro de los medios de transmisión se encuentra la velocidad de transmisión, la distorsión que introduce en el mensaje, y el ancho de banda. En función de la naturaleza del medio, las características y la calidad de la transmisión se verán afectadas. Clasificación

Materia: Introducción Computacional Dependiendo de la forma de conducir la señal a través del medio, los medios de transmisión se pueden clasificar en dos grandes grupos, medios de transmisión guiados y medios de transmisión no guiados. Según el sentido de la transmisión podemos encontrarnos con 3 tipos diferentes: Simplex, HalfDuplex y Full-Duplex. También los medios de transmisión se caracterizan por utilizarse en rangos de frecuencia de trabajo diferentes.

Protocolos De Red Los conjuntos de protocolos son colecciones de protocolos que posibilitan la comunicación de red desde un host, a través de la red, hacia otro host. Un protocolo es una descripción formal de un conjunto de reglas y convenciones que rigen un aspecto particular de cómo los dispositivos de una red se comunican entre sí. Los protocolos determinan el formato, la sincronización, la secuenciación y el control de errores en la comunicación de datos. Sin protocolos, el computador no puede armar o reconstruir el formato original del flujo de bits entrantes desde otro computador. Los protocolos controlan todos los aspectos de la comunicación de datos, que incluye lo siguiente: •

Cómo se construye la red física



Cómo los computadores se conectan a la red



Cómo se formatean los datos para su transmisión



Cómo se envían los datos



Cómo se manejan los errores

Estas normas de red son creadas y administradas por una serie de diferentes organizaciones y comités. Entre ellos se incluyen el Instituto de Ingeniería Eléctrica y Electrónica (IEEE), el Instituto Nacional Americano de Normalización (ANSI), la Asociación de la Industria de las Telecomunicaciones (TIA), la Asociación de Industrias Electrónicas (EIA) y la Unión Internacional de Telecomunicaciones (UIT), antiguamente conocida como el Comité Consultivo Internacional Telegráfico y Telefónico (CCITT). Un escenario típico consiste de un número de principales, tales como individuos, compañías, computadoras, lectores de tarjetas magnéticas, los cuales se comunican usando una variedad de canales (teléfono, correo electrónico, radio ) o dispositivos físicos (tarjetas bancarias, pasajes, cédulas ). Un protocolo de seguridad define las reglas que gobiernan estas comunicaciones, diseñadas para que el sistema pueda soportar ataques de carácter malicioso. Protegerse contra todos los ataques posibles es generalmente muy costoso, por lo cual los protocolos son diseñados bajo ciertas premisas con respecto a los riesgos a los cuales el sistema está expuesto. Existen varios protocolos posibles. Las distintas compañías que instalan y administran este tipo de redes elige unos u otros protocolos. En todos los casos se cran túneles entre origen y destino. Dentro de estos túneles viaja la información, bien por una conexión normal (en este caso no se encriptan los datos) o bien por una conexión VPN. El protocolo IP Sec es uno de los más

Materia: Introducción Computacional empleados. Este se basa en GRE que es un protocolo de tunneling. Este protocolo también se utiliza de forma conjunta con otros protocolos como PPTP. Generic Routing Encapsulation (GRE 47) Point-to-Point Tunneling Protocol (PPTP) IP Sec Protocolo de tunelado nivel 2 (L2TP) Secure shell (SSH)

Generic Routing Encapsulation (GRE 47) Es el protocolo de Encapsulación de Enrutamiento Genérico. Se emplea en combinación con otros protocolos de túnel para crear redes virtuales privadas. El GRE está documentado en el RFC 1701 y el RFC 1702. Fue diseñado para proporcionar mecanismos de propósito general, ligeros y simples, para encapsular datos sobre redes IP. El GRE es un protocolo cliente de IP que usa el protocolo IP 47. Este protocolo es normalmente usado con VPN de Microsoft entre servidores con acceso remoto (RRAS) configurados para el enrutamiento entre redes de área local. Esquema: GRE se encarga del encapsulamiento de los datos para enviarlos por un túnel, pero él no crea no los túneles, de eso de encarga el protocolo PPTP u otro que estemos empleando. El proceso de encapsulamiento tienen los siguientes pasos: El paquete IP con los datos se transmite desde el Ecliente al servidor E-RRAS. Se le añade la cabecera del PPP y se cifra todo junto obteniendo un ‘fragmento PPP’. Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera. Se envía el paquete GRE del servidor E-RRAS al servidor R-RRAS a través de Internet. Este envía se realiza por una conexión VPN creada anteriormente. El servidor R-RRAS elimina el encabezado GRE, descifra, elimina el encabezado PPP y transmite los datos (paquete IP) a el Rcliente. Los datos cifrados se colocan dentro de un paquete GRE con su correspondiente cabecera. Esquema: Formato de un paquete GRE Point-to-Point Tunneling Protocol El Protocolo de Túnel Punto a Punto (PPTP) encapsula los paquetes (frames) del Protocolo Punto a Punto (Point-to-Point Protocol, PPP) con datagramas IP para transmitirlos por una red IP como Internet o una intranet privada. El PPTP utiliza una conexión TCP conocida como la conexión de control de PPTP para crear, mantener y terminar el túnel, y una versión modificada de GRE, para encapsular los paquetes (frames) PPP como datos para el túnel. Las cargas de los paquetes encapsulados pueden estar encriptadas o comprimidas o ambas cosas. El PPTP supone la disponibilidad de una red IP entre un cliente PPTP (un cliente de túnel que utiliza el protocolo PPTP) y un servidor PPTP (un servidor de túnel que utiliza el protocolo PPTP). El cliente PPTP podría estar ya conectado a una red IP por la que puede tener acceso al servidor PPTP, o podría tener que llamar telefónicamente a un servidor de acceso de red (Network Access Server, NAS) para establecer la conectividad IP como en el caso de los usuarios de accesos telefónicos para Internet.

Materia: Introducción Computacional La autentificación que ocurre durante la creación de una conexión VPN con PPTP utiliza los mismos mecanismos de autentificación que las conexiones PPP, tales como el Protocolo de Autentificación Extendible (Extensible Authentication Protocol, EAP), el Protocolo de Autentificación con Reto/Negociación de Microsoft (Microsoft Challenge-Handshake Authentication Protocol, MS-CHAP), el CHAP, el Protocolo de Autentificación de Claves Shiva (Shiva Password Authentication Protocol, SPAP) y el Protocolo de Autentificación de Claves (Password Authentication Protocol, PAP). El PPTP hereda la encriptación, la compresión o ambas de las cargas PPP del PPP. Para servidores PPTP sobre Internet, el servidor PPTP es un servidor VPN con PPTP con una interface con Internet y una segunda interface con la intranet. IP Sec IP Sec es un grupo de extesiones de la familia del protocolo IP pensado para proveer servicios de seguridad a nivel de red, de un modo transparente a las aplicaciones superiores. IP Sec está ya explicado en su trabajo correspondiente: I Pv 6 e IP Sec Protocolo de tunelado de nivel 2 (L2TP) Es un componente de creación importante para las VPN de acceso. Es una extensión del protocolo Punto a Punto, fundamental para la creación de VPNs. L2TP combina las mejores funciones de los otros dos protocolos tunneling. Layer 2 Forwarding (L2F) de Cisco Systems y Point-to-Point Tunneling (PPTP) de Microsoft. L2TP es un estándar emergente, que se encuentra actualmente en codesarrollo y que cuenta con el respaldo de Cisco Systems, Microsoft, Ascend, 3Com y otros líderes en la industria de la conectividad. A continuación una serie de términos relacionados con este protocolo: L2TP Access Concentrator (LAC): Se añade un dispositivo LAC a los componentes físicos de la red conmutada; como la red telefónica convencional o RDSI, o se coloca con un sistema de terminación PPP capaz de gestionar el protocolo L2TP. Un LAC sólo necesita implementar el medio sobre el cual opera el L2TP para admitir el tráfico de una o más LNS. Puede “tunelizar” cualquier protocolo que incluya el PPP. LAC es el iniciador de las llamadas entrantes y el receptor de las llamadas salientes. L2TP Network Server (LNS): Un LNS opera sobre cualquier plataforma con capacidad de terminación PPP. LNS gestiona el lado del servidor del protocolo L2TP. Ya que L2TP se apoya sobre el medio al que llegan los túneles L2TP, LNS sólo puede tener un único interfaz LAN o WAN, aunque es capaz de terminar las llamadas entrantes en cualquiera de la amplia gama de los interfaces PPP LAC (asíncronos, RDSI, PPP sobre ATM, PPP sobre Frame Relay). Network Access Server (Servidor de acceso a la red): NAS es un dispositivo que proporciona a los usuarios acceso temporal a la red bajo demanda. Este acceso es punto a punto, de uso típico en líneas de la red telefónica convencional o RDSI. En la implementación Cisco, un NAS sirve como LAC. Secure shell (SSH) Tradicionalmente en sistemas Unix en el momento de entrar en el sistema, tanto el login como el password, así como el resto de la sesión, se transmiten a través de nuestra LAN o incluso a través de routers y nodos ajenos al nuestro en texto claro. Esto quiere decir que cualquiera que tenga activado un sniffer puede capturar nuestras sesiones con el potencial peligro que ello conlleva. La manera de evitar que alguien pueda espiar nuestras claves y sesiones, es utilizar una herramienta muy potente, fácil de instalar y muy cómoda para el usuario.

Materia: Introducción Computacional

Uso de capas para describir la comunicación de datos Para que los paquetes de datos puedan viajar desde el origen hasta su destino a través de una red, es importante que todos los dispositivos de la red hablen el mismo lenguaje o protocolo. Un protocolo es un conjunto de reglas que hacen que la comunicación en una red sea más eficiente. Por ejemplo, al pilotar un avión, los pilotos obedecen reglas muy específicas para poder comunicarse con otros aviones y con el control de tráfico aéreo. Un protocolo de comunicaciones de datos es un conjunto de normas, o un acuerdo, que determina el formato y la transmisión de datos. La Capa 4 del computador de origen se comunica con la Capa 4 del computador de destino. Las normas y convenciones utilizadas para esta capa reciben el nombre de protocolos de la Capa 4. Es importante recordar que los protocolos preparan datos en forma lineal. El protocolo en una capa realiza un conjunto determinado de operaciones sobre los datos al prepararlos para ser enviados a través de la red. Los datos luego pasan a la siguiente capa, donde otro protocolo realiza otro conjunto diferente de operaciones. Una vez que el paquete llega a su destino, los protocolos deshacen la construcción del paquete que se armó en el extremo de origen. Esto se hace en orden inverso. Los protocolos para cada capa en el destino devuelven la información a su forma original, para que la aplicación pueda leer los datos correctamente.

Fig 4: Comunicación entre Capas Modelo OSI En sus inicios, el desarrollo de redes sucedió con desorden en muchos sentidos. A principios de la década de 1980 se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red. Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Materia: Introducción Computacional

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional de Normalización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. En base a esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes. El modelo de referencia de Interconexión de Sistemas Abiertos (OSI) lanzado en 1984 fue el modelo de red descriptivo creado por ISO. Proporcionó a los fabricantes un conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad entre los distintos tipos de tecnología de red producidos por las empresas a nivel mundial. El modelo de referencia OSI se ha convertido en el modelo principal para las comunicaciones por red. Aunque existen otros modelos, la mayoría de los fabricantes de redes relacionan sus productos con el modelo de referencia de OSI. Esto es en particular así cuando lo que buscan es enseñar a los usuarios a utilizar sus productos. Se considera la mejor herramienta disponible para enseñar cómo enviar y recibir datos a través de una red. Fig 5: Modelo OSI Capas del Modelo OSI El modelo de referencia OSI es un marco que se puede utilizar para comprender cómo viaja la información a través de una red. El modelo de referencia OSI explica de qué manera los paquetes de datos viajan a través de varias capas a otro dispositivo de una red, aun cuando el remitente y el destinatario poseen diferentes tipos de medios de red. En el modelo de referencia OSI, hay siete capas numeradas, cada una de las cuales ilustra una función de red específica. - La división de la red en siete capas permite obtener las siguientes ventajas: • Divide la comunicación de red en partes más pequeñas y fáciles de manejar. • Normaliza los componentes de red para permitir el desarrollo y el soporte de los productos por diferentes fabricantes • Permite a los distintos tipos de hardware y software de red comunicarse entre sí. • Evita que los cambios en una capa afecten las otras capas. • Divide la comunicación de red en partes más pequeñas para simplificar el aprendizaje. Comunicaciones par a par (PDU) Para que los datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en el origen debe comunicarse con su capa par en el lugar destino. Esta forma de comunicación se conoce como de par-a-par. Durante este proceso, los protocolos de cada capa intercambian información, denominada unidades de datos de protocolo (PDU). Cada capa de comunicación en el computador origen se comunica con un PDU específico de capa, y con su capa par en el computador destino, como lo ilustra la figura 6 . Los paquetes de datos de una red parten de un origen y se envían a un destino. Cada capa depende de la función de servicio de la capa OSI que se encuentra debajo de ella. Para brindar este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior en su campo de datos, luego le puede agregar cualquier encabezado e información final que la capa necesite para ejecutar su función. Posteriormente, a medida que los datos se desplazan hacia abajo a través de las capas del modelo OSI, se agregan encabezados e información final adicionales. Después de que las Capas 7, 6 y 5 han agregado su información, la Capa 4 agrega más información. Este agrupamiento de datos, la PDU de la Capa 4, se denomina segmento.

Materia: Introducción Computacional La capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al subsistema de internetwork. La tarea de la capa de red consiste en trasladar esos datos a través de la internetwork. Ejecuta esta tarea encapsulando los datos y agregando un encabezado, con lo que crea un paquete (la PDU de la Capa 3). Este encabezado contiene la información necesaria para completar la transferencia, como, por ejemplo, las direcciones lógicas origen y destino. La capa de enlace de datos suministra un servicio a la capa de red. Encapsula la información de la capa de red en una trama (la PDU de la Capa 2). El encabezado de trama contiene la información (por ejemplo, las direcciones físicas) que se requiere para completar las funciones de enlace de datos. La capa de enlace de datos suministra un servicio a la capa de red encapsulando la información de la capa de red en una trama. La capa física también suministra un servicio a la capa de enlace de datos. La capa física codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su transmisión a través del medio (generalmente un cable) en la Capa 1

Fig 6: PDU Modelo OSI Modelo TCP/IP El estándar histórico y técnico de la Internet es el modelo TCP/IP. El Departamento de Defensa de EE.UU. (DoD) creó el modelo de referencia TCP/IP porque necesitaba diseñar una red que pudiera sobrevivir ante cualquier circunstancia, incluso una guerra nuclear. En un mundo conectado por diferentes tipos de medios de comunicación, como alambres de cobre, microondas, fibras ópticas y enlaces satelitales, el DoD quería que la transmisión de paquetes se realizara cada vez que se iniciaba y bajo cualquier circunstancia. Este difícil problema de diseño dio origen a la creación del modelo TCP/IP. A diferencia de las tecnologías de networking propietarias mencionadas anteriormente, el TCP/IP se desarrolló como un estándar abierto. Esto significaba que cualquier persona podía usar el TCP/IP. Esto contribuyó a acelerar el desarrollo de TCP/IP como un estándar. El modelo TCP/IP tiene las siguientes cuatro capas: • Capa de aplicación • Capa de transporte

Materia: Introducción Computacional • •

Capa de Internet Capa de acceso a la red

Fig 7: Modelo TCP/IP Aunque algunas de las capas del modelo TCP/IP tienen el mismo nombre que las capas del modelo OSI, las capas de ambos modelos no se corresponden de manera exacta. Lo más notable es que la capa de aplicación posee funciones diferentes en cada modelo. Los diseñadores de TCP/IP sintieron que la capa de aplicación debía incluir los detalles de las capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de representación, codificación y control de diálogo. La capa de transporte se encarga de los aspectos de calidad del servicio con respecto a la confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el protocolo para el control de la transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo. TCP es un protocolo orientado a conexión. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos. Orientado a conexión no significa que existe un circuito entre los computadores que se comunican. Significa que segmentos de la Capa 4 viajan de un lado a otro entre dos hosts para comprobar que la conexión exista lógicamente para un determinado período. El propósito de la capa Internet es dividir los segmentos TCP en paquetes y enviarlos desde cualquier red. Los paquetes llegan a la red de destino independientemente de la ruta que utilizaron para llegar allí. El protocolo específico que rige esta capa se denomina Protocolo Internet (IP). En esta capa se produce la determinación de la mejor ruta y la conmutación de paquetes. La relación entre IP y TCP es importante. Se puede pensar en el IP como el que indica el camino a los paquetes, en tanto que el TCP brinda un transporte seguro. El nombre de la capa de acceso de red es muy amplio y se presta a confusión. También se conoce como la capa de host a red. Esta capa guarda relación con todos los componentes, tanto físicos como lógicos, necesarios para lograr un enlace físico. Incluye los detalles de tecnología de networking, y todos los detalles de las capas física y de enlace de datos del modelo OSI. La figura 8 ilustra algunos de los protocolos comunes especificados por las capas del modelo de referencia TCP/IP. Algunos de los protocolos de capa de aplicación más comúnmente usados incluyen los siguientes: • • • • •

Protocolo de Transferencia de Archivos (FTP) Protocolo de Transferencia de Hipertexto (HTTP) Protocolo simple de transferencia de correo (SMTP) Sistema de denominación de dominios (DNS) Protocolo Trivial de Transferencia de Archivos (TFTP)

Materia: Introducción Computacional Los protocolos de capa de transporte comunes incluyen: • Protocolo para el Control del Transporte (TCP) • Protocolo de Datagrama de Usuario (UDP) El protocolo principal de la capa Internet es: • Protocolo Internet (IP) La capa de acceso de red se refiere a cualquier tecnología en particular utilizada en una red específica. Independientemente de los servicios de aplicación de red que se brinden y del protocolo de transferencia que se utilice, existe un solo protocolo de Internet, IP. Esta es una decisión de diseño deliberada. IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del mundo pueda comunicarse en cualquier momento.

Fig 8: Protocolos TCP/IP Comunes Comparando el modelo OSI con los modelos TCP/IP, surgen algunas similitudes y diferencias. Las similitudes incluyen: • Ambos se dividen en capas. • Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos. • Ambos tienen capas de transporte y de red similares. • Ambos modelos deben ser conocidos por los profesionales de networking. • Ambos suponen que se conmutan paquetes. Esto significa que los paquetes individuales pueden usar rutas diferentes para llegar al mismo destino. Esto se contrasta con las redes conmutadas por circuito, en las que todos los paquetes toman la misma ruta. Las diferencias incluyen: • TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de aplicación. • TCP/IP combina la capa de enlace de datos y la capa física del modelo OSI en la capa de acceso de red. • TCP/IP parece ser más simple porque tiene menos capas. • Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló la Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos. En comparación, por lo general las redes no se desarrollan a partir del protocolo OSI, aunque el modelo OSI se usa como guía.

Materia: Introducción Computacional

Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha desarrollado la Internet, este currículum utiliza el modelo OSI por los siguientes motivos: • Es un estándar genérico, independiente de los protocolos. • Es más detallado, lo que hace que sea más útil para la enseñanza y el aprendizaje. • Al ser más detallado, resulta de mayor utilidad para el diagnóstico de fallas. Los profesionales de networking tienen distintas opiniones con respecto al modelo que se debe usar. Dada la naturaleza de esta industria, es necesario familiarizarse con ambos. A lo largo de todo el currículum se hará referencia a ambos modelos, el OSI y el TCP/IP. Se hará énfasis en lo siguiente: • TCP como un protocolo de Capa 4 OSI • IP como un protocolo de Capa 3 OSI • Ethernet como una tecnología de Capa 2 y Capa 1 Recuerden que hay una diferencia entre un modelo y un protocolo que realmente se utiliza en networking. Se utilizará el modelo OSI para describir protocolos TCP/IP

Fig 9: Protocolos Para Cada Capa Proceso detallado de encapsulamiento Todas las comunicaciones de una red parten de un origen y se envían a un destino. La información que se envía a través de una red se denomina datos o paquetes de datos. Si un computador (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento. Redes de área local (LAN). En esta categoría se encuentran tipos básicos de red. Su alcance es de tan sólo unos cientos de metros, los suficientes como para conectar el equipo de cómputo de un mismo edificio o de un mismo campus universitario. Éstas son mantenidas y administradas por el mismo propietario de la red. También utilizan las topologías antes estudiadas. Debido a su corto alcance también suelen tener la velocidades más elevadas llegando inclusive a los 100 Mbps.

Materia: Introducción Computacional Habría que señalar un tipo muy particular de red de área local, son las denominadas intranets, éstas redes se utilizan para conectar pequeñas subredes entre si que pudiera tener incluso diferentes topologías, y lo hacen al estilo de una red amplia. Redes de área metropolitana (MAN). Tenemos que si el alcance de la red es a nivel, municipal entonces se tiene una red tipo MAN (Metropolitan Area Network). La idea de una red de área amplia es conectar equipos de cómputo a través de líneas privadas o públicas que son propiedad de alguna empresa privada o gubernamental como compañías telefónicas o de TV por cable. Utilizan protocolos para redes de área local y son administradas y mantenidas por la compañía dueña de las líneas. Redes de área amplia (WAN). Las redes de área amplia conectan equipos distantes entre sí, su alcance es de kilómetros, típicamente de alcance global. A diferencia de las redes LAN y MAN, este tipo de redes no tienen un administrador en particular, más bien son mantenidas por los mismos usuarios quienes prestan sus recursos ( que pueden ser dispositivos de interconexión como ruteadores, puentes, etc.) para conectar redes privadas con el resto del mundo. El Cable Par Trenzado Es de los más antiguos en el mercado y en algunos tipos de aplicaciones es el más común. Consiste en dos alambres de cobre o a veces de aluminio, aislados con un grosor de 1 mm aproximadamente. Los alambres se trenzan con el propósito de reducir la interferencia eléctrica de pares similares cercanos. Los pares trenzados se agrupan bajo una cubierta común de PVC (Poli cloruro de Vinilo) en cables multipares de pares trenzados (de 2, 4, 8, hasta 300 pares). Un ejemplo de par trenzado es el sistema de telefonía, ya que la mayoría de aparatos se conectan a la central telefónica por medio de un par trenzado. Actualmente, se han convertido en un estándar en el ámbito de las redes LAN (Local Área Network) como medio de transmisión en las redes de acceso a usuarios (típicamente cables de 2 ó 4 pares trenzados). A pesar que las propiedades de transmisión de cables de par trenzado son inferiores, y en especial la sensibilidad ante perturbaciones extremas, a las del cable coaxial, su gran adopción se debe al costo, su flexibilidad y facilidad de instalación, así como las mejoras tecnológicas constantes introducidas en enlaces de mayor velocidad, longitud, etc. Estructura del Cable par Trenzado: Por lo general, la estructura de todos los cables par trenzado no difieren significativamente, aunque es cierto que cada fabricante introduce algunas tecnologías adicionales mientras los estándares de fabricación se lo permitan. El cable está compuesto, por un conductor interno que es de alambre electrolítico recocido, de tipo circular, aislado por una capa de polietileno coloreado. Debajo de la aislación coloreada existe otra capa de aislación también de polietileno, que contiene en su composición una sustancia antioxidante para evitar la corrosión del cable. El conducto sólo tiene un diámetro de aproximadamente medio milímetro, y más la aislación el diámetro puede superar el milímetro. Sin embargo es importante aclarar que habitualmente este tipo de cable no se maneja por unidades, sino por pares y grupos de pares, paquete conocido como cable multipar. Todos los cables del multipar están trenzados entre sí con el objeto de mejorar la resistencia de todo el grupo hacia diferentes tipos de interferencia electromagnética externa. Por esta razón surge la necesidad de poder definir colores para los mismos que permitan al final de cada grupo de cables conocer qué cable va con cual otro. Los colores del aislante están normalizados a fin de su manipulación por grandes cantidades. Para Redes Locales los colores estandarizados son: • Naranja / Blanco – Naranja. • Verde / Blanco – Verde. • Blanco / Azul – Azul

Materia: Introducción Computacional •

Blanco / Marrón – Marrón

En telefonía, es común encontrar dentro de las conexiones grandes cables telefónicos compuestos por cantidades de pares trenzados, aunque perfectamente identificables unos de otros a partir de la normalización de los mismos. Los cables una vez fabricados unitariamente y aislados, se trenzan de a pares de acuerdo al color de cada uno de ellos; aún así, estos se vuelven a unir a otros formando estructuras mayores: los pares se agrupan en subgrupos, los subgrupos de agrupan en grupos, los grupos se agrupan en superunidades, y las superunidades se agrupan en el denominado cable. De esta forma se van uniendo los cables hasta llegar a capacidades de 2200 pares; un cable normalmente está compuesto por 22 superunidades; cada sub-unidad está compuesta por 12 pares aproximadamente; este valor es el mismo para las unidades menores. Los cables telefónicos pueden ser armados de 6, 10, 18, 20, 30, 50, 80, 100, 150, 200, 300, 400, 600, 900, 1200, 1500, 1800 ó 2200 pares. Tipos de Cable par Trenzado: Cable de par trenzado apantallado (STP): En este tipo de cable, cada par va recubierto por una malla conductora que actúa de apantalla frente a interferencias y ruido eléctrico. Su impedancia es de 150 Ohm. El nivel de protección del STP ante perturbaciones externas es mayor al ofrecido por UTP. Sin embargo es más costoso y requiere más instalación. La pantalla del STP, para que sea más eficaz, requiere una configuración de interconexión con tierra (dotada de continuidad hasta el terminal), con el STP se suele utilizar conectores RJ49. Es utilizado generalmente en las instalaciones de procesos de datos por su capacidad y sus buenas características contra las radiaciones electromagnéticas, pero el inconveniente es que es un cable robusto, caro y difícil de instalar. Cable de par Trenzado con Pantalla Global (FTP): En este tipo de cable como en el UTP, sus pares no están apantallados, pero sí dispone de una pantalla global para mejorar su nivel de protección ante interferencias externas. Su impedancia característica típica es de 120 OHMIOS y sus propiedades de transmisión son más parecidas a las del UTP. Además, puede utilizar los mismos conectores RJ45. Tiene un precio intermedio entre el UTP y STP. Cable par Trenzado no Apantallado (UTP): El cable par trenzado más simple y empleado, sin ningún tipo de pantalla adicional y con una impedancia característica de 100 Ohmios. El conector más frecuente con el UTP es el RJ45, aunque también puede usarse otro (RJ11, DB25, DB11, etc), dependiendo del adaptador de red. Es sin duda el que hasta ahora ha sido mejor aceptado, por su costo accesibilidad y fácil instalación. Sus dos alambres de cobre torcidos aislados con plástico PVC han demostrado un buen desempeño en las aplicaciones de hoy. Sin embargo, a altas velocidades puede resultar vulnerable a las interferencias electromagnéticas del medio ambiente. El cable UTP es el más utilizado en telefonía. Categorías del Cable UTP: Cada categoría especifica unas características eléctricas para el cable: atenuación, capacidad de la línea e impedancia. Existen varias categorías dentro del cable UTP:

Materia: Introducción Computacional Categoría 1: Este tipo de cable esta especialmente diseñado para redes telefónicas, es el típico cable empleado para teléfonos por las compañías telefónicas. Alcanzan como máximo velocidades de hasta 4 Mbps. Categoría 2: De características idénticas al cable de categoría 1. Categoría 3: Es utilizado en redes de ordenadores de hasta 16 Mbps. de velocidad y con un ancho de banda de hasta 16 Mhz. Categoría 4: Esta definido para redes de ordenadores tipo anillo como Token Ring con un ancho de banda de hasta 20 Mhz y con una velocidad de 20 Mbps. Categoría 5: Es un estándar dentro de las comunicaciones en redes LAN. Es capaz de soportar comunicaciones de hasta 100 Mbps. con un ancho de banda de hasta 100 Mhz. Este tipo de cable es de 8 hilos, es decir cuatro pares trenzados. La atenuación del cable de esta categoría viene dado por esta tabla referida a una distancia estándar de 100 metros: Categoría 5e: Es una categoría 5 mejorada. Minimiza la atenuación y las interferencias. Esta categoría no tiene estandarizadas las normas aunque si esta diferenciada por los diferentes organismos. Categoría 6: No esta estandarizada aunque ya se está utilizando. Se definirán sus características para un ancho de banda de 250 Mhz. Categoría 7: No esta definida y mucho menos estandarizada. Se definirá para un ancho de banda de 600 Mhz. El gran inconveniente de esta categoría es el tipo de conector seleccionado que es un RJ-45 de 1 pines. El Cable Coaxial. El cable coaxial tenía una gran utilidad en sus inicios por su propiedad idónea de transmisión de voz, audio y video, además de textos e imágenes. Se usa normalmente en la conexión de redes con topología de Bus como Ethernet y ArcNet, se llama así porque su construcción es de forma coaxial. La construcción del cable debe de ser firme y uniforme, por que si no es así, no se tiene un funcionamiento adecuado. Este conexionado está estructurado por los siguientes componentes de adentro hacia fuera de la siguiente manera: • • •



Un núcleo de cobre sólido, o de acero con capa de cobre, o bien de una serie de fibras de alambre de cobre entrelazadas dependiendo del fabricante. Una capa de aislante que recubre el núcleo o conductor, generalmente de material de polivinilo, este aislante tiene la función de guardar una distancia uniforme del conductor con el exterior. Una capa de blindaje metálico, generalmente cobre o aleación de aluminio entretejido (a veces solo consta de un papel metálico) cuya función es la de mantenerse lo mas apretado posible para eliminar las interferencias, además de que evita de que el eje común se rompa o se tuerza demasiado, ya que si el eje común no se mantiene en buenas condiciones, trae como consecuencia que la señal se va perdiendo, y esto afectaría la calidad de la señal. Por último, tiene una capa final de recubrimiento, de color negro en el caso del cable coaxial delgado o amarillo en el caso del cable coaxial grueso, este recubrimiento normalmente suele ser de vinilo, xelón ó polietileno uniforme para mantener la calidad de las señales.

Una breve comparación entre el cable coaxial y el cable par trenzado: El cable coaxial es más inmune a las interferencias o al ruido que el par trenzado.

Materia: Introducción Computacional El cable coaxial es mucho más rígido que el par trenzado, por lo que al realizar las conexiones entre redes la labor será más dificultosa. La velocidad de transmisión que podemos alcanzar con el cable coaxial llega solo hasta 10Mbps, en cambio con el par trenzado se consiguen 100Mbps. Algunos tipos de Cable Coaxial: El RG-75 se usa principalmente para televisión Cada cable tiene su uso. Por ejemplo, los cables RG-8, RG-11 y RG-58 se usan para redes de datos con topología de Bus como Ethernet y ArcNet. Dependiendo del Grosor Tenemos: • Cable coaxial delgado (Thin coaxial): El RG-58 es un cable coaxial delgado: a este tipo de cable se le denomina delgado porque es menos grueso que el otro tipo de cable coaxial, debido a esto es menos rígido que el otro tipo, y es más fácil de instalar. • Cable Coaxial Grueso (Thick Coaxial): Los RG8 y RG11 son cables coaxiales gruesos: estos cables coaxiales permiten una transmisión de datos de mucha distancia sin debilitarse la señal, pero el problema es que, un metro de cable coaxial grueso pesa hasta medio kilogramo, y no puede doblarse fácilmente. Un enlace de coaxial grueso puede ser hasta 3 veces mas largo que un coaxial delgado. Dependiendo de su Banda Tenemos: • Banda Base: Existen básicamente dos tipos de cable coaxial. El de Banda Base, que es el normalmente empleado en redes de ordenadores, con una resistencia de 50Ohm, por el que fluyen señales digitales. • Banda Ancha: El cable coaxial de banda ancha normalmente mueve señales analógicas, posibilitando la transmisión de gran cantidad de información por varias frecuencias, y su uso más común es la televisión por cable. Los factores a tener en cuenta a la hora de elegir un cable coaxial son su ancho de banda, su resistencia o impedancia característica, su capacidad y su velocidad de propagación. El ancho de banda del cable coaxial está entre los 500Mhz, esto hace que el cable coaxial sea ideal para transmisión de televisión por cable por múltiples canales. La resistencia o la impedancia característica depende del grosor del conductor central o malla, si varía éste, también varía la impedancia característica. Conexión fibra óptica.- Esta conexión es cara, permite transmitir la información a gran velocidad e impide la intervención de las líneas. Como la señal es transmitida a través de luz, existen muy pocas posibilidades de interferencias eléctrica o emisión de señal. El cable consta de dos núcleos ópticos, uno interno y otro externo, que refractan la luz de forma distinta. La fibra está encapsulada en un cable protector . Tipos de Fibra Fibra Monomodo: Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores flujos se consiguen con esta fibra, pero también es la más compleja de implantar. El dibujo muestra que sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje de la fibra, por lo que se ha ganado el nombre de "monomodo" (modo de propagación, o camino del haz luminoso, único).

Materia: Introducción Computacional Son fibras que tienen el diámetro del núcleo en el mismo orden de magnitud que la longitud de onda de las señales ópticas que transmiten, es decir, de unos 5 a 8 m m. Si el núcleo está constituido de un material cuyo índice de refracción es muy diferente al de la cubierta, entonces se habla de fibras monomodo de índice escalonado. Los elevados flujos que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo, ya que sus pequeñas dimensiones implican un manejo delicado y entrañan dificultades de conexión que aún se dominan mal. Fibra Multimodo de Índice Gradiante Gradual: Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de refracción en el interior del núcleo no es único y decrece cuando se desplaza del núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la dispersión entre los diferentes modos de propagación a través del núcleo de la fibra. La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar otros tipos de fibras: Multimodo de índice escalonado 100/140 mm. Multimodo de índice de gradiente gradual 50/125 m m. Fibra Multimodo de índice escalonado: Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km. Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su nombre de índice escalonado.

Related Documents

Introduccion1
June 2020 2
Introduccion1
May 2020 1
Introduccion1
October 2019 5