Post on 11-Oct-2018
1
Unidad 1: Hardware INTRODUCCION
De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se
ha destacado muy por encima del resto: la computadora electrónica. Durante muchos años se le ha
otorgado el título de cerebro electrónico, y se han empleado numerosas horas en discutir
apasionadamente sobre si estas máquinas "piensan" realmente o no. Sin lugar a dudas, el cerebro
humano es mucho más perfecto y eficiente que cualquier máquina desarrollada hasta el momento, por
muy sofisticada que ésta sea. En lo único que se ve superado el cerebro humano por la máquina es
en la velocidad de cálculo, probablemente de ahí provenga su mitificación. La búsqueda de aparatos
de apoyo para mejorar dicha velocidad data de tiempos inmemoriales. Respecto a su capacidad de
almacenamiento, la máquina aventaja al hombre con relación al orden y precisión, pero el cerebro
humano permite almacenar un volumen mucho mayor de información; de hecho es imposible, por el
momento, que una máquina pueda almacenar toda la información que existe en la memoria de un
hombre, por simple que éste sea.
Al encarar el estudio de un curso sobre informática es importante definir claramente el
significado de este término, ya que al ser relativamente nuevo, puede no estar totalmente aclarado.
Una primera aproximación nos dice que es una contracción de "información automática", pero se
puede llegar a definiciones mucho más ampulosas como: "Es la disciplina que se ocupa del
tratamiento de la información a través de la aplicación de la inteligencia sobre la misma, en forma
recurrente y teniendo como fin último la creación y transmisión de conocimiento"; para los alcances de
este curso basta una definición tal como: "Es la ciencia que trata la concepción, realización y utilización
de los sistemas que procesan información".
Otro punto importante al comienzo del estudio sobre el tema es analizar la evolución que han
sufrido los distintos medios de cálculo hasta desembocar en las modernas computadoras. Esto se
hace para que a través de una visión del pasado de estos equipos, podamos hacer previsiones con
respecto al futuro, de una manera más confiable, sin entrar en especulaciones de ciencia-ficción.
Comenzaremos pues, con una breve perspectiva histórica.
PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL Perspectiva histórica
Si no somos demasiado rigurosos en cuanto a las características exigidas para considerar
máquinas de calcular a los primeros elementos utilizados por el hombre para auxiliarse en las
actividades intelectuales relacionadas con el cálculo, podemos afirmar que el más elemental de estos
utensilios es el ábaco. Su origen tuvo lugar en Asia, hace varios miles de años y aún sigue brindando
servicios en esos lugares. Con un poco de paciencia y algo de práctica, se pueden realizar con él
adiciones y sustracciones de números grandes, a velocidades bastante elevadas.
A lo largo de la historia se han inventado otras muchas máquinas que, por su sencillez, no
vamos a considerarlas prototipos de las modernas computadoras, hasta que en el siglo XVIII,
aproximadamente en 1642, el filósofo y científico francés Blaise Pascal, de tan sólo dieciocho años de
edad, inventó una máquina que sumaba y restaba denominada "pascalina" y que utilizaba ruedas
dentadas como mecanismo; estos engranajes estaban formados por diez dientes numerados del 0 al
9. Cuando una rueda pasaba del 9 al 0 después de una vuelta completa, producía un arrastre de un
décimo de vuelta en la rueda situada a su izquierda, incrementando en una unidad el número de
lectura. Este proceso de "arrastre automático" constituye el principal aporte de la máquina de Pascal,
que éste fabricara especialmente para complacer a su padre, que era recaudador de impuestos. La
"pascalina" no tuvo éxito comercial.
Posteriormente, en 1671, el filósofo y matemático alemán Gottfried Leibniz, que inventó el
cálculo infinitesimal en forma independiente de Newton, utilizando el principio de la máquina de
Pascal, desarrolló un proyecto que además de sumar y restar, multiplicaba y dividía por sumas y
restas sucesivas respectivamente, utilizando por primera vez el principio cíclico.
Sin embargo, no puede hablarse de auténtico adelanto, en cuanto a los conceptos del cálculo
y su representación, hasta las investigaciones del británico Charles Babbage quien, aproximadamente
en 1823 comenzó a trabajar en un proyecto denominado "máquina de diferencias", que servía para el
2
cálculo de tablas. Babbage abandonó, sin acabar, este proyecto por una máquina más potente y
ambiciosa que él denominó "máquina analítica" y que concibió en 1831. Su finalidad era ejecutar
cualquier operación matemática sin la intervención humana en el proceso de cálculo. Uno de los
principales adelantos consistió en la idea que tenía Babbage, con respecto a que a su máquina se la
podía "enseñar" o "programar" para efectuar cualquier tarea matemática. Desafortunadamente, las
máquinas de Babbage, no pudieron ser construidas pues necesitaban una tecnología mecánica
imposible de lograr en esa época. El proyecto de Babbage utilizaba un sistema de tarjetas
perforadas (que había descubierto en 1801 el francés Joseph Jacquard y empleado en un telar
automático), con las cuales se suministraban los datos y se controlaba la máquina. En 1835, la
condesa Ada Lovelace, compañera de Babbage, llegó a desarrollar programas para la máquina
analítica, convirtiéndose de esa manera en la primera persona que programó ordenadores. A pesar de
que la máquina analítica no se llegó a construir jamás, su proyecto mantiene grandes analogías con
las actuales computadoras.
Otro hito en el desarrollo informático es la máquina tabuladora del norteamericano Hermann
Hollerith quien, en 1890, la utilizó para evaluar el Censo Norteamericano, ingresando los datos por
medio de tarjetas perforadas de 80 columnas, del tamaño de un billete de un dólar. Hollerith fundó una
compañía que posteriormente se convertiría en la empresa de informática más grande e importante
del mundo: IBM (International Business Machines).
En 1937, Howard Aiken, propuso el diseño de una calculadora electromecánica que se
comenzó a construir en 1939, gracias a un acuerdo con IBM. En 1944 ve la luz el trabajo de Aiken: el
Mark I, considerado el primer ordenador electromecánico del mundo con programa almacenado. Este
se programaba mediante tarjetas perforadas.
El primer ordenador electromecánico del mundo, de aplicación especial, fue el Colossus,
desarrollado por el inglés Alan Turing en 1943; fue el invento más secreto de la Segunda Guerra
Mundial, fabricado para descifrar el código secreto alemán Enigma.
En 1943, en los momentos más críticos de la II Guerra mundial, un coronel del Ejército de los
Estados Unidos, solicitó una calculadora para la artillería. El reto fue aceptado por J.P. Eckert y J.M.
Mauchly, que más tarde fundarían la empresa UNIVAC. El desarrollo tuvo lugar en la Universidad de
Pensilvania y en 1946 nace el ENIAC (Electronic Numerical Integrator and Calculator), el primer
ordenador electrónico del mundo. El ENIAC utilizaba 18.000 válvulas de vacío y 1.500 relés; emitía el
calor equivalente a 200.000 Watts y estaba instalado en una sala de 9x30m. Su capacidad de
almacenamiento era de 20 números de 10 dígitos. A pesar del gran adelanto, con respecto a la
velocidad, que significaba sustituir la inercia de las partes mecánicas por conmutaciones electrónicas,
su concepción dio un paso atrás con respecto a programación ya que todo el programa debía hacerse
reordenando las conexiones; luego de terminada la guerra se le hicieron modificaciones para permitir
la programación mediante tarjetas perforadas, pero sus características no permitieron que prosperara
comercialmente. Fue retirado de funcionamiento en 1952.
Aproximadamente en la misma época en que nace el ENIAC, John Von Newman -quien
propusiera el sistema binario para la representación numérica en las computadoras- desarrolló el
EDVAC (Electronic Discrete Variable Automatic Computer), la primera computadora electrónica de
programa internamente almacenado. El EDVAC fue una computadora mucho más pequeña y simple
que el ENIAC, pero mucho más poderosa.
El ENIAC y el EDVAC dan comienzo a lo que se denomina la Primera Generación de
Ordenadores, cuyo componente fundamental en la unidad de proceso eran los tubos de alto vacío o
válvulas electrónicas, su velocidad de proceso se medía en milésimas de segundo, pero su tiempo
medio entre fallos era muy bajo; en el ENIAC, por ejemplo, a los dos minutos de funcionamiento las
válvulas comenzaban a fundirse. Los computadores más representativos de esta época fueron: UNIVAC
I, IBM 650 e IBM 700.
Con la aparición del transistor en 1956, comienza lo que se denomina Segunda Generación
de Computadoras. El transistor permitió reducir el tamaño de las máquinas y aumentar su potencia y
velocidad, que se medía en millonésimas de segundo. Las computadoras de esta generación ya eran
alfanuméricas y su tiempo medio entre fallos aumentó en forma sustancial. Los representantes más
importantes fueron las series 1400 y 1700 de IBM, el 1107 de UNIVAC REMINGTON RAND, el
BURROUGHS B-500, el HONEYWELL 800 y el CONTROL DATA 1604.
Pese a que no es muy exacta la fecha, hacia 1964, nace la Tercera Generación de
Computadoras que utiliza los circuitos integrados, disminuyendo aún más los tamaños, mejorando
potencia y velocidad y aumentando el tiempo medio entre fallas. La velocidad de proceso orilla el
nanosegundo (una mil millonésima de segundo). Representantes de esta generación son las series
360 y 370 de IBM, UNIVAC 1108 y 1110, HONEYWELL 600 y la serie 5700 de BURROUGHS.
La cuarta generación (1971-1983) fue caracterizada por la integración sobre los componentes
3
electrónicos, lo que propició la aparición del microprocesador un único circuito integrado en el que se
reúnen los elementos básicos de la máquina. Se desarrolló el "chip". Se colocan más circuitos dentro
de un "chip". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la
unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es
operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips"
de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se
desarrollan las supercomputadoras. La denominada Cuarta Generación (1971 a 1983) es el producto
de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de
chips hizo posible la creación de las computadoras personales (PC). Los circuitos integrados LSI y
VLSI (Large Scale Integration y Very Large Scale Integration) nos introducen en la Cuarta Generación
de Computadoras en la que los tamaños y costos han descendido tanto que las ponen al alcance de
casi todo el mundo.
En los años 90’ del siglo pasado aparece la quinta generación de computadoras. Surge como
computadora portátil o laptop tal cual la conocemos en la actualidad. IBM presenta su primera laptop o
computadora portátil y revoluciona el sector informativo. La quinta generación de computadoras,
también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un
ambicioso proyecto hecho por Japón a finales de la década de 1970. Su objetivo era el desarrollo de
una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto
en el plano del hardware como del software, usando el lenguaje PROLOG2 3 4 al nivel del lenguaje
de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una
lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y
prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per
Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su
desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
En Japón se sigue trabajando máquinas de sexta generación, de procesamiento en paralelo y
flujo de datos y ya se habla de nuevas generaciones con la sustitución del electrón por el fotón y
utilización de biointeligencia.
Influencia actual de la informática La computadora es una herramienta de cálculo capaz de procesar cualquier clase de
información y realizarlo a velocidades realmente muy elevadas, por consiguiente es aplicable a la
solución de problemas en cualquier rama del conocimiento humano. De esta manera, actualmente
forman parte indispensable de gran número de industrias, centros de educación, de investigación,
bancos, centros administrativos, etc. A pesar de ser un invento relativamente reciente, ha penetrado
en nuestras vidas hasta tal punto, que pocas cosas existen en este momento que, en mayor o menor
grado, no necesitan tras de sí una computadora.
Cuando preguntamos cuáles son las aplicaciones de las computadoras?, su respuesta implica
elaborar una clasificación que estrictamente hablando no existe. Sin embargo, las aplicaciones en
base a su objetivo y sus funciones se pueden dividir en dos: Técnicas (o Científicas) y Administrativas,
aunque entre ellas siempre hay una interacción mutua. Ninguna de las dos categorías agota todas las
áreas posibles relacionadas con el manejo de la información, el que siempre será una función del
ingenio y habilidad del hombre que la utiliza.
Las aplicaciones técnicas, fundamentalmente, comprenden la solución de problemas
matemáticos, la solución de problemas de ingeniería, la simulación de sistemas y el control de
procesos. Las aplicaciones administrativas, por su parte, abarcan el procesamiento de grandes
cantidades de información como: cuentas corrientes de bancos o comercios, control de stock,
facturación, contabilidad y, en general, gestión empresarial.
La ciencia moderna usa las matemáticas como lenguaje para expresar leyes en términos
exactos. La computadora digital electrónica es una herramienta valiosa para estudiar las
consecuencias de estas leyes. Una vez que se ha encontrado el procedimiento exacto para resolver un
problema, el tiempo requerido para ejecutar manualmente los cálculos necesarios lo puede hacer
prohibitivo y también, algunas veces, es necesario resolver el mismo problema en repetidas ocasiones
usando diferentes series de parámetros o datos de entrada. La computadora no sólo es capaz de
evaluar expresiones matemáticas a altísimas velocidades, sino también puede efectuar cálculos
tantas veces como se desee con diferentes series de va- lores numéricos, comparar los resultados y
encontrar los valores óptimos que se emplearon.
Considerando todo lo expresado anteriormente, la gente a menudo se pregunta: Puede una
computadora hacer cualquier cosa? Pueden las computadoras pensar?.
A pesar de sus increíbles posibilidades, las computadoras tienen sus limitaciones, pero es
difícil predecir cuales de estas limitaciones serán superadas en el futuro. Por lo tanto no hay acuerdo
4
entre los expertos sobre lo que las computadoras serán o no dentro de 100 años. Es difícil aún
predecir lo que las computadoras harán dentro de 5 o 10 años.
Lo más importante a aprender es qué tipos de tareas puede hacer una computadora,
eficientemente, rápido y a bajo costo. Por el momento, pensar en forma parecida a un ser humano, no
es una de esas tareas.
En general, una forma de saber si un problema puede ser resuelto por una computadora es
asignar ese problema a una persona o grupo de personas, sin preocuparse cuanto tiempo llevará a
las personas hacer esa tarea, 100 ó 1000 años, si no puede ser realizado de ninguna manera por las
personas, es muy probable que la computadora tampoco pueda hacerlo ahora, ni en un futuro próximo.
Los adelantos tecnológicos favorecieron, en principio, a las actividades técnicas, debido
fundamental- mente a los requerimientos de equipos necesarios en esta categoría. Las computadoras
para usos técnicos se requieren, generalmente, para realizar grandes cantidades de cálculos sobre
cantidades pequeñas de datos. La gestión administrativa, usualmente, trabaja sobre mayor cantidad
de datos, realizando operaciones menos complejas. El abaratamiento de los equipos, la mayor
performance de los mismos y la más reciente reducción del valor de las memorias de trabajo y de
almacenamiento masivo, permiten cubrir con facilidad las necesidades de casi cualquier aplicación,
poniendo la computación al alcance de prácticamente todo el mundo.
Lo mencionado precedentemente permite, en las empresas, descentralizar muy
convenientemente los equipos. Un ejecutivo de una importante firma fabricante de microprocesadores,
se refería a esta situación haciendo una analogía con lo sucedido en los albores de la revolución
industrial, en la que los grandes motores eran la pieza más importante de los talleres ya que todas las
máquinas estaban acopladas a un eje común, el del gran motor, que en caso de avería detenía toda
la producción. Con los avances tecnológicos se abarató la producción de motores de menor potencia,
dotándose a cada máquina de su correspondiente motor, lográndose mejores aprovechamientos y
menores trastornos en casos de falla. Con el aprovechamiento de la computadora está sucediendo una
situación muy parecida.
CLASIFICACION DE COMPUTADORAS
Existen distintos puntos de vista para encarar una clasificación de computadoras. Desde la
óptica de sus principios de funcionamiento, tenemos tres tipos principales: Digitales (que son el objeto
de este curso); Analógicas e Híbridas.
Sus principales características son las siguientes: - Computadoras Digitales: Son las que operan realizando los cálculos con los que estamos
familiarizados, es decir operan en forma discreta obteniendo los resultados por aplicación de métodos
numéricos, proporcionando los resultados en forma de números o bien en forma de gráficos discontinuos.
- Computadoras Analógicas: estas máquinas resuelven problemas de sistemas físicos
mediante analogías eléctricas de los mismos, operando de acuerdo con las leyes del cálculo
infinitesimal en forma continua. Proporcionan la solución en forma de funciones de una variable
independiente, el tiempo, que pueden visualizarse mediante dispositivos adecuados, como
osciloscopios y graficadores, etc. Las computadoras digitales son más versátiles, permiten su
utilización en las ramas más dispares del conocimiento, son extremadamente rápidas y permiten el
almacenamiento o memorización de los datos. Las computadoras analógicas tienen un área de
aplicación más restringida, la simulación y resolución de ecuaciones íntegro-diferenciales
fundamentalmente, pero son muy eficientes. Su mayor desventaja es su elevado costo, debido a la
necesidad de elementos más precisos. Esta desventaja está haciendo que su uso disminuya, siendo
sustituidas por computadoras digitales adecuadamente programadas.
- Computadoras Híbridas: son combinaciones de computadoras digitales y analógicas que
permiten usufructuar las ventajas de ambos sistemas.
Por lo tanto la primera clasificación posible de computadoras será:
5
Una vez determinado el tipo de computadora del cual nos ocuparemos, es decir las
computadoras digitales, podemos hacer una nueva clasificación, esta vez en base a la tecnología
empleada en su construcción.
Si en este estudio sólo tenemos en cuenta las computadoras digitales electrónicas, hasta el
momento existen cinco generaciones de computadoras, como vimos anteriormente.
Es de destacar que esta clasificación evoluciona con el tiempo y con los avances
tecnológicos, y se puede graficar de la siguiente forma:
Hasta hace 15 años el término computadora comprendía a cualquier equipo dedicado al
proceso de datos. Actualmente podemos distinguir tres clases de computadoras, claramente
diferenciados: la maxi-computadora o computadora clásica, la minicomputadora y la
microcomputadora, todo esto teniendo en cuenta la capacidad y potencia.
A medida que descendemos en esta escala, nos encontramos con equipos menos potentes
aunque más baratos y versátiles.
En general cada uno de ellos tiene características ideales para un tipo especial de usuario,
por lo tanto ninguno anula a los anteriores, aunque existe la tendencia a la sustitución de los grandes
equipos por sistemas de miniordenadores o micro-ordenadores distribuidos, con lo que se gana en
autonomía sin perder cohesión. Existe una clasificación más amplia que los divide, de mayor a menor
en: supercomputadora, maxi, media, mini, mili, micro y nano. Aparecen además las de bolsillo; las
home computers y las personal computers y a éstas, en unidades de escritorio, laptops, notebooks y
netbooks, pero consideramos que todas éstas están, más o menos, incluidas en la clasificación.
Trataremos de clarificar los alcances y características de los tipos principales:
- Maxi-computadora: son equipos necesarios para el proceso de datos a gran escala, tanto
CLASIFICACIÓN EN BASE A TECNOLOGÍA
1ra. Generación: 1946 - Válvulas
2da. Generación: 1956 - transistores
3ra. Generación: 1964 - circ. integrados
4ta. Generación:
1975 - circ. integr. VLSI
5ta. Generación
1990- LIPS (Logical Inferences Per Second)
CLASIFICACIÓN POR PRINCIPIO DE
FUNCIONAMIENTO
DIGITALES
ANALÓGICAS
HÍBRIDAS
6
en su componente de gestión comercial como científica. Normalmente la adopción de grandes
computadoras obliga a realizar fuertes inversiones, tanto por lo oneroso que resultan los equipos,
como por las instalaciones auxiliares que necesitan: aire acondicionado, locales diáfanos y amplios,
etc. El equipo humano dedicado a su explotación debe ser numeroso y de alta especialización. Por
todo ello, sólo es recomendable su implementación si la complejidad o características de las
aplicaciones no se adaptan a sistemas más asequibles.
- Mini-computadoras: estos equipos son "mini" sólo en tamaño y precio, prestando
servicios muy importantes, incluso, si se distribuyen convenientemente y se conectan entre sí las
minicomputadoras pueden sustituir con éxito a un equipo grande, evitando la centralización y
acercando los equipos al usuario final. Sus principales aplicaciones son: el control de procesos;
comunicaciones y sistemas de información.
- Microcomputadoras: En la actualidad constituyen uno de los sectores más importantes
del mercado informático, haciéndose cargo de muchas de las áreas que anteriormente se cubrían con
minicomputadoras. Sus principales aplicaciones son: control de procesos; control de periféricos de
computadoras mayores; toma de datos y computadoras personales, cuyo bajo costo y la posibilidad
de introducir la informática en el hogar, ha permitido que su popularidad haya crecido espectacularmente.
PRINCIPIO DE FUNCIONAMIENTO Y ELEMENTOS FUNDAMENTALES
Un sistema de computación está formado por dos partes claramente diferenciables,
indispensables ambas, para un adecuado funcionamiento del mismo.
Una de ellas, que es la que describiremos en este punto, está formada por el medio físico o
tangible, compuesta por el equipo y sus accesorios, es decir: los circuitos, teclado, monitor, cables,
etc. La otra parte, de la que hablaremos en la próxima unidad, es la que comprende toda la
información complementaria que el equipo necesita para su normal funcionamiento: el sistema
operativo, intérpretes, compiladores, programas, etc.
La parte física se suele denominar con el término inglés "hardware" y la parte no-física con un
término derivado de aquél: "software". También algunos autores los denominan anatomía y fisiología
de las computadoras, respectivamente.
Partiendo de una definición de la función general de una computadora llegaremos a un detalle
de los elementos fundamentales de la misma: podemos decir que la función principal de una
computadora es la obtención de resultados a través de la información dada por el hombre en forma de
instrucciones y datos:
Esta sencilla definición permite clarificar que aún el hardware de una computadora estará
compuesto principalmente por dos partes: un lugar donde se desarrollan todos los procesos que se
denomina CPU y los elementos que la rodean y le permiten comunicarse con el exterior, llamados
dispositivos periféricos.
La CPU -sigla inglesa de Unidad Central de Proceso- es el corazón de la máquina y está
formada por la unidad de control, la unidad aritmético-lógica y la unidad de memoria.
Los dispositivos periféricos se dividen en unidades de entrada, unidades de salida y unidades
de almacenamiento.
- Unidad de Control: es la encargada de interpretar y seleccionar las distintas instrucciones
que forman el programa y que se encuentran almacenadas en la memoria. Esta unidad interpreta, de
entre los datos introducidos a la memoria, aquellos códigos que significan instrucciones, generando
señales que envía a las otras unidades de la máquina que son las encargadas de ejecutarlos.
- Unidad Aritmético-lógica: Es la que lleva a cabo todos los cálculos y comparaciones
(decisiones) que forman el programa. Durante la ejecución del mismo fluyen entre esta unidad y la
DATOS COMPUTADORA RESULTADOS
INTRUCCIONES
7
memoria los diferentes datos, indicándole la unidad de control el tipo de operación a realizar con estos
datos.
- Unidad de Memoria: Es la parte de la computadora en la que se introducen y almacenan
los datos e instrucciones que forman el programa. De ella extraen, la unidad de control y la unidad
aritmético-lógica, la información que necesitan para ejecutar los programas y deposita los datos
intermedios que se generan. Una vez finalizada la ejecución del programa, quedan almacenados en
esta unidad los resultados para ser extraídos por la unidad de salida.
C.P.U.
- Unidad de Entrada: Es el sistema mediante el cual se introducen en el ordenador los datos
y las instrucciones que forman el programa que se habrá de ejecutar. Son los elementos de
comunicación entre el hombre y la máquina.
Ejemplos de periféricos de entrada son:
Teclados.
Lápices ópticos.
Lector de códigos de barras.
Joysticks y ratones.
Digitalizadores y scanners.
Convertidores analógico/digital.
Micrófonos
Sensores (auditivos, de movimiento, ópticos, etc.)
- Unidad de salida: Es el sistema que toma de la memoria la información codificada y la
convierte en un formato que, o bien puede ser directamente interpretado por el hombre, o trasladado a
otra máquina de procesamiento. En general son los instrumentos de comunicación entre la máquina y
el hombre.
Ejemplos de periféricos de salida son: Monitores (tubos de rayos catódicos)
Impresoras.
Plotters.
Convertidores digitales a analógicos.
Displays de cuarzo líquido o leds.
Parlantes.
Indicadores luminosos.
Unidad de Control
Unidad Aritmético-lógica
Unidad de Entrada MEMORIA Unidad de Salida
Unidades de Almacenamiento
Flujo de Control
Flujo de Datos
8
- Unidades de almacenamiento: Son aquellas unidades que utilizando algún elemento de
soporte (magnético o electrónico), como memorias auxiliares de almacenamiento, permiten la entrada
o salida de in- formación de la Unidad Central de Proceso.
Ejemplos de periféricos de almacenamiento son:
Unidades de disco magnético.
Unidades de cinta. Unidades de disco óptico. Unidades de memoria electrónica (pendrives).
Unidades de Medida. El propósito principal de las computadoras es el procesamiento de números; que esos
números pueden significar letras, símbolos u otra información es algo aparte: las computadoras
procesan números. Por razones técnicas, las computadoras electrónicas digitales tienen facilidad
para reconocer sólo dos estados posibles: hay tensión o no hay tensión. La pregunta es, por lo tanto,
si con esta limitación la computadora puede sernos útil. En principio parecería que no, debido a que el
hombre maneja su actividad con un sistema numérico que reconoce 10 símbolos distintos, es decir
tiene base diez. Este sistema se denomina sistema numérico decimal. Su base proviene de la
cantidad de dedos que los seres humanos tienen en sus manos, con las que se ayuda naturalmente a
contar.
Qué sucede entonces con un equipo que sólo reconoce dos estados posibles?. Pues en
realidad es muy simple: cuenta hasta dos. Existe un sistema de numeración que tiene base dos y se
denomina sistema binario. Las computadoras manejan su información con este sistema de
numeración.
Sistema numérico binario Como dijimos anteriormente, este sistema tiene base dos y reconoce sólo dos símbolos: el
cero (0) y el uno (1). A esta mínima unidad de información se la denomina BIT (Binary Information
digiT, dígito de información binario). Generalmente la información que manejan las computadoras está
formada por cadenas de bits de longitud constante, denominadas palabras de procesamiento,
existiendo máquinas de 1, 4, 8, 12, 16, 32, 64 y más bits. Las microcomputadoras utilizan palabras de
8 y 16 bits mientras que las grandes computadoras procesan palabras de 32 y 64 bits.
Como se utiliza mucho la configuración de 8 bits o múltiplos de 8, se denomina "byte" a esa
configuración. También se le suele denominar "carácter" ya que con las 256 combinaciones posibles
de 8 bits (2^8), se pueden almacenar todos los caracteres utilizables: mayúsculas, minúsculas,
números, signos, caracteres extranjeros, etc.
Por otra parte 1.024, (2^10) -la potencia entera de dos más cercana a 1.000- se emplea
como múltiplo, notándose como Kilo. Es decir cuando decimos: 1 Kbyte, hablamos de 1.024 bytes o
de 8.192 bits. Análogamente, 1.048.576, (2^20) -la potencia entera de dos más cercana a 1.000.000-
también se emplea como múltiplo, notándose como Mega.
Otros múltiplos son el Giga para representar los 1.000.000.000 (miles de MegaBytes) y el
Tera para representar los billones de Bytes o millones de MegaBytes.
A pesar de que esos múltiplos son bastante impresionantes, ya están preparados los que
seguirán la secuencia: Peta, Exa, Zetta y Yotta, hasta el momento.
Sistemas de Codificación La posibilidad que tienen los hombres y las computadoras para comunicarse se sustenta en
que puedan manejar un lenguaje común; el caso es totalmente análogo al de cualquier par de
personas que intenten entrar en diálogo: deben utilizar un lenguaje que resulte comprensible por
ambas. La serie de acuerdos que representan los elementos de una convención para establecer una
comunicación entre un hombre y una computadora, o entre dos computadoras, se conoce con el
nombre de código. El hombre ha utilizado símbolos y códigos desde hace mucho tiempo. Un ejemplo
muy conocido es el código Morse, en el cual los números y las letras del alfabeto son simbolizados
mediante puntos y rayas para permitir su transmisión. Otro ejemplo es el código Braile que permite
leer a los ciegos. Las señales de tránsito también forman un código compuesto de una serie de
acuerdos sobre el comportamiento del tráfico.
Volviendo a los códigos para computadoras debemos destacar que es sumamente importante
que la simbología empleada debe tener exactamente el mismo significado para ambas partes a fin de
evitar cualquier confusión o interpretación errónea.
La elección de un código para una aplicación determinada depende de varios factores. Uno de
9
ellos es su facilidad para efectuar cálculos aritméticos y otro su facilidad para detectar errores y
corregirlos. Los ordenadores modernos sólo reconocen los símbolos 1 y 0, ya que son manejados
muy fácilmente por los equipos electrónicos, en este punto trataremos de mostrar algunas de las
formas en que puede representarse una gran cantidad de información, haciendo uso solamente de
unos y ceros.
Existen códigos que permiten convertir datos numéricos en información binaria. Esos códigos
se denominan códigos ponderados. Por tratarse de conversiones muy internas al equipamiento no
serán tratados aquí.
Existen también códigos que se utilizan para la conversión de letras y otros signos a códigos
binarios. Estos códigos se denominan códigos no ponderados y por su importancia, se estudiará
brevemente el denominado Código ASCII.
ASCII (se pronuncia aproximadamente como: asji) es acrónimo de American Standart Code
for Information Interchange. Es de hecho una versión americana del código internacional ISO con
algunos agregados para la utilización de símbolos especiales. El código ISO no es muy popular a
diferencia del ASCII que es prácticamente el sistema de codificación universal en pequeñas y grandes
computadoras. Los caracteres permitidos en código ASCII incluyen el alfabeto inglés, tanto en
mayúscula como en minúscula, los números, signos de puntuación, operadores matemáticos, el
espacio (ESP), algunos signos de utilización especial y caracteres de control. Estos caracteres de
control son códigos no imprimibles (es decir que no se ven) e incluyen información para manipular
periféricos como retorno de carro en una impresora, avance de línea, tabulación vertical y horizontal,
etc. Los caracteres ASCII de control cubren los primeros 32 códigos (del 0 al 31) y el 127.
El Código ASCII es un código de 7 bits, pero en los sistemas modernos se amplía al octavo
bit, hasta completar el byte y así incluir gráficos, letras griegas, símbolos matemáticos, letras de
distintos idiomas no incluidas en el inglés, etc. A continuación se presentan los primeros 128
caracteres correspondientes al código ASCII convencional:
000 = NUL 001 = SOH 002 = STX 003 = ETX 004 = EOT 005 = ENQ
006 = ACK 007 = BEL 008 = BS 009 = HT 010 = LF 011 = VT
012 = FF 013 = CR 014 = SO 015 = SI 016 = DLE 017 = DC1
018 = DC2 019 = DC3 020 = DC4 021 = NAK 022 = SYN 023 = ETB
024 = CAN 025 = EN 026 = SUB 027 = ESC 028 = FS 029 = GS
030 = RS 031 = US 032 = ESP 033 = (!) 034 = (") 035 = (#)
036 = ($) 037 = (%) 038 = (&) 039 = (') 040 = (() 041 = ())
042 = (*) 043 = (+) 044 = (,) 045 = (-) 046 = (.) 047 = (/)
048 = (0) 049 = (1) 050 = (2) 051 = (3) 052 = (4) 053 = (5)
054 = (6) 055 = (7) 056 = (8) 057 = (9) 058 = (:) 059 = ( )
060 = (<) 061 = (=) 062 = (>) 063 = (?) 064 = (@) 065 = (A)
066 = (B) 067 = (C) 068 = (D) 069 = (E) 070 = (F) 071 = (G)
072 = (H) 073 = (I) 074 = (J) 075 = (K) 076 = (L) 077 = (M)
078 = (N) 079 = (O) 080 = (P) 081 = (Q) 082 = (R) 083 = (S)
084 = (T) 085 = (U) 086 = (V) 087 = (W) 088 = (X) 089 = (Y)
090 = (Z) 091 = ([) 092 = (\) 093 = (]) 094 = (^) 095 = (-)
096 = (`) 097 = (a) 098 = (b) 099 = (c) 100 = (d) 101 = (e)
102 = (f) 103 = (g) 104 = (h) 105 = (i) 106 = (j) 107 = (k)
108 = (l) 109 = (m) 110 = (n) 111 = (o) 112 = (p) 113 = (q)
114 = (r) 115 = (s) 116 = (t) 117 = (u) 118 = (v) 119 = (w)
120 = (x) 121 = (y) 122 = (z) 123 = ({) 124 = (|) 125 = (})
126 = (~) 127 = DEL
10
DESCRIPCION DE LOS ELEMENTOS FUNDAMENTALES
Unidad de Control y Unidad Aritmético Lógica
La unidad de control y la unidad aritmético-lógica, en las primitivas computadoras estaban
formadas por una gran cantidad de circuitos lógicos convenientemente distribuidos.
En la actualidad una gran parte de estas funciones han sido reemplazadas por un minúsculo
circuito integrado: el microprocesador. Este increíble proceso de miniaturización es el que ha
permitido este enorme avance y tener en una sola plaqueta los elementos necesarios para configurar
una computadora. Precisamente se denominan microcomputadores a los equipos basados en
microprocesadores.
El circuito integrado que constituye un microprocesador, también denominado CHIP (en
inglés, brizna, astilla), está formado por una base plástica o cerámica de unos 20 cm2 y más o menos
cuarenta pa- titas (denominadas pines), que se unen a través de hilos muy delgados al verdadero
corazón del microprocesador: una pastilla de silicio de unos pocos milímetros cuadrados de
superficie, que puede contener miles de transistores.
Existen en la actualidad una gran cantidad de microprocesadores con distintas características
que los identifican y los hacen más apropiados para ciertas aplicaciones.
Un microprocesador se caracteriza por una serie de cualidades que lo definen, estas
principalmente son: longitud de palabra, capacidad de direccionamiento, número de instrucciones y
velocidad de proceso. Estas características no se presentan en forma independiente pues se
relacionan entre sí mediante la tecnología de fabricación, existiendo procesadores que pueden operar
a distintas velocidades, respondiendo a idénticas características y por otra parte, dos procesadores
de distinta tecnología operando a igual velocidad de proceso pueden registrar distinta perfomance por
su modo de funcionamiento.
NOTA TECNICA - Características técnicas de los microprocesadores. - Longitud de palabra: es la cantidad de bit que el µP puede tratar simultáneamente, es decir en
paralelo, en el bus de datos. Atendiendo a esta característica, los principales son:
- µP de 1 bit, para aplicaciones muy concretas como por ejemplo el MC14500 que es una unidad
de control industrial.
- µP de 4 bits, los pioneros de los microprocesadores, actualmente en desuso; por ejemplo Intel
4004 y 4040.
- µP de 8 bits, los más comunes en la actualidad; por ejemplo Intel 8008, 8080, 8085; Motorola
6800, 6802, 6809; Mos Technology 6502 y 6510; Zilog Z-80.
- µP de 16 bits de procesamiento y 8 bits de bus datos como el Intel 8088 y el NEC-V20. - µP de 16 bits de procesamiento y 16 bits de bus de datos como el Intel 8086, el Intel 80286
aunque debe destacarse que este último es mucho más sofisticado y rápido.
- µP de 32 bits de procesamiento y 32 bits de bus de datos como el Intel 80386, 486 y PENTIUM. - µP de 64 bits de procesamiento como las serieS Core I5 o i7
NOTA TECNICA - Bloques internos de los microprocesadores.
En general los bloques internos que constituyen un microprocesador, abreviado µP son:
- Unidad Aritmético-Lógica: En donde se efectúan las operaciones aritméticas (sumar y restar) y lógicas
(AND, OR, NOT, etc.) .
- Decodificador de instrucciones: En donde se interpretan las instrucciones del programa que va llegando.
- Bloque de registros: Los registros son celdas de memoria en donde queda almacenado un dato
temporalmente. Existe un registro especial llamado registro de estado (en inglés, Status) , en donde
se refleja el estado operativo del microprocesador.
- Stack: Bloque de registros en donde quedan anotados ciertas direcciones que necesita el microprocesador.
- Contador de Programa (PC): En dónde se refleja la dirección de la instrucción del programa que el µP está
ejecutando.
- Señales de control: comprende las señales de reloj, señales de acceso a memoria, señales de
interrupción, etc.
- Buses: Existen tres buses: el Bus de Datos, por donde entran y salen datos, el Bus de Direcciones, por
donde salen direcciones de memoria y el Bus de Control, que controla la comunicación con los
elementos periféricos.
11
- Capacidad de direccionamiento: la capacidad de direccionamiento de memoria de los µP
anteriormente citados son de 2^16 (64 Kb), 2^20 (1Mb), 2^24 (16 Mb), 2^32 (4 Gb).
- Número de instrucciones: el número de instrucciones que es capaz de comprender y manejar un
µP determina su potencia y facilidad de manejo. El número de instrucciones depende de cada µP,
pero éstas generalmente comprenden los siguientes tipos:
Instrucciones de transferencias de datos.
Instrucciones de transformación de datos.
Instrucciones de ruptura de secuencia.
Instrucciones de entrada/salida.
Instrucciones de control. - Velocidad de un µP: los microprocesadores ejecutan sus instrucciones secuencialmente, en forma
sincrónica con un reloj que fija el ritmo. La velocidad de este reloj será la que determinará la cantidad
de instrucciones que un µP puede realizar en la unidad de tiempo, pero los µP tienen un techo
máximo de frecuencia. Las frecuencias del reloj (clock) interno del µP van desde 1 MHz, y han
evolucionado desde 4.77 MHz en 1980 a 1000 MHz en el año 2000. Actualmente las serie Core i7, y
pueden operar a frecuencias normales algo superiores a los 3 GHz (3000 MHz) en los
microprocesadores Intel.
Como opera un microprocesador?: Un microprocesador opera básicamente fijando el comienzo de
la dirección de memoria desde donde se va a ejecutar el programa, cargando dicho valor en el
contador de programa (PC) e interpretando y ejecutando secuencialmente las instrucciones,
incrementando el PC y buscando una nueva instrucción. De acuerdo con las características de las
instrucciones su decodificador de instrucciones le permitirá diferenciar instrucciones de datos, según
corresponda.
Memorias RAM y ROM Se denomina "elemento de memoria" a cualquier dispositivo que tenga capacidad de
"recordar" información almacenada en el mismo durante un intervalo de tiempo relativamente grande.
El elemento básico de información es aquél cuya capacidad es la de recordar un bit de información,
es decir, almacenar un cero o un uno hasta tanto esa información sea modificada desde el exterior.
La necesidad de contar con elementos capaces de almacenar grandes cantidades de
información lleva al desarrollo de distintos tipos de almacenamiento masivo, pasando de las
antiguamente populares memorias de núcleos magnéticos a los modernos medios semiconductores
de almacenamiento de información, favorecidos en gran medido por los avances en las técnicas de
integración a gran escala.
Tipos de memoria Pueden establecerse distintas clasificaciones de acuerdo al criterio adoptado, consideraremos
la clasificación según la persistencia de la información almacenada.
Dentro de esta clasificación debe tenerse en cuenta una sub-clasificación, según se tome
como referencia la tensión de alimentación del sistema de memoria, o la reacción del mismo a la
lectura de la información almacenada.
Si se toma como referencia la tensión, las memorias serán: no volátiles o muertas (ROM) y
volátiles o vivas (RAM).
Dentro de esta división existen:
- Las memorias ROM (Read Only Memory: memorias sólo de lectura), son grabadas por el
fabricante del CHIP, con los datos proporcionados por el usuario y es imposible alterar su contenido;
por lo tanto sólo es posible leerlas. A esta categoría pertenecen los intérpretes y sistemas operativos
integrados, los generadores de caracteres y toda otra información convenientemente depurada y que
por ser necesarias en grandes series hagan económico su uso.
- Las memorias PROM (Programables Read Only Memory). Estas memorias pueden ser
grabadas por el propio usuario; pero una vez grabado, su contenido permanece inalterable, ya que su
grabación se realiza fundiendo unos fusibles internos integrados. Su utilización está restringida a
aplicaciones finales de pequeñas series.
- Las memorias EPROM (Erasable Programable ROM). Este tipo de memorias pueden ser
también programadas por el usuario, con la particularidad de que pueden ser borradas hasta unas
quinientas veces. Existen dos tipos: los llamados simplemente EPROM, cuyo contenido puede ser
NOTA TECNICA - Memorias No Volátiles (ROM)
Se denominan memorias no volátiles a aquellas en las que la información almacenada no
se pierde aún cuando desaparezca la tensión de alimentación. Esto significa que al volverse a
alimentar el sistema, la información almacenada será la misma que existía antes de desaparecer la
tensión.
12
alterado aplicándoles un fuerte campo de radiación ultravioleta durante unos minutos, contando para
ello con una ventana de cristal de cuarzo que hace visible el CHIP desde el exterior. Son los más
utilizados en la actualidad y su capacidad aumenta de año en año; como referencia diremos que
existen EPROM de 64 bytes, es decir, más de 512.000 celdas.
- El otro tipo existente se denomina EEPROM (Erasable Electricaly PROM), cuyo contenido puede
alterarse eléctricamente. Actualmente se encuentran en expansión y su capacidad es pequeña
todavía, pero son las memorias del futuro.
Tanto las EPROM como las EEPROM tienen su aplicación en sistemas de desarrollo no totalmente
depurados o aplicaciones de muy pequeñas series (aplicaciones personales).
Memorias Volátiles (RAM) Se denominan memorias volátiles a aquellas que pueden ser grabadas y leídas un número indefinido
de veces, a este grupo pertenecen las memorias RAM (Random Access Memory).
El contenido de estas memorias permanece mientras permanece la tensión que las alimenta, la
desaparición de la tensión produce la pérdida completa y definitiva de la información almacenada.
Este tipo de memoria se utiliza para almacenar información y programas de usuario, se las denomina
memoria de trabajo.
Las memorias RAM varían entre 64 KB, pasando por 256, 512, 640, 1024, 2048 y 4096 en los equipos
chicos y medianos, mientras que en equipos de mayor envergadura se pueden tener valores de
memoria RAM de 4 GB hasta 1 o 2 TB.
INTERFACES SERIE Y PARALELO Las interfaces constituyen el medio por el cual los periféricos se conectan a la CPU. Existen
interfaces de aplicación general para distintos usos (serie y paralelo) aunque muchos periféricos
requieren de interfaces específicas. Las interfaces series generalmente responden a una especificación estándar denominada RS-
232C, son muy comunes y permiten la conexión de terminales, ratones, lápices ópticos, scaners,
modems, sistemas de adquisición de datos, impresoras y plotters. Por el tipo de periférico que pueden
admitir se deduce que son tanto de entrada como de salida. Un mismo equipo puede contar con una o
varias de ellas, identificándose como COM1:, COM2:, etc. Su principal característica es que la
información se transmite, básicamente, por un sólo conductor o cable (uno para los datos de entrada,
otro para los de salida y un cable común) es decir que los datos se transmiten uno a continuación del
otro, en un modo denominado asincrónico en que se debe establecer la velocidad de comunicación y
una convención respecto de la información que se envía o recibe.
Las interfaces paralelas generalmente responden a una especificación estándar denominada
CENTRONICS, permiten la conexión, principalmente, de impresoras y plotters. Estas interfaces son
de salida. Un mismo equipo puede contar con una o varias de ellas identificándose como LPT1:,
LPT2:, etc. Su principal característica es que la información se transmite, básicamente, por varios
conductores simultáneamente (en paralelo) en un modo denominado sincrónico.
Existe también una interfase de alta perfomance –que podría considerarse como interfase de
tipo paralelo- denominada SCSI (Small Computer System Interface), que se pronuncia “scasi”, incluye
una tarjeta que se instala dentro de la computadora y puede conectar hasta siete periféricos tales
como: Discos rígidos de alta velocidad, grabadoras de CD-ROM, Scanners, etc. La desventaja de esta
interfase es que requiere abrir la PC para instalar la controladora y son bastante caras. La ventaja es
el alto rendimiento en velocidad que se obtiene con esta conexión.
Las computadoras más modernas incluyen un nuevo tipo de interfase serie, denominada USB
(Universal Serial Bus) que puede conectar hasta 127 dispositivos externos en total, tales como
cámaras web, scanners, impresoras, etc. La interfase USB soluciona las confusiones que tienen
algunos usuarios con las interfases serie y paralelo, usando un único tipo de conector para todos los
periféricos, pudiendo conectar un dispositivo USB a otro como si se tratase de una cadena. No
requieren reiniciar la computadora para que el sistema reconozca los nuevos dispositivos, gracias a
una nueva tecnología de conexión. Sólo debe conectarse y el equipo detectará automáticamente el
nuevo dispositivo y comenzará la instalación del software necesario. Tampoco en necesario apagar la
computadora para desconectar un periférico.
Periféricos de entrada
La CPU es incapaz, por sí misma, de comunicarse con el medio exterior, ya sea para recibir
información como para devolverle información al usuario. Se denominan periféricos a las unidades
exteriores a la CPU y que permiten su comunicación para el usuario.
Los periféricos de entrada son los que permiten al hombre dialogar con el equipo, ingresando
13
información: instrucciones, comandos, programas, datos, elecciones, etc.
Debemos tener en cuenta, antes de comenzar una pequeña descripción de los principales
periféricos, que toda la información que maneja una computadora es de tipo digital o discreta (ceros y
unos). En cualquier caso la información a recibir, sea digital o analógica, debe ingresar por los
correspondientes convertidores, adaptadores o interfaces.
-Teclados Los teclados son actualmente el medio de entrada por excelencia. A pesar de que en éstos el
principio de funcionamiento se basa en interruptores, existen decodificadores, teniendo la CPU una
información que depende de la posición que este interruptor (tecla) ocupa dentro del teclado. Existen
teclados decimales, hexadecimales y alfanuméricos. La disposición de las teclas en los teclados
alfanuméricos es parecida a los de las máquinas de escribir, existiendo dos configuraciones
principales: la conocida como QWERTY (la más popular) y la conocida como ASERTY,
correspondiendo la sigla a las primeras cinco teclas de la segunda fila de caracteres.
Las principales características que definen un teclado para su utilización en informática son: - Tipo de Tecla: ésta es una de las características más importantes ya que determina la
profesionalidad y el precio del teclado. Existen modelos denominados Soft-touch (toque suave) en las
que los interruptores son láminas metálicas blandas recubiertas de una membrana plástica. Su
utilización es incómoda pero son muy baratos y se emplean en sistemas de seguridad ya que al ser
impermeables y herméticos no corren riesgos (por ejemplo: derramamientos accidentales sobre el
teclado, polvo, etc.). A continuación de los teclados de toque suave, vienen los tipos calculadora, que
representan una pequeña mejora respecto de los anteriores y luego de éstos, los teclados de teclas
móviles o de gran recorrido, que son los preferidos para aplicaciones profesionales, tratamientos de
textos, etc.
- Cantidad de teclas: en este punto lo importantes es la cantidad de teclas con que cuenta
el teclado, además de las alfanuméricas correspondientes, es decir teclas de funciones, teclado
numérico separado también llamado Key-Pad, teclas especiales para otros lenguajes como acentos y
ñ, recordando que el teclado universal de computación es de sistema anglo-sajón. El primitivo teclado
de la IBM/PC contaba con 83 teclas; los más modernos tienen 101 y hasta 103 teclas y se denominan
"enhanced" (mejorados) ya que tienen mayor cantidad de teclas de función y teclas separadas para el
control del cursor. Estos teclados se impusieron con la aparición de las IBM/AT.
Actualmente y a pesar de la supremacía del teclado como medio de entrada de información,
han aparecido otros medios que lo sustituyen o complementan.
-Raton (Mouse) Otro medio de ingreso de información muy difundido es el llamado ratón (mouse) que permite
desplazar el cursor en la pantalla del monitor en forma continua y simple, deslizando un dispositivo
pequeño que está unido al ordenador mediante un cable, sobre una superficie cualquiera. Este
movimiento acciona una esfera que modifica la posición de unos potenciómetros dentro del mismo,
generando una señal analógica que es convertida a digital dentro del ordenador. Cuando el cursor se
encuentra en la posición apropiada, se acciona una tecla, sobre el mismo dispositivo, llevándose a
cabo la acción deseada. Los primeros equipos en utilizar en forma estándar este dispositivo fueron el
Lisa y el Macintosh de APPLE. Actualmente, cualquier equipo IBM o compatible, con una interface
serie, puede utilizar un ratón. Debe tenerse presente que los programas deben estar preparados para
utilizar este medio alternativo de ingreso de información.
-Lápiz Óptico Otro medio de entrada de datos muy utilizado es el lápiz óptico el cual permite al operador
trabajar directamente sobre una pantalla, indicando posiciones o dibujando sobre la misma, según el
programa que se esté ejecutando. El lápiz óptico trabaja con un detector de luz muy sensible que
permite al ordenador determinar la posición que esté señalando el lápiz, por comparación con el barrido
horizontal del monitor.
-Lector de Código de Barras Otro dispositivo de entrada de gran proyección en la actualidad es el lector de código de barras
que puede determinar, por las variaciones de la luz que se refleja en barras negras y espacios blancos
(verticales), información codificada. Es de fácil empleo para la toma de información con un grado de
error muy inferior al ingreso manual y mucho más rápido. Los lectores de códigos de barras pueden
tener la forma de un lápiz, donde la técnica de lectura es óptica, mientras que otra posibilidad son las
denominadas pistolas laser, las cuales emiten un haz que lee el código de barras. Estas, si bien son
14
mucho más onerosas que los lápices, son a menudo la única solución cuando la cantidad de lecturas es
importante.
-Pantallas sensibles al tacto Existen las pantallas sensibles al tacto, que están constituidas por hileras de emisores
infrarrojos y los correspondientes sensores que pueden detectar cuando un haz de radiación
infrarroja se corta y pueden determinar la coordenada horizontal y la vertical, obrando a consecuencia.
Este sistema no llegó a imponerse y era empleado en los equipos Hewlett-Packard HP-150.
-Digitalizador Otro sistema menos conocido, pero de gran aplicación en el tratamiento de imágenes
mediante ordenador es el "digitalizador" o "tableta gráfica": se trata de una superficie plana,
generalmente de plástico rígido, sobre la que se puede trazar cualquier cosa que se necesite, o bien,
por ejemplo, apoyar un dibujo para calcarlo mediante un elemento específico que incorpora.
Para dibujar sobre esta "tableta" se utiliza un dispositivo similar a una pluma que tiene un
cable que lo une a la tabla; trazando con la pluma un dibujo sobre el plano, la tablilla va transmitiendo
al ordenador las sucesivas posiciones que va adoptando la pluma en forma de los valores de sus
coordenadas X-Y sobre la tabla. El ordenador está en condiciones de utilizar solamente las
informaciones numéricas, es decir, que cualquier información (incluyendo los dibujos) debe traducirse
a números para que el ordenador pueda entenderla.
Otro principio de funcionamiento del digitalizador consiste en un brazo articulado, fijado a una
mesa de trabajo; en las articulaciones existen resistencias variables (potenciómetros) los que una vez
decodificados permitirán encontrar las coordenadas que indica el punto de trabajo; éste puede ser una
aguja o una retícula con una lente de aumento. Cuando el punto de trabajo está convenientemente
localizado se envía una señal del ordenador para que determine la posición y la almacene.
-Scanners Estos dispositivos pueden leer, en modo semejante al de una fotocopiadora, información
gráfica por rastreo. Existen en distintos tamaños, precio y prestaciones. Es de resaltar que aún los
más económicos, denominados manuales y de media página (el ancho que pueden leer de una sola
pasada), pueden solapar información y reproducir imágenes de ancho mayor al físico. Otra
característica muy importante de estos dispositivos es que no se limitan solamente a la reproducción
gráfica: con los programas apropiados pueden convertir la información gráfica correspondiente a un
texto, en un texto editable, es decir modificable mediante una sofisticada técnica de reconocimiento
gráfico de caracteres (OCR).
Los scanners pueden ser de media página o de página completa de acuerdo al ancho de
papel barrido. Los de media página generalmente se deben desplazar en forma manual, mientras que
los de página completa se desplazan sobre un rodillo en forma automática.
La otra especificación que se debe tener en cuenta es si el scanner es color o blanco y negro.
En ambos casos además de ello, se debe determinar cuál es la resolución, entendiéndose como
resolución la cantidad de puntos que definen una unidad de medida (denominada DPI: Puntos por
Pulgada.)
-Joystick Finalmente describiremos el Joystick, el medio de entrada por excelencia en cuanto a juegos
se refiere; éste consiste de cuatro contactos (interruptores o microswitch) dispuestos en forma de cruz
y accionados a través de una palanca permitiendo seleccionar las cuatro direcciones básicas
(adelante, atrás, izquierda y derecha) y cuatro direcciones auxiliares cuando hacen contacto dos
direcciones principales simultáneamente, es decir direcciones intermedias. Los joysticks o palancas
de mando siempre cuentan también con un pulsador, generalmente de disparo o acción. La
información de interruptores y pulsador es leída digitalmente por la CPU, que obra en consecuencia.
Periféricos de salida En el apartado anterior vimos los dispositivos que permiten al hombre comunicarse con una
computadora. Ahora haremos una breve descripción de los principales periféricos que permiten al
usuario recibir información desde una computadora.
15
-Teleimpresor El teleimpresor fue uno de los pioneros de los periféricos de comunicación hombre-máquina.
Servía para introducir información a través de un teclado y editarlo gracias a una impresora.
Normalmente dispone de un lector-perforador de cinta, útil para introducir programas previamente
grabados o crear bandas perforadoras. Generalmente se conocen como teletipos (Teletype es una
marca registrada). Su velocidad máxima es de 10 caracteres por segundo. Actualmente están en
desuso.
-Monitores Los monitores o terminales con pantallas de rayos catódicos reemplazaron a los
teleimpresores por ser un excelente medio de comunicación hombre-máquina. En los computadores
domésticos u hogareños se sustituyen los monitores por televisores convencionales, en los que la
definición de la imagen se empobrece bastante en comparación con un monitor, debido a las
transformaciones a que se somete la señal generada por la CPU hasta que es visualizada, muchas de
estas transformaciones se evitan en los monitores, generando una imagen mejor definida que las
hace imprescindibles en las aplicaciones comerciales o científico gráficas.
Las propiedades que definen las características de los sistemas de pantalla no son una
propiedad del monitor de video propiamente dicho, sino también es un atributo del controlador de
video que está en la computadora y que se debe complementar con el monitor.
Los parámetros básicos que definen las características de un terminal de video que trabaja en
"modo texto" son: cantidad de caracteres por renglón (23, 32, 40, 64, 76, 80, 132) y la cantidad de
renglones por pantalla (16, 24, 25, 43, 50).
Cuando se trabaja en "modo gráfico" el parámetro principal es la cantidad vertical y horizontal
de puntos que pueden visualizarse en la pantalla (resolución). Estos puntos se denominan pixels (del
inglés: picture celds).
Un atributo inherente al monitor es su tamaño, dado en pulgadas de su diagonal (5", 9", 10",
12", 14", 15", 17" 20"). Los monitores de 5" a 10" son para aplicaciones especiales, no siendo
recomendados para tareas normales y habituales. Lo ideal, teniendo en cuenta confort y costo, es un
monitor de 14", excepto cuando de deba trabajar con alta resolución gráfica, en cuyo caso se hace
necesario un monitor de mayor tamaño, aunque los costos son bastante superiores.
También se hacen diferenciaciones, por supuesto, entre los monitores color y los
monocromáticos (de fósforo blanco, ámbar o verde). Los de fósfora ambar y verde se han dejado de
fabricar, ya que no sólo cansan la vista, sino que se "quema" la misma pantalla del monitor con la
emisión de la imagen.
Existen en la actualidad una gran variedad de adaptadores de video que proporcionan
diferentes resoluciones y distintas prestaciones respecto del uso del color. La mayoría de los
adaptadores responden a estandarizaciones realizadas por la empresa IBM. Los primeros PC estaban
equipados con un adaptador MDA (Monocromo Display Adapter) que no permitía el modo gráfico ni
el color, a pesar de que su modo texto era de muy buena resolución. Posteriormente aparecieron los
adaptadores CGA (Color Graphic Adapter), estas tarjetas con su correspondiente monitor, permitían
una utilización limitada del color, un modo texto con definición muy pobre y un modo gráfico de hasta
640 x 200 pixels con 2 colores y 320 x 200 con 4 colores. Para suplir las deficiencias de ese
adaptador apareció en el mercado, aproximadamente en 1982, el adaptador HERCULES
comercializado por Van Suwannukul, que permitía un modo texto de calidad igual al MDA de IBM y
una resolución gráfica de 720 x 348 pixels, a pesar de ser monocromo, con un precio muy accesible.
En 1984 IBM lanza al mercado el adaptador EGA (Enhanced Graphic Adapter) que permitía un
modo texto de buena definición y modos gráficos que llegaban a 640 x 350 pixels con hasta 16
colores. Este adaptador no se popularizó porque su tecnología resultaba demasiado cara para las
prestaciones que ofrecía. A posteriori, en 1987, IBM presenta la norma VGA (Video Graphic Array)
con una resolución de 640 x 480 pixels con hasta 16 colores o 320 x 200 con 256 colores a precios
muy inferiores a los correspondientes a la norma EGA por emplearse distinta tecnología. Actualmente
el máximo está representado por los adaptadores Súper VGA o VGA Plus (SVGA) que permiten
resoluciones de 800 x 600 y hasta 1024 x 768 con una cantidad de colores simultáneos limitados por
la cantidad de memoria presente en el adaptador. Lamentablemente, debido a que el desarrollo de los
Súper VGA fue realizado en forma independiente por varios fabricantes, no existe una normalización o
estándar en esta tecnología, por lo que cada fabricante debe suministrar los recursos específicos para
que el adaptador funcione con distintas aplicaciones.
Las tarjetas de video más limitadas tienen 256 KB de memoria (prácticamente no se
consiguen en el mercado) las tarjetas actuales tienen una base de 1 ó 2 MB de memoria,
generalmente expansibles a 4 u 8 MB. Para una buena resolución (800x600) y alta densidad de
16
colores 16 o 32 bits, se debe considerar un mínimo de 2 MB.
Las últimas novedades en el mercado de las tarjetas de video corresponden a las
aceleradoras gráficas 2D y 3D, indispensables para programas muy exigentes como los juegos de alta
resolución y el software de diseño gráfico. Estas tienen cantidades de memoria muy elevadas (8, 16 y
hasta 32 MB) y procesador propio.
Las tarjetas se conectan a través de los slots de expansión de las computadoras. Las
primeras se conectaban mediante slots denominados ISA de 16 bits. Las más recientes lo hacen
mediante slots PCI de 32 bits, por lo que son más rápidas. La última generación de tarjetas de video
para las máquinas más modernas utilizan un puerto especial de las computadoras denominado AGP
(Advanced Graphic Port) que permite una mayor velocidad en la transferencia de la información
gráfica.
Cuando se trabaja interactivamente, los monitores o display de video son el medio más
adecuado; cuando se necesita tener documentación de un resultado de un programa o un listado del
mismo se debe recurrir a una impresora.
-Impresoras Existen en la actualidad una gran cantidad de tipos de impresoras e innumerables formas de
clasificarlas. Podemos decir que hasta hace poco tiempo las impresoras más comunes eran las
impresoras matriciales, en las que los caracteres o formas nacen de una matriz de puntos o agujas
(8 ó 9 agujas como mínimo y 24 como máximo, dependiendo de la calidad y precio) que golpean una
cinta entintada sobre un papel. Existen impresoras matriciales que no trabajan por impacto sino por
temperatura operando sobre papel termo-sensible especial, aunque el principio es el mismo que para
las de papel común. Las impresoras matriciales pueden ser mono o bidireccionales (es decir que
imprimen al ir y al volver) con arrastre de papel por tracción (formularios continuos perforados) o por
fricción (hojas sueltas); la velocidad de operación varía entre 80 y 300 o más cps (caracteres por
segundo); el ancho del carro de las impresoras determina la máxima cantidad de caracteres por línea
que pueden imprimir, siendo los valores convencionales los de 80 caracteres para impresores de 9
pulgadas de ancho y 132 caracteres en las de 15 pulgadas. Debe tenerse presente que estos valores
corresponden a 10 caracteres por pulgada (CPI), que es el valor estándar aunque estas impresoras
pueden reducir o aumentar esa densidad de caracteres entre límites bastante amplios: 5 CPI o menos
y 16 CPI o más dependiendo de la impresora.
Las impresoras matriciales se prestan para todo tipo de aplicaciones, son muy robustas,
rápidas y económicas. La calidad de impresión de este tipo de impresoras no siempre reúne los
requisitos de presentación que son deseables en cartas y documentos, aunque en la actualidad las
impresoras matriciales de bajo precio, disponen de tipos de letra de alta calidad a velocidades de
impresión más baja. También existen impresoras matriciales que pueden imprimir en distintos colores.
De todos modos, hoy en día sólo se usan en aplicaciones especiales o cuando se requieren
duplicados al carbónico.
Actualmente, otro tipo de impresora denominada chorro de tinta ha tomado el liderazgo del
mercado. Estas impresoras son muy versátiles al poder generar cualquier caracter y son sumamente
silenciosas, lo que las hace atractivas en algunas aplicaciones. Su principio de funcionamiento
consiste en disparar gotas de tinta para modelar el caracter a imprimir. La tinta es conducida a través
de una boquilla que la dispersa en gotas diminutas, estas gotas atraviesan luego un electrodo y
reciben una carga eléctrica. Un par de placas metálicas desvían luego las gotas en distintas
direcciones, para modelar la forma del caracter. Obviamente pueden trabajar con distintos colores de
tinta.
Un segundo mecanismo se denomina de burbujas y consiste en que el cabezal de impresión
incorpora una serie de inyectores con un pequeño dispositivo calórico que, al calentarse, forma
diminutas burbujas de vapor. Debido a la variación de volumen que sufre la tinta en los tubos al recibir
una corriente eléctrica de muy corta duración mediante un electrodo, estas burbujas estallan y
provocan el chorro de tinta. Es la propia contracción de la burbuja la que impulsa la tinta hacia el
inyector.
En ambos mecanismos la proyección de la gota sobre el papel forma la imagen. El cabezal
tiene un número de tubos montados que avanzan sobre la línea a imprimir, de modo que al expulsar
cada tubo una gota, el carácter o la imagen se forma por medio de una matriz de puntos. A mayor
número de tubos, mayor será la resolución. Los modelos de 24 inyectores, considerados de gran
calidad, han sido superados por los de 48 y 64 inyectores que alcanzan resoluciones de 640, 720 y
hasta 1440 puntos por pulgada a costos realmente muy bajos.
Para trabajo muy pesado se utilizan las impresoras de líneas en las que la impresión no se
17
hace caracter a caracter, sino línea a línea, es decir, se prepara el renglón completo de escritura y se
imprime de una sola vez, su velocidad se mide en líneas por minuto.
Para trabajos mayores aún se emplean las impresoras láser o impresoras de página que
trabajan por un proceso semejante al fotocopiado. Consta básicamente de un motor que contiene un
tambor fotosensible cubierto por una película de carga eléctrica balanceada. Cuando se expone a la
luz, la carga en la superficie cambia, determinando un área de exposición en la cual la imagen se
pinta sobre el tambor por medio de un haz laser u otra tecnología. Además el sistema tiene un
dispositivo revelador que contiene unas pequeñas bolillas de plástico que transmiten carga eléctrica a
las partículas del toner y las transportan al tambor, donde son atraídas por los puntos de la superficie
del tambor que deben ser impresos. Simultáneamente, el papel, pasa por una película que cubre el
tambor, lo cual le da suficiente carga eléctrica como para atraer el toner. A medida que el papel pasa
por el tambor, el toner se adhiere al papel. Luego se limpia el tambor de cualquier exceso de toner y la
película que o recubre borra la imagen para permitir que llegue otra. El papel continúa avanzando y
pasa entre dos cilindros giratorios que lo someten a presión y calor durante una décima de segundo
para que el toner se derrita y adhiera al papel. De esta manera se obtiene la impresión que pasa por la
bandeja.
Las impresoras laser ofrecen la máxima calidad de impresión, la resolución llega a ser de 600
o más dpi (puntos por pulgada). Además existen modelos que incorporan distintos tipos de bandejas,
impresión en ambos lados del papel, mayores tonalidades intermedias y utilización de tamaños de
papel de hasta 11 x 17 pulgadas. La velocidad de impresión varía, pudiéndose imprimir desde 4 a 7
páginas por minuto en las de tamaño escritorio de bajo costo y hasta 96 o más páginas por minuto en
las impresoras centrales.
-Plotters Si bien gran cantidad de impresoras posee órdenes que permiten obtener una copia del
contenido gráfico de una pantalla de visualización, los ingenieros, científicos y diseñadores requieren
que esto se realice con un grado de precisión que no puede suministrar una impresora convencional.
El único dispositivo que puede crear estas imágenes es un trazador de gráficos o plotter. Los
trazadores de gráficos funcionan de una forma completamente distinta a las impresoras: trazan líneas
entre dos puntos en lugar de partir de formas preestablecidas o modelos de puntos. El principio básico
con el que funcionan es un sistema de coordenadas X,Y. Trabajan utilizando plumas intercambiables,
pudiendo por lo tanto cambiar el espesor del trazo para dibujos de planos o utilizar diferentes colores.
Sus costos se han reducido lo suficiente como para que los usuarios de microcomputadoras
dispongan de esta facilidad que antes estaba limitada a aplicaciones de gran presupuesto.
Los plotters varían esencialmente de acuerdo a su tamaño, siendo éstos coincidentes con los
tamaños de planos normalizados por las normas IRAM. Así están los plotters A4 (297 x 210 mm), A3
(420 x 297 mm), A2 (768 x 420 mm), A1 (1024 x 768 mm) y A0 (1268 x 1024 mm). Obviamente que el
costo está en relación directa al tamaño del plotter. Otro factor a tener en cuenta son la cantidad de
plumas que pueden imprimir en forma simultánea.
-Demoduladores de voz A pesar de que por el momento el reconocimiento de voz como entrada de información aún
no está lo suficientemente desarrollado, la síntesis de voz es más sencilla y muchos equipos disponen
de sintetizadores de voz para exteriorizar información o instrucciones.
-Modems Son de gran importancia para la transmisión de datos a distancia. La denominación de
modem deriva de la función que desempeña este dispositivo: MOdulador-DEModulador.
Los modems acondicionan la información binaria del ordenador para que pueda ser
transmitida a través de la línea telefónica. Concretamente el modem recibe los datos del ordenador
(por ejemplo, en formato paralelo), los transforma en datos serie y, mediante una codificación
determinada, los envía por la línea de comunicación telefónica. En el sentido opuesto, el modem
recibe los datos a través de la línea en serie y los transforma al formato adecuado para suministrarlos
al ordenador. Los modems son por lo tanto periféricos de salida en su zona de modulación y
periféricos de entrada de datos en su zona de demodulación.
Los modems han adquirido una gran importancia, por el auge de las comunicaciones remotas,
ya sea a BBS (sistema donde existen diferentes tipos de información) o a redes internacionales como
por ejemplo la denominada INTERNET.
Los modems pueden ser internos o externos. En el primer caso, internos, se conectan en el
18
interior de la computadora, de modo, que sólo sirve para ese equipo, mientras que los externos se
conectan con el puerto serie de la computadora, pudiendo ser usado en distintos equipos.
Entre las características salientes de los modems figuran: Velocidad de transmisión de datos: esta velocidad se mide en una unidad llamada bps (bits
por segundo). En la actualidad los modems transmiten a 4800, 9600, 14400, 28800, 33600 y 56000
bps, entre las velocidades más utilizadas. Hay que tener en cuenta que la velocidad depende también
de que el tráfico en la línea telefónica lo permita.
Protocolos de corrección de errores: Su funcionamiento consiste en enviar un paquete de
información y preguntar al otro modem si la cantidad de información recibida es igual a la enviada. De
no ser así el modem reenviará dicho paquete. El protocolo de corrección de errores más difundido es
el reconocido por las normas CCITT. (Comité Consultivo Internacional para la Telegrafía y Telefonía).
Protocolos de compresión de datos: se usa para ganar velocidad. El modem antes de
transmitir comprime la información, de manera tal que la información a transmitir es menor, realizando
el otro modem el proceso inverso. El modem debe trabajar con cualquiera de los dos protocolos más
recomendados: el MNP (Microcomm Networking protocol) y el LAPM (Link Access Procedure for
Modems).
Soporte de fax: Tienen la posibilidad de enviar y recibir faxes y comercialmente se los
denomina modem- fax. Todos los modelos nuevos tienen la posibilidad de enviar, pero no todos
tienen la posibilidad de recibir. No siempre un modem transmite a la misma velocidad datos y fax.
Unidades de almacenamiento
En los primeros tiempos de la informática se consideraba memoria masiva a prácticamente
cualquier soporte capaz de registrar información con persistencia (incluidos medios perforarles). Más
adelante se exigieron otras características, referidas básicamente al volumen y a la posibilidad de
acceso a la información; estas propiedades sólo las cumplían ciertos tipos de soportes magnéticos
como los tambores, las cintas y los discos.
Actualmente se están realizando investigaciones para llegar a nuevas memorias de masa que
resulten más productivas que las actuales. En algunos casos el estado de las investigaciones está
produciendo resultados importantes que permiten predecir cómo serán las memorias de masa del
futuro, teniendo en cuenta que el futuro en esta disciplina es dentro de cinco o seis años, poco más.
-Unidades de disco Los discos fueron y siguen siendo un importante medio del almacenamiento para aplicaciones
que requieren un acceso rápido a los datos en forma aleatoria (es decir en cualquier orden).
Al hablar de discos hay que hacer una primera clasificación: Discos rígidos, duros o fijos.
NOTA TECNICA: Interfaces industriales.
A medida que los procesos industriales se van haciendo cada vez más complejos, la
automatización y el control de los mismos requiere el empleo de ordenadores. En estas
aplicaciones el ordenador tiene que comunicarse no sólo con el operador sino, además, con
otros elementos del sistema que le van a suministrar los datos (elementos de entrada), o que van
a recibir las órdenes (elementos de salida).
Normalmente los elementos de entrada, denominados sensores, pueden ser: Termopares o
termorresistencias para medir temperatura, Medidores de presión, Medidores de humedad,
Medidores de caudal, Medidores de nivel, Señales de contactos abiertos o cerrados procedentes
de interruptores y Todo tipo de elementos que suministren una señal analógica en forma de
tensión o intensidad, proporcional a una medida.
Como elementos de salida tenemos: relés, electroválvulas, motores, lámparas.
Entre estos elementos y el ordenador hay que colocar un periférico que traduzca sus señales
de tipo analógico a señales de tipo digital, de forma que puedan ser procesadas por el
ordenador. Este tipo de periféricos se denominan tarjetas de interface industrial.
19
Discos flexibles. Discos ópticos.
Discos rígidos Los discos rígidos suelen estar constituidos a partir de una base de aluminio recubierta de un
material magnético sobre el que se graban los datos.
Los discos rígidos pueden ser fijos o removibles. Los discos fijos vienen ya en su unidad de
lectura y escritura y no pueden extraerse de la misma. Las capacidades más comunes de los discos
fijos en la actualidad son de más 250 GB, existiendo discos del orden de los TB a precios accesibles.
Los discos removibles vienen normalmente en un contenedor especial para facilitar su manejo,
denominado disk- pack.
Los discos rígidos suelen ser de tecnología Winchester (lanzada por IBM en el año 1973),
caracterizada porque la cabeza de lectura no toca físicamente al disco, sino que, por el efecto
aerodinámico de rotación del disco a una velocidad de unos 3500/4500 r.p.m. el aire arrastrado hace
que la cabeza de lectura permanezca suspendida a unas micras de distancia del disco, distancia
suficientemente pequeña para que los datos puedan leerse y escribirse. Actualmente existen discos
rígidos que giran a 7200 r.p.m.
Discos flexibles
Los discos flexibles actualmente han perdido lugar quedando ya casi obsoletos. Están hechos
de material plástico de Mylar, recubierto de una capa de óxido magnético. Poseen un agujero central
que les sirve para encajar en el mecanismo de rotación y un pequeño agujero de control en sus
proximidades, que sirve como índice para referenciar el comienzo de cada pista.
El disco se protege mediante una cubierta de plástico cuyo interior es antiestático y auto limpiante. Una abertura en este envoltorio de protección, permite a la cabeza lectora tener acceso a los datos. Existían tres tamaños de discos flexibles:
8 pulgadas. 5 y 1/4 pulgadas. 3.5 pulgadas.
Actualmente es muy difícil encontrar que se comercialicen por las poca capacidades de
almacenamiento que poseen (1,44 Mb).
La lectura de la información contenida en el disco flexible se realiza mediante la cabeza
lectora que entra en contacto directo con el disco a través de la ranura practicada en la funda de
protección. Hay que abstenerse, por tanto, de tocar los discos sobre dicha ranura. Los discos deben
ser protegidos del polvo, cenizas y partículas en general, así como de las temperaturas elevadas que
pueden causar su deformación, induciendo a errores en la lectura de los datos.
La información se graba en el disco sobre pistas circulares, no en forma de espiral como
ocurre en un disco de música. Para pasar a leer la información de una pista a otra, la cabeza lectora
debe desplazarse concéntricamente. El disco se considera dividido en varias secciones llamados
sectores. Un sector es la parte mínima de disco que el sistema es capaz de leer o escribir. Un sector
de una pista contiene 256 bytes de información en un disco flexible, y 256 ó 512 bytes de información
en un disco rígido.
- Discos ópticos En los años 90 los discos ópticos o láser fueron el medio de almacenamiento masivo de
mayor desarrollo e investigación por la densidad de información que pueden albergar. Para dar un
ejemplo, una cara de un disco compacto (CD) que permite grabar una hora de música puede contener
650 MB de datos. Al principio, como en el caso de los "compact disk" musicales, los CD-ROM
convencionales no podían ser borrados y regrabados ya que su proceso de grabación consistía en
quemar la superficie del disco por medio de un haz láser. Estos se utilizaban principalmente para leer
información grabada por terceros como enciclopedias, imágenes gráficas y catálogos (se debe tener
en cuenta que, por la cantidad de información que pueden contener, los modos de acceso a la
información que contienen mediante referencias cruzadas y multi-indexadas, son sumamente
sofisticadas). Ahora, están disponibles CD-R que pueden ser grabados (una sola vez) por el usuario
mediante lecto-grabadoras sumamente económicas. Adicionalmente existen los CD-RW que pueden
se regrabados un número limitado de veces, aunque el proceso es lento.
Luego, los CD-Rom fueron superados por un nuevo dispositivo denominado DVD (Digital Video
20
Disk) que permite almacenar desde 4 a 17 GB, abriendo una nueva etapa en las posibilidades de las
computadoras. Por ejemplo pueden almacenar una película con traducción simultánea a varios
idiomas, con posibilidad de ver escenas desde distintos ángulos o finales interactivos.
- Memorias USB Las memorias USB son comunes entre personas que transportan datos de su casa al lugar de
trabajo, o viceversa. Teóricamente pueden retener los datos durante unos 20 años y escribirse hasta un millón de veces. Aunque inicialmente fueron concebidas para guardar datos y documentos, es habitual encontrar en las memorias USB programas o archivos de cualquier otro tipo debido a que se comportan como cualquier otro sistema de archivos.
Estas memorias se han convertido en el sistema de almacenamiento y transporte personal de datos más utilizado, desplazando en este uso a los tradicionales disquetes y a los CD. Se pueden encontrar en el mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 GB, y hasta 1 TB.5 Las memorias con capacidades más altas pueden aún estar, por su precio, fuera del rango del "consumidor doméstico". Esto supone, como mínimo, el equivalente a 180 CD de 700 MB o 91 000 disquetes de 1440 KiB aproximadamente.
Computadoras Personales
Por ser uno de los tipos de computadoras de mayor difusión en la actualidad, y además al
alcance del gran público, es que este curso está orientado fundamentalmente a las computadoras
personales, microcomputadoras o PC.
La historia de las computadoras personales se remonta a mediados de la década del setenta,
cuando la integración en alta escala posibilitó la fabricación de los microprocesadores. A partir de allí,
aparecieron algunas computadoras menores hoy llamadas hogareñas, como Radio Shack,
Commodore, etc.
En esa época, la firma IBM, ocupada sólo del sector alto del mercado, detectó una importante
tendencia hacia los equipos más pequeños y comenzó a trabajar en el desarrollo de una computadora
monousuario (personal), pero con prestaciones superiores a las computadoras hogareñas. El
resultado fue el IBM PC (Personal Computer). Inusualmente para esa compañía, el equipo no fue
desarrollado íntegramente por la empresa IBM, sino que utilizó una arquitectura abierta y
componentes de otras empresas, como el microprocesador de Intel, modelo 8088 y un sistema
operativo diseñado especialmente para este equipo por la firma MicroSoft, llamado MS-DOS
(MicroSoft Disk Operating System). La IBM/PC fue lanzada al mercado en 1980, y su repercusión fue
tal que superó ampliamente las expectativas de los propios fabricantes.
A partir de allí comenzó a girar en torno del equipo IBM PC, toda una industria de producción
de hardware y software, lo que hizo que se convirtiera en el estándar de facto del mercado. Esto trajo
aparejado que las demás firmas fabricantes de equipos comenzaran a fabricar computadoras que
pudieran operar con el software desarrollado para estos equipos, generando la aparición de las
denominadas máquinas compatibles o clowns, que en lo único que se diferenciaban a la IBM PC era en
la marca y en el precio.
Esta irrupción del PC marcó a fuego la historia de la informática moderna, porque a partir de
allí, el desarrollo tanto a nivel hardware como software fue vertiginoso y los precios fueron
disminuyendo, lo que contribuyó a la popularidad de las PCs.
La IBM PC original tenía una memoria RAM de 64 Kb y una o dos unidades de diskette de
160 ó 180 Kb cada una, operando a una frecuencia de reloj de 4.77 MHz.
En 1982, IBM lanza al mercado un nuevo modelo de la línea PC, la PC/XT (eXtended
Tecnology), cuya versión estándar tenía una configuración básica de 256 Kb de memoria RAM, una o
dos unidades de diskettes de 320 ó 360 Kb de capacidad cada una y permitía la conexión de un disco
duro de hasta 32 Mb. Este modelo, al igual que el PC, estaba equipado con el microprocesador 8088
y permitía operar en dos velocidades: la original de 4.77 MHz (para mantener compatibilidad) y otra de
8, 10 ó 12 MHz.
En 1984 es lanzada comercialmente la IBM/AT (Advanced Tecnology), equipo basado en el
microprocesador 80286 de Intel, que permitía una mayor velocidad de procesamiento que el 8088, y
además dos modos de trabajo: el normal, que permite operar como una PC, y el modo protegido, el
que permite -con el software necesario- convertir al equipo en multiusuario. Además la configuración
básica de este equipo era de 640 Kb de memoria RAM, una o dos disketteras de 1,2 Mb de
capacidad, y mayor capacidad en disco rígido. La velocidad de procesamiento era de 6, 8, 10, 12 ó 16
MHz, dependiendo de los equipos.
En 1986, IBM lanza al mercado una nueva línea de microcomputadoras, denominada PS/2
(Personal System/2), que se componía originalmente de cinco modelos, el 25, 30, 50, 60 y 80. Con
21
esta línea IBM introdujo una nueva forma de fabricación interna denominada de tecnología cerrada,
en contraposición con la tecnología abierta de la línea PC, a efectos de evitar la proliferación de los
clowns.
Los modelos 25 y 30, en características y prestaciones son similares a las XT; los modelos 50
y 60 equivalentes a las AT; y el modelo 80, equipado con el microprocesador 80386 de Intel, de mayor
potencia que el 80286, permitiendo hasta 16 Mb de memoria RAM, una diskettera de 3.5" de 1.44 Mb,
capacidad de almacenamiento en discos rígidos de hasta 628 Mb y velocidad de procesamiento de
16, 20 o 25 MHz.
En 1988 aparecieron equipos compatibles de la línea PC, equipados con el microprocesador
80386, y en 1990 tuvieron su lanzamiento comercial los primeros equipos basados en el
microprocesador 80486 de Intel, que permiten direccionar hasta 4 Gb de memoria RAM, mayor
capacidad de direccionamiento de memoria en discos, y operar a una velocidad de 33 MHz.
Algunos equipos se basaban en el microprocesador 80386 SX que, con arquitectura interna
equivalente al procesador original (que debían llamarse más propiamente 80386 DX), externamente
trabajan con canales de comunicación menos complejos que estos, permitiendo la fabricación de
equipos que pueden usufructuar modalidades de trabajo propias de los procesadores de 32 bits a
precios bastante inferiores, con un pequeño sacrificio de perfomance.
También se comercializaron equipos basados en el microprocesador 80486 SX, que es
equivalente al microprocesador 80486 DX, pero que no cuenta con coprocesador matemático como
este último, siendo por lo tanto más económico y conveniente para aplicaciones que no requieran
esta complementación. También existen equipos 80486 denominados DX2 y DX4 que obtienen
velocidades dobles a la señalada.
La oferta de equipos PS/2 se amplió con equipos basados en el microprocesador 80486, bajo
la denominación de Model 90, y con equipos basados en microprocesadores SX. También ha
aparecido en el mercado una línea denominada PS/1, que corresponde a equipos de gama baja, para
liberar la línea PS/2 de equipos con prestaciones limitadas, como son el Model 25 y 30.
En 1993 hizo su aparición comercial un nuevo microprocesador de Intel, bajo la denominación
de PENTIUM, microprocesador con buses de datos externo y de direcciones externas de 64 bits y
ancho de palabra de 32 bits. Este componente desarrolla una gran performance manteniendo la
compatibilidad con los modelos anteriores. Los prototipos de máquinas basadas en este chip tienen
en la actualidad una velocidad de procesamiento de 166, 200 y 233 Mhz.
También en 1993 una sociedad formada por IBM, Apple y Motorola produjo un
microprocesador denominado PowerPC, como competencia directa al PENTIUM, pero con tecnología
distinta (RISC: Reduced Instruction Set Computer) desarrollando una performance similar, con un
costo y consumo de energía muy bajo. Este chip no es compatible a nivel de hardware con la línea
Intel pero por emulación puede correr el software (programas) desarrollado para aquellos.
En 1995 la firma Intel comenzó a comercializar un nuevo microprocesador, correspondiente a
la línea P6 (80686 en la identificación numérica), bajo la denominación de PENTIUM PRO. Esta
estrategia comercial capitalizó el prestigio de la línea PENTIUM para entregar un chip mucho más
poderoso, destinado a estaciones de trabajo de gran envergadura, con velocidad de procesamiento
de 150 Mhz llegando hasta 300.
Debe destacarse, en ese momento, la presencia en el mercado de los procesadores de 5ta. y
6ta. generación (equivalentes a 80586 y 80686) de productos desarrollados por competidores de Intel
como son Cyrix y AMD que competían no sólo en precio sino en calidad y prestaciones, fabricando
chips que resultaron alternativas sumamente convenientes al PENTIUM de Intel.
Los últimos desarrollos estuvieron orientados a mejorar la perfomance de las computadoras
personales en lo que se denomina multimedia. Las aplicaciones que tiene que ver con grandes
utilizaciones de sonido de alta calidad, despliegues gráficos como videos y programas de diseño o la
utilización de Internet, muestran las mayores falencias de los equipos; debido a esto Intel ha
desarrollado una extensión específica para sus microprocesadores denominada MMX (multimedia
extensions) que optimiza la ejecución de este tipo de aplicaciones. La ident ificación comercial de
estos productos es PENTIUM MMX para los Pentiums tradicionales con esta extensión y PENTIUM II
para los Pentiums Pro con extensión MMX que llegan a velocidades de hasta 400 MHz.
AMD (American Micro Devices) y CYRIX también entraron en esa variante, comercializando
microprocesadores optimizados para multimedia, ya sea bajo licencia Intel o con desarrollos propios.
A partir de 1999 Intel inundó el mercado con su microprocesador INTEL PENTIUM III que
desarrollaba velocidades de procesamiento de 400, 450 y 500 MHz en los primeros modelos
(actualmente esas velocidades arrancan de 550 MHz y llegan hasta 1000 MHz). También la
competencia tradicional de Intel, AMD -Cyrix desapareció del mercado- ha evolucionado ofreciendo
procesadores con prestaciones semejantes a precios inferiores como el AMD DURON e incluso un
procesador totalmente revolucionario, denominado ATHLOM (que fue el primero en superar la barrera
22
mítica de los 1000 MHz). Por otra parte, Intel incursionó en el mercado del bajo precio con el
procesador CELERON que tiene características parecidas al Pentium II pero con performance menor
pero precio muy competitivo.
Un procesador más evolucionado es el PENTIUM 4, (abandonando la numeración romana)
basado en nueva tecnología, denominada P7 (desde 1995 utilizaba la tecnología P6). Estos modernos
micros están especialmente diseñados para altas velocidades de operación, tanto es así que el
modelo inicial trabaja a 1.2 y 1.4 GHz, esperándose que los saltos de velocidad sean de 100 MHz.
Tienen un bus de operaciones de 400 MHz (hay que tener presente que los PENTIUM III tienen un
bus de 100 ó 133 MHz, dependiendo del modelo y aún el velocísimo ATHLON de AMD tiene un bus
de 200.
En el 2006 Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo
Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura
Core de Intel. La micro-arquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del
procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU
Pentium 4/D2.
La familia llamada Intel Core Nehalem fue lanzada en el 2008. Intel Core i7 es una familia de
procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores
que usan la micro-arquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es
reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo
1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de
tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3.
Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro,
y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado
creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de
transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los
consumos se dispararon.
A partir del 2011 El Intel Core Sandy Bridge llegan para remplazar los chips Nehalem, con Intel
Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G. Intel lanzó sus procesadores que se conocen
con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios
en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los
modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits,
duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en
multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones
denominado AVX y una GPU integrada de hasta 12 unidades de ejecución Ivy Bridge es la mejora de
sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como
procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas,
abandonándose los procesadores de núcleo doble.
23
Redes
Las computadoras personales, como su nombre lo indica proveen, en principio, capacidad de
trabajo para un único y aislado usuario. A pesar de esta característica, existe la posibilidad de
interconectar varias PC para compartir información y recursos, potenciando aún más las prestaciones
de este tipo de máquinas.
En este punto se verán los distintos tipos de redes así como también los estándares
existentes. Se mostrarán, además, distintos casos de aplicación y se verá de qué manera se debe
optar entre una implementación u otra, dependiendo del problema a resolver. No es un tema sencillo
ya que, como todo lo relacionado con la computación, el tema redes de comunicación avanza día a
día.
Una red permite a muchos usuarios compartir e intercambiar información. El diseño y la implementación de una red debe contemplar una variedad de parámetros, como la cantidad de usuarios, el volumen de la información, los costos, la confiabilidad y los ámbitos de instalación.
Una red sirve a muchos usuarios, pero no necesariamente a todos al mismo tiempo. Los
usuarios de una red pueden estar todos bajo un mismo techo o distribuidos en grandes áreas,
separados por grandes distancias (aún alrededor del globo terrestre). De ahí que el tema redes sea
tan amplio y variado. Las redes de comunicación deben dar solución a problemas tales como:
- Una pequeña empresa que desea que todos sus directores puedan acceder a información
financiera en forma inmediata;
- Una compañía multinacional con filiales en todo el mundo que debe consolidar en la casa
matriz la información de las operaciones de todas ellas.
Estos dos problemas, tan diferentes entre sí, tienen solución instalando una adecuada red de
comunicación.
Podemos distinguir tres tipos de redes de comunicación: - Redes globales: son aquellas que se extienden a lo largo de grandes distancias y sirven a
gran cantidad de usuarios.
- Redes Locales: son redes que dan servicio a usuarios que se encuentran separados por
no más de unos cientos de metros entre ellos.
- Redes de campo: un tipo muy particular de red que conecta dispositivos de control. Por
ejemplo, la computadora de un avión que constantemente está verificando el funcionamiento de los
dispositivos. En general, se implementan en tiempo real.
Se debe aclarar que para dar solución a algunas situaciones, se pueden combinar los tipos de
redes antes mencionados a través de puentes (bridges).
Las redes pueden ser agrupadas en abiertas y cerradas. - Las redes abiertas son públicas y están potencialmente a disposición de cualquiera. En
este tipo de redes se debe poner especial atención en el control de acceso y de la información, para
evitar pérdidas.
- Las redes cerradas son privadas de una empresa. En este caso, el control es mucho más
sencillo, ya que sólo los conectados físicamente pueden ingresar al sistema.
-
Aspectos técnicos de las redes Una red es mucho más que la simple conexión física entre todos los usuarios. Puede un
usuario hablar con muchos otros? Cómo se asegura la integridad de la información? Cómo evitar que
un usuario provoque la caída de la red?. Estos y otros muchos interrogantes deben plantearse y
resolverse antes de la implementación de la red. Hay que definir un conjunto de controles que
resuelvan situaciones como las mencionadas.
Cuáles son, entonces, los aspectos técnicos que se deben analizar? Estos son:
- TOPOLOGIA DE LA RED: es el plano de conexión entre los usuarios de la misma; - PROTOCOLOS: el modo de conversación entre los usuarios; - INTERFACE ELECTRICA: RS-232, RS 422, etc. - TIPO DE MODULACION: amplitud, frecuencia, tiempo; - MEDIO DE COMUNICACION: cable, fibra óptica. -
Debemos aclarar antes de analizar en detalle cada uno de esos aspectos, que no existe una
solución ideal, sino que para cada situación existe una red que se adapta mejor a los requerimientos.
- Topología: Es un término matemático que se refiere a la manera de conectarse entre nodos. - Conexión completa: como primera solución podría considerarse la conexión entre todos los
usuarios. Aunque puede ser efectivo es bastante costoso, ya que la cantidad de conexiones
necesarias crece mucho a medida que aumenta la cantidad de usuarios.
24
Pensemos que, matemáticamente por medio de combinatoria, para 10 usuarios se necesitan
45 conexiones y para 20 se necesitan 190 conexiones.
Esta topología puede ser efectiva para pocos usuarios, pero en la práctica no se usa. El costo
de agregar un usuario es altísimo.
- Estrella: la topología estrella consiste en un nodo central y todos los usuarios conectados a
él. El límite para la cantidad de usuarios es el máximo que pueda manejar el nodo central. Nótese que
la confiabilidad de la red depende exclusivamente de la del nodo central. Cualquier falla en un usuario
no afecta el funcionamiento de la red. El funcionamiento es el siguiente: un usuario envía información
al nodo central (dedicado o server) y éste se encarga de dirigirla al destinatario. Para agregar un
usuario, simplemente se agrega una conexión hasta el nodo central (incluso en el caso que haya un
usuario cerca del nuevo), lo que en la práctica puede ser muy caro.
Cuándo podemos usar esta topología?. Se usa cuando los usuarios de la red están dentro de
un área predeterminada y no demasiado grande (por ejemplo, dentro de un edificio o una fábrica).
Una de las características más importantes es que varios usuarios puedan transmitir datos
simultáneamente.
- Bus : la topología de Bus consiste en un camino común compartido por todos los usuarios.
Estos pueden estar conectados al bus en cualquier punto. El problema de agregar un usuario se
reduce a conectarlo al bus. En esta topología debe haber un nodo dedicado al control de la red.
Además, si la implementación es buena, cualquier falla en un usuario no afectará el funcionamiento
de la red. Por las razones anteriormente expresadas es una topología muy popular. Lógicamente,
dada su sencillez, se aumentará la complejidad del control de las comunicaciones. Puesto que existe
un único camino compartido por todos, existirá un protocolo que decida quien puede transmitir y dejar
que los demás sólo puedan "escuchar". Además, todos los mensajes de control se hacen a través del
bus, hecho que reduce la eficiencia de la red.
La segunda desventaja importante es que dos usuarios no puedan transmitir
simultáneamente. Sin embargo, para algunas situaciones ésta puede ser una ventaja, ya que en un
determinado instante sólo un usuario trasmite y los demás "escuchan". Esto provoca que si se desea
mandar un mensaje a varios usuarios no se lo deba transmitir para cada uno de ellos.
Sobre esta topología se han implementado varias redes comerciales como AppleTalk y EtherNet. - Anillo : la topología de anillo (Ring) conecta a todos los usuarios en un gran anillo. Para
agregar un usuario simplemente hay que integrarlo al anillo. Sin embargo esto, que parece tan
sencillo, implica un corte en el cable y la conexión del nuevo usuario.
Analicemos cómo opera una red de este tipo. Los mensajes son pasados de un nodo al
siguiente hasta que el destinatario recibe el mensaje y envía una señal de recibido. Nótese que el
protocolo será mucho más simple que en el caso de la topología de bus.
TOPOLOGIA DE BUS TOPOLOGIA EN ANILLO
Una gran desventaja de este tipo de topología es que cualquier falla en algún nodo o en la
conexión entre ellos provocará la salida de servicio de la red. Por este motivo, a veces se habilitan dos
anillos, uno para uso normal y otro como respaldo (backup) ante fallas del primero.
Protocolos
Dado que una red está compuesta de muchos usuarios deben ser definidas reglas de
comunicación entre ellos, esto se denomina acceso a la red.
Hay cuatro tipos de protocolos considerados estándar, que pueden ser usados con cualquier
topología de las mencionadas: maestro-esclavo; manejado por interrupciones; manejado por "marcas"
Nodo
1
Nodo
2
Nodo
3
Nodo
4
Nodo
N
Nodo
1
Nodo
2
Nodo
3
Nodo
4
Nodo
N
25
(o pase de cospel); y por detección de colisiones.
- Maestro-Esclavo (Command-Response): existe una sola estación maestra y todas las
demás son esclavas. Una estación sólo puede enviar información cuando la maestra le envía una
señal. Si bien este protocolo es muy simple, es poco eficiente, debiendo pasar toda la información a
través de la maestra lo que produce gran sobrecarga. Sólo resulta aplicable cuando existen muy
pocos usuarios y no se requiere tiempo de respuesta muy rápido.
- Protocolo Manejado por Interrupciones (interrupt driven): es una mejora sobre el anterior;
la esclava genera una señal a la maestra, indicándole la procedencia, quien, si se encuentra
desocupada recibe también la información que se le envía. El inconveniente sigue siendo la
sobrecarga de la maestra, si el volumen de información es muy grande.
- Protocolo Manejado por "Marcas" (token passing): en este sistema todos los usuarios de
la red, a su turno, reciben una marca o cospel que los habilita para controlar la red. Este sistema es
bastante eficiente y se aplica en situaciones donde se debe garantizar un determinado tiempo de
respuesta.
- Protocolo de accesos múltiples con sensado de portador y detección de colisiones
(CSMA/CD Carrier sense multiple access with collision detect): en este sistema, distinto a los
anteriores, cualquier nodo puede transmitir en cualquier momento, luego de verificar que la red no
está en uso. en este último caso se limita a esperar a que se desocupe. La detección de colisiones se
implementa para evitar que dos usuarios transmitan simultáneamente.
CARACTERISTICAS DE LOS PROTOCOLOS
Protocolo Command/response Interrupt driven Token passing csma/cd
Concepto Simple Simple Media Complejo
Eficiencia Baja Baja Media Media-alta
Predictibilidad de
tiempo de
respuesta
Predecible
Relativamente
Predecible
Dificil de predecir
Confiabilidad Alta Alta Media Media
Medios de comunicación La intercomunicación entre los usuarios de la red se puede producir a través de distintos medios:
A) Alambre: par simple, par trenzado, cable coaxil, cable plano multiconductor B) Aire o vacío: Microondas, Radio-enlace, Satélite C) Fibra óptica
Los factores que intervienen en la decisión son: la distancia a cubrir, costos, cantidad de
usuarios, facilidad de instalación y sensibilidad al "ruido" externo (influencia de campos
electromagnéticos que pueden producir alteración de la información transmitida.
Si la red debe cubrir una distancia importante -cientos de kilómetros- se debe utilizar la red
telefónica, radio-enlace o microondas. Si la distancia es aún mayor, se debe pensar en la transmisión
vía satélite. Para el caso más común, en donde la red a instalar está dentro de un área no mayor a
unos cientos de metros (red de área local o LAN - Local Area Network), se utiliza la conexión física
por alambre o fibra óptica dependiendo de las distancias características de "ruido" presente, etc,
para una mejor relación precio/perfomance.
Redes Comerciales Las redes nacieron por la necesidad de los grandes usuarios de interconectar nodos. Más
tarde, y a partir de esos desarrollos, se generalizaron para servir a todo tipo de usuario.
Existen redes comerciales cuyos desarrollos originales recibieron el aporte de usuarios,
mejorando las especificaciones y quedando, con protocolo difundido, a disposición de productores y
usuarios. Otras en cambio, se denominan redes propietarias y no difunden su protocolo de
comunicaciones, ya que están diseñadas específicamente para un determinado tipo de máquinas.
Una red propietaria muy importante es la AppleTalk de Apple Computer para la línea de
computadoras Macintosh. Esta red implementa una topología de BUS, admitiendo hasta 32 nodos con
un alcance máximo de 300 metros, se utiliza para que varios equipos compartan impresoras de
grandes prestaciones y discos de alta capacidad externos. Su protocolo de comunicaciones es secreto.
26
Otro ejemplo de red, en este caso de protocolo difundido, es la ETHERNET, desarrollada
originalmente por Xerox para interconectar dispositivos de oficina. Trabaja sobre una topología de
BUS con protocolo CSMA/CD y se le puede conectar hasta 1024 usuarios por medio de cable coaxil o
fibra óptica. Esta red se adecua a sistemas donde no es necesario un tiempo de respuesta
determinado, como por ejemplo, en control de procesos.
Como último ejemplo consideraremos la MAP (Manufacturing Automation Protocol), diseñada
para controlar procesos en fábrica, orientada a minimizar el tiempo de respuesta. Está implementada
sobre topología de BUS con protocolo Token Passing utilizando cable coaxil.
Redes de Area Local Comerciales
Las LANs (Local Area Networks, redes de área local) permiten conectar cierta cantidad de
computadoras, con la finalidad de compartir información, aplicaciones o recursos a nivel de
periféricos.
Hace un tiempo, muchos hubiesen deseado instalar una red, pero el tiempo, costo y
complejidad para mantener una red tradicional lo hacían difícil. En las redes tradicionales, existe una
computadora central que provee los servicios a otras máquinas que ofician de clientes de la misma.
Estas redes se denominan redes tipo client-server y el equipo central debe ser un equipo basado,
como mínimo, en microprocesadores PENTIUM. El costo del software necesario para conectar un
número de máquinas determinado (10, 20 50 o más de 100 usuarios) resulta también bastante
oneroso. Esto es así ya que se requieren los programas para poner en marcha la red, donde entre
otras cosas es posible definir derechos de acceso, periféricos comunes, nivel de interrelación, etc.
El mercado de las redes cliente-servidor se divide prácticamente entre Novel y Windows NT
(o 200 en su última versión). Progresivamente, Linux, un nuevo sistema operativo de distribución
gratuita está comenzando a ganar posiciones, sobre todo como servidor de internet.
En contraposición a las redes client-server, comenzaron a comercializarse las denominadas
peer-to- peer (par a par), en las cuales todas las máquinas están a un mismo nivel de jerarquía,
pudiendo cada una de ellas funcionar como server, o como PC "standalone", es decir independiente.
Esta es una alternativa simple y barata para interconectar computadoras.
Peer-to-peer significa que cada computadora conserva su independencia, pero
eventualmente puede compartir sus recursos con las otras, sin la necesidad de un equipo central
dedicado, y además corren directamente sobre MS-DOS (el sistema operativo de las PC).
En una red peer-to-peer, desde una computadora se puede utilizar programas instalados en
otra, si así se desea, o bien, se puede enviar información a través del correo electrónico (E-mail). Esto
permite enviar o recibir información o mensajes a través de la red. Existe también la posibilidad de
conectar paquetes de sonidos, para digitalizar la voz y almacenarla en la red. Cualquier computadora
conectada a la red puede ser utilizada luego para reproducir el mensaje y realizar la transcripción si es
necesaria.
Hasta la aparición de Windows para Trabajo en grupos, Windowes 95 y 98, el líder del mercado de las LANs peer-to-peer era Artisoft, para su línea LANtastic que permiten comunicar
hasta 300 nodos.
Actualmente los usuarios de Windows 95 o 98 resuelven sus necesidades de red peer-to-peer
(sin grandes pretensiones) en forma automática ya que el sistema operativo incluye las prestaciones
necesaria
Para armar la red, se deben instalar los cables en la plaqueta o tarjeta de red, la cual a su vez
se conecta a la computadora. Se pueden utilizar conexiones por cable coaxil o por medio de cable
trenzado, necesitándose para esto último un dispositivo adicional denominado “hub” que recibe todas
las conexiones.
Conclusiones Las redes permiten el intercambio de información entre usuarios y compartir periféricos de
gran capacidad y alto costo por parte de equipos más modestos. Casi siempre se debe dedicar un
"server" de alta performance (arquitectura PENTIUM como mínimo) para controlar la red. Como
beneficio se tiene la posibilidad de acceder por parte de varios usuarios a una misma información y
poder de esa forma utilizar prestaciones propias de los sistemas multiusuarios, bajo la plataforma MS-
DOS extendiendo de esta forma las limitaciones de este sistema monousuario y monotarea. Toda
este avance ha sido posible gracias a la disminución de los costos del hardware de redes, como así
también a la incorporación de prestación de administración de redes en el sistema Windows 95 y 98
que equipa a la mayoría de las computadoras personales.