Ángel Ceballos
INVESTIGACION TRABAJO DE INVESTIGACION
INTRODUCCION
A continuación se presenta una investigación acerca de
los temas siguientes:
Red
Tropología
Firewall
Dirección ip
Tcp/ip
Switch
Tipos de red
RED El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica.
En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire,
a Nueva York. A finales de la década de 1960 y en los posteriores 70 fueron creadas
las minicomputadoras. En 1976, Apple introduce el Apple I, uno de los primeros ordenadores
personales. En 1981, IBM introduce su primer PC. A mitad de la década de 1980 los PC
comienzan a usar los módems para compartir archivos con otros ordenadores, en un rango de
velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a
punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad,
especialmente ADSL.
Descripción básica
La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa
física y la capa lógica.
La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse
con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las
antenas, etc.
La comunicación a través de la capa física se rige por normas muy rudimentarias que por sí
mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible
construir los denominados protocolos, que son normas de comunicación más complejas
(mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos
personas hablan el mismo idioma, es posible comunicarse y transmitir ideas.
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa
física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un
número casi infinito de protocolos distintos, lo que facilita la actualización y migración entre
distintas tecnologías.
Componentes básicos de las redes
Para poder formar una red se requieren elementos: hardware, software y protocolos. Los
elementos físicos se clasifican en dos grandes grupos: dispositivos de usuario final (hosts) y
dispositivos de red. Los dispositivos de usuario final incluyen los computadores, impresoras,
escáneres, y demás elementos que brindan servicios directamente al usuario y los segundos
son todos aquellos que conectan entre sí a los dispositivos de usuario final, posibilitando su
intercomunicación.
El fin de una red es la de interconectar los componentes hardware de una red , y por tanto,
principalmente, las computadoras individuales, también denominados hosts, a los equipos que
ponen los servicios en la red, los servidores, utilizando el cableado o tecnología inalámbrica
soportada por la electrónica de red y unidos por cableado o radiofrecuencia. En todos los
casos la tarjeta de red se puede considerar el elemento primordial, sea ésta parte de un
ordenador, de un conmutador, de una impresora, etc. y sea de la tecnología que sea
(Ethernet, Wi-Fi, Bluetooth, etc.)
Software
Sistema operativo de red: permite la interconexión de ordenadores para poder acceder a los
servicios y recursos. Al igual que un equipo no puede trabajar sin un sistema operativo, una
red de equipos no puede funcionar sin un sistema operativo de red. En muchos casos el
sistema operativo de red es parte del sistema operativo de los servidores y de los clientes.
Software de aplicación: en última instancia, todos los elementos se utilizan para que el
usuario de cada estación, pueda utilizar sus programas y archivos específicos. Este software
puede ser tan amplio como se necesite ya que puede incluir procesadores de texto, paquetes
integrados, sistemas administrativos de contabilidad y áreas afines, sistemas especializados,
correos electrónico, etc. El software adecuado en el sistema operativo de red elegido y con los
protocolos necesarios permiten crear servidores para aquellos servicios que se necesiten.
Hardware
Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o
medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes inalámbricas),
es necesaria la intervención de una tarjeta de red, o NIC (Network Card Interface), con la cual
se puedan enviar y recibir paquetes de datos desde y hacia otras computadoras, empleando
un protocolo para su comunicación y convirtiendo a esos datos a un formato que pueda ser
transmitido por el medio (bits, ceros y unos). Cabe señalar que a cada tarjeta de red le es
asignado un identificador único por su fabricante, conocido como dirección MAC (Media
Access Control), que consta de 48 bits (6 bytes). Dicho identificador permite direccionar el
tráfico de datos de la red del emisor al receptor adecuado.
El trabajo del adaptador de red es el de convertir las señales eléctricas que viajan por el cable
(ej.: red Ethernet) o las ondas de radio (ej.: red Wi-Fi) en una señal que pueda interpretar el
ordenador.
Estos adaptadores son unas tarjetas PCI que se conectan en las ranuras de expansión del
ordenador. En el caso de ordenadores portátiles, estas tarjetas vienen en formato PCMCIA o
similares. En los ordenadores del siglo XXI, tanto de sobremesa como portátiles, estas tarjetas
ya vienen integradas en la placa base.
TROPOLOGÍA
Es el tercero de los cuatro sentidos bíblicos medievales y el segundo de los sentidos espirituales (/ alegoría).
Propiamente un «tropo» es un modo, una figura o un giro de palabras con el que una expresión designa un objeto distinto del que tiene su sentido natural.
Este hecho explica por qué originalmente la tropología se tomó como sinónimo de alegoría y también de anagogía. Así usarán este término Orígenes, Eusebio, Jerónimo, Dídimo. Será Diodoro de Tarso el que, reaccionando contra los abusos del alegorismo alejandrino, cargará de contenidos negativos y aislará el término de alegoría, distinguiéndolo así de la tropología. El malestar en el uso del término alegoría se advertirá igualmente en algunos autores occidentales alegorizantes, como Hilario, Rufino, Ambrosio, Jerónimo, Agustín, y esto servirá para mantener clara su distinción de la tropología.
Basándose en Rufino y en Jerónimo, Juan Casiano amplía la tripartición de los sentidos de la Escritura, añadiendo un cuarto sentido: distinguirá para ello la interpretación histórica o literal de un texto, de la inteligencia espiritual que puede ser tropológica, alegórica y anagógica. En adelante, y durante toda la Edad Media, la tropología indicará el sentido moral o, más exactamente, los fundamentos de la antropología cristiana que hay que buscar en la Escritura. En ella, considerada por los medievales como un libro polisémico de infinitos significados, era posible encontrarlo todo. Este explica por qué en la Edad Media no surgieron tratados de las diversas disciplinas teológicas. No era necesario. Bastaba con hacer exégesis, iluminados por uno de estos cuatro sentidos: literal, alegórico, tropológico o anagógico.
Firewall
History[edit]
The term firewall originally referred to a wall intended to confine a fire or potential fire within a
building. Later uses refer to similar structures, such as the metal sheet separating the engine
compartment of a vehicle or aircraft from the passenger compartment.
Firewall technology emerged in the late 1980s when the Internet was a fairly new technology in
terms of its global use and connectivity. The predecessors to firewalls for network security
were the routers used in the late 1980s:[3]
Clifford Stoll's discovery of German spies tampering with his system[3]
Bill Cheswick's "Evening with Berferd" 1992 in which he set up a simple electronic "jail" to
observe an attacker[3]
In 1988, an employee at the NASA Ames Research Center in California sent a memo
by email to his colleagues[4] that read, "We are currently under attack from an Internet
VIRUS! It has hit Berkeley, UC San Diego, Lawrence Livermore, Stanford, and NASA
Ames."
The Morris Worm spread itself through multiple vulnerabilities in the machines of the time.
Although it was not malicious in intent, the Morris Worm was the first large scale attack on
Internet security; the online community was neither expecting an attack nor prepared to
deal with one.[5]
First generation: packet filters[edit]
The first paper published on firewall technology was in 1988, when engineers from Digital
Equipment Corporation (DEC) developed filter systems known as packet filter firewalls. This
fairly basic system was the first generation of what is now a highly involved and technical
internet security feature. At AT&T Bell Labs, Bill Cheswick and Steve Bellovin were continuing
their research in packet filtering and developed a working model for their own company based
on their original first generation architecture.[6]
Packet filters act by inspecting the "packets" which are transferred between computers on the
Internet. If a packet matches the packet filter's set of filtering rules, the packet filter will drop
(silently discard) the packet or reject it (discard it, and send "error responses" to the source).
This type of packet filtering pays no attention to whether a packet is part of an existing stream
of traffic (i.e. it stores no information on connection "state"). Instead, it filters each packet
based only on information contained in the packet itself (most commonly using a combination
of the packet's source and destination address, its protocol, and, for TCP and UDP traffic,
the port number).
TCP and UDP protocols constitute most communication over the Internet, and because TCP
and UDP traffic by convention uses well known ports for particular types of traffic, a "stateless"
packet filter can distinguish between, and thus control, those types of traffic (such as web
browsing, remote printing, email transmission, file transfer), unless the machines on each side
of the packet filter are both using the same non-standard ports.[7]
Packet filtering firewalls work mainly on the first three layers of the OSI reference model, which
means most of the work is done between the network and physical layers, with a little bit of
peeking into the transport layer to figure out source and destination port numbers.[8] When a
packet originates from the sender and filters through a firewall, the device checks for matches
to any of the packet filtering rules that are configured in the firewall and drops or rejects the
packet accordingly. When the packet passes through the firewall, it filters the packet on a
protocol/port number basis (GSS). For example, if a rule in the firewall exists to block telnet
access, then the firewall will block the TCP protocol for port number 23.[9]
Second generation: "stateful" filters[edit]
Main article: Stateful firewall
From 1989–1990 three colleagues from AT&T Bell Laboratories, Dave Presetto, Janardan
Sharma, and Kshitij Nigam, developed the second generation of firewalls, calling them Circuit-
level gateways.[10]
Second-generation firewalls perform the work of their first-generation predecessors but operate
up to layer 4 (transport layer) of the OSI model. This is achieved by retaining packets until
enough information is available to make a judgement about its state.[11] Known as stateful
packet inspection, it records all connections passing through it and determines whether a
packet is the start of a new connection, a part of an existing connection, or not part of any
connection. Though static rules are still used, these rules can now contain connection state as
one of their test criteria.
Certain denial-of-service attacks bombard the firewall with thousands of fake connection
packets in an attempt to overwhelm it by filling its connection state memory.[12]
Third generation: application layer[edit]
Main article: Application level firewall
Marcus Ranum, Wei Xu, and Peter Churchyard developed an Application Firewall known as
Firewall Toolkit (FWTK). In June 1994, Wei Xu extended the FWTK with the Kernel
enhancement of IP filter and socket transparent. This was known as the first transparent
Application firewall, released as a commercial product of Gauntlet firewall at Trusted
Information Systems. Gauntlet firewall was rated one of the number 1 firewalls during 1995–
1998.
Direcciones IP
Artículo principal: IPv4
Las direcciones IPv4 se expresan por un número binario de 32 bits, permitiendo un espacio de
direcciones de hasta 4.294.967.296 (232) direcciones posibles. Lasdireccionesuj IP se pueden
expresar como números de notación decimal: se dividen los 32 bits de la dirección en
cuatro octetos. El valor decimal de cada octeto está comprendido en el intervalo de 0 a 255 [el
número binario de 8 bits más alto es 11111111 y esos bits, de derecha a izquierda, tienen
valores decimales de 1, 2, 4, 8, 16, 32, 64 y 128, lo que suma 255].
En la expresión de direcciones IPv4 en decimal se separa cada octeto por un carácter único
".". Cada uno de estos octetos puede estar comprendido entre 0 y 255.
Ejemplo de representación de dirección IPv4: 10.128.1.253
En las primeras etapas del desarrollo del Protocolo de Internet,1 los administradores de
Internet interpretaban las direcciones IP en dos partes, los primeros 8 bits para designar la
dirección de red y el resto para individualizar la computadora dentro de la red.
Este método pronto probó ser inadecuado, cuando se comenzaron a agregar nuevas redes a
las ya asignadas. En 1981 el direccionamiento internet fue revisado y se introdujo la
arquitectura de clases. (classful network architecture).2
En esta arquitectura hay tres clases de direcciones IP que una organización puede recibir de
parte de la Internet Corporation for Assigned Names and Numbers (ICANN): clase A, clase B y
clase C.3
En una red de clase A, se asigna el primer octeto para identificar la red, reservando los
tres últimos octetos (24 bits) para que sean asignados a los hosts, de modo que la
cantidad máxima de hosts es 224 - 2 (se excluyen la dirección reservada
para broadcast (últimos octetos en 255) y de red (últimos octetos en 0)), es decir,
16 777 214 hosts.
En una red de clase B, se asignan los dos primeros octetos para identificar la red,
reservando los dos octetos finales (16 bits) para que sean asignados a loshosts, de modo
que la cantidad máxima de hosts por cada red es 216 - 2, o 65 534 hosts.
En una red de clase C, se asignan los tres primeros octetos para identificar la red,
reservando el octeto final (8 bits) para que sea asignado a los hosts, de modo que la
cantidad máxima de hosts por cada red es 28 - 2, o 254 hosts.
TCP/IP es un conjunto de protocolos. La sigla TCP/IP significa "Protocolo de control de
transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos
protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo IP.
En algunos aspectos, TCP/IP representa todas las reglas de comunicación para Internet y se basa
en la noción de dirección IP, es decir, en la idea de brindar una dirección IP a cada equipo de la red
para poder enrutar paquetes de datos. Debido a que el conjunto de protocolos TCP/IP originalmente
se creó con fines militares, está diseñado para cumplir con una cierta cantidad de criterios, entre
ellos:
dividir mensajes en paquetes;
usar un sistema de direcciones;
enrutar datos por la red;
detectar errores en las transmisiones de datos.
El conocimiento del conjunto de protocolos TCP/IP no es esencial para un simple usuario, de la
misma manera que un espectador no necesita saber cómo funciona su red audiovisual o de
televisión. Sin embargo, para las personas que desean administrar o brindar soporte técnico a una
red TCP/IP, su conocimiento es fundamental.
La diferencia entre estándar e implementación
En general, TCP/IP relaciona dos nociones:
la noción de estándar: TCP/IP representa la manera en la que se realizan las comunicaciones
en una red;
la noción de implementación: la designación TCP/IP generalmente se extiende a software
basado en el protocolo TCP/IP. En realidad, TCP/IP es un modelo cuya aplicación de red
utilizan los desarrolladores. Las aplicaciones son, por lo tanto, implementaciones del protocolo
TCP/IP.
TCP/IP es un modelo de capas
Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema
operativo, el sistema de protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos
realiza una tarea específica. Además, estos módulos realizan sus tareas uno después del otro en un
orden específico, es decir que existe un sistema estratificado. Ésta es la razón por la cual se habla
de modelo de capas.
El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan
distintos niveles de protocolos. Por lo tanto, cada capa procesa sucesivamente los datos (paquetes
de información) que circulan por la red, les agrega un elemento de información (llamado encabezado)
y los envía a la capa siguiente.
El modelo TCP/IP es muy similar al modelo OSI (modelo de 7 capas) que fue desarrollado por la
Organización Internacional para la Estandarización (ISO) para estandarizar las comunicaciones
entre equipos.
Presentación del modelo OSI
OSI significa Interconexión de sistemas abiertos. Este modelo fue establecido por ISO para
implementar un estándar de comunicación entre equipos de una red, esto es, las reglas que
administran la comunicación entre equipos. De hecho, cuando surgieron las redes,cada fabricante
contaba con su propio sistema (hablamos de un sistema patentado), con lo cual coexistían diversas
redes incompatibles. Por esta razón, fue necesario establecer un estándar.
La función del modelo OSI es estandarizar la comunicación entre equipos para que diferentes
fabricantes puedan desarrollar productos (software o hardware) compatibles (siempre y cuando
sigan estrictamente el modelo OSI).
La importancia de un sistema de capas
El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo
con su nivel de abstracción.
Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada
capa utiliza los servicios de las capas inferiores y se los proporciona a la capa superior.
El modelo OSI
El modelo OSI es un modelo que comprende 7 capas, mientras que el modelo TCP/IP tiene sólo 4.
En realidad, el modelo TCP/IP se desarrolló casi a la par que el modelo OSI. Es por ello que está
influenciado por éste, pero no sigue todas las especificaciones del modelo OSI. Las capas del modelo
OSI son las siguientes:
La capa física define la manera en la que los datos se convierten físicamente en señales
digitales en los medios de comunicación (pulsos eléctricos, modulación de luz, etc.).
La capa de enlace de datos define la interfaz con la tarjeta de interfaz de red y cómo se
comparte el medio de transmisión.
La capa de red permite administrar las direcciones y el enrutamiento de datos, es decir, su ruta
a través de la red.
La capa de transporte se encarga del transporte de datos, su división en paquetes y la
administración de potenciales errores de transmisión.
La capa de sesión define el inicio y la finalización de las sesiones de comunicación entre los
equipos de la red.
La capa de presentación define el formato de los datos que maneja la capa de aplicación (su
representación y, potencialmente, su compresión y cifrado) independientemente del sistema.
La capa de aplicación le brinda aplicaciones a la interfaz. Por lo tanto, es el nivel más cercano
a los usuarios, administrado directamente por el software.
Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad
es el sistema operativo el que realiza estas tareas, mientras los drivers de hardware permiten la
SWITCH
Top 10 Best Business Books of the Year – The Globe and Mail
Top 10 Best Books for Business Owners – Inc. magazine
Top 10 Best Books for Federal Leaders – Washington Post
On the Vice-President’s reading list
Switch asks the following question: Why is it so hard to make lasting changes in our companies, in our
communities, and in our own lives? The primary obstacle, say the Heaths, is a conflict that’s built into
our brains. Psychologists have discovered that our minds are ruled by two different systems—the
rational mind and the emotional mind—that compete for control. The rational mind wants a great beach
body; the emotional mind wants that Oreo cookie. The rational mind wants to change something at
work; the emotional mind loves the comfort of the existing routine. This tension can doom a change
effort—but if it is overcome, change can come quickly.
In Switch, the Heaths show how everyday people—employees and managers, parents and nurses—have
united both minds and, as a result, achieved dramatic results:
The lowly medical interns who managed to defeat an entrenched, decades-old medical practice that
was endangering patients.
The home-organizing guru who developed a simple technique for overcoming the dread of
housekeeping.
The manager who transformed a lackadaisical customer-support team into service zealots by
removing a standard tool of customer service.
In a compelling, story-driven narrative, the Heaths bring together decades of counterintuitive research in
psychology, sociology, and other fields to shed new light on how we can effect transformative
change. Switch shows that successful changes follow a pattern, a pattern you can use to make the
changes that matter to you, whether your interest is in changing the world or changing your waistline
An entertaining and educational must-read for executives and for ordinary citizens looking to get out
of a rut."
- PUBLISHER'S WEEKLY
"Witty and instructive."
- THE WALL STREET JOURNAL
"A must-read."
- FORBES
TIPO DE RED Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución lógica.
Clasificación segun su tamaño
Las redes PAN (red de administración personal) son redes pequeñas, las cuales están conformadas
por no más de 8 equipos, por ejemplo: café Internet.
CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas
geográficamente dentro de un campus (universitario, oficinas de gobierno, maquilas o industrias)
pertenecientes a una misma entidad en una área delimitada en kilometros. Una CAN utiliza comúnmente
tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicacióntales
como fibra óptica y espectro disperso.
Las redes LAN (Local Area Network, redes de área local) son las redes que todos conocemos, es decir,
aquellas que se utilizan en nuestra empresa. Son redes pequeñas, entendiendo como pequeñas las redes de
una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada
estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de
transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red.
Suelen emplear tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas
todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.
Características preponderantes:
Los canales son propios de los usuarios o empresas.
Los enlaces son líneas de alta velocidad.
Las estaciones están cercas entre sí.
Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información.
Las tasas de error son menores que en las redes WAN.
La arquitectura permite compartir recursos.
LANs mucha veces usa una tecnología de transmisión, dada por un simple cable, donde todas
las computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre LANs, las
cuales se verán más adelante.
Las redes WAN (Wide Area Network, redes de área extensa) son redes punto a punto que interconectan
países y continentes. Al tener que recorrer una gran distancia sus velocidades son menores que en
las LAN aunque son capaces de transportar una mayor cantidad de datos. El alcance es una gran área
geográfica, como por ejemplo: una ciudad o un continente. Está formada por una vasta cantidad de
computadoras interconectadas (llamadas hosts), por medio de subredes de comunicación o subredes
pequeñas, con el fin de ejecutar aplicaciones, programas, etc.
Una red de área extensa WAN es un sistema de interconexión de equipos informáticos geográficamente
dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar esta interconexión suelen ser
parte de las redes públicas de transmisión de datos.
Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a mejores servicios,
como por ejemplo a Internet. Las redes WAN son mucho más complejas, porque deben enrutar correctamente
toda la información proveniente de las redes conectadas a ésta.
Una subred está formada por dos componentes:
Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts
Top Related