martes, 15 de febrero de 2011

RED DE COMPUTADORAS

¿Qué es una red?

La palabra red tiene varias definiciones. La más común describe los métodos que
la gente utiliza para mantener sus relaciones con amigos y contactos de negocios.
Aplicada a las computadoras, tiene mucho del mismo significado. Una red es una
manera de interconectar computadoras de tal forma que estén conscientes unas de otras y puedan unir sus recursos.
 
Cuatro ventajas de las redes.

_ Permiten acceso simultáneo  a programas e información crítica.
_ Permiten a la gente compartir recursos periféricos.
_ Hacen el proceso de respaldo más fácil.
_ Modernizan las comunicaciones personales con correo electrónico.

¿Qué es una red de computadora?

Es un conjunto de computadoras entrelazadas entre si, pueden ser inalámbricas o alambicas con la finalidad de compartir recursos y aplicaciones.



¿Elementos que componen una red?

Para saber los elementos de una red, se necesita saber la topología de la red y
la arquitectura.

Protocolo

Es el lenguaje que utilizan las redes para comunicarse

Cobertura
Son las redes de acuerdo a su extensión

Arquitectura

Modelo, estándar, estructura pueden ser dos módulos.

Software (sistema operativo)
                                                          Hardware (mainframe o PC)         


Concepto de un servidor y tipos de servidores.

Cliente / Servidor: Es una red donde el servidor (Pcmaster), ofrece sus servicios
a otras PC’s (Pccliente)

Tiene dos tipos de servidor:

Dedicado.- Consiste en un servidor que es exclusivo para la gestión de recursos y
que no puede ejecutar aplicaciones Novell o UX-HP (HP 9000).

No Dedicado.- Es un servidor que a la vez es cliente servidor.

Aplicaciones.- Son programas que no son parte o no son natos del Sistema
Operativo, es decir, no hacen tareas de administración de recursos.

Servidor Punto a Punto.- Este tipo de servidores tiene la característica de que los
clientes pc’s y los servidores son idénticos y a veces requieren de una plataforma para
ejecutarse( todos pueden ser servidores y clientes a la vez).

AL MOMENTO DE COMPARTIR YA TENGO UN SERVIDOR


Punto a Punto (Ventajas y Desventajas)
· Fácil de instalar
· Carece de seguridad
· El costo es económico
· Es para pequeñas empresas (10 clientes para abajo)
· Esto funciona para cualquier equipo
· La instalación de cliente / servidor es con el mismo software

Cliente / Servidor (Ventajas y Desventajas)
· Complejidad en la instalación (abstracto)
· Existen varios niveles de seguridad
· La mayoría de las veces tiene costo
· Medianas y grandes empresas
· Requiere equipo especial para los servidores
· Se requiere discos para servidores y para clientes

Una red de computadoras brinda a los usuarios oportunidades múltiples en materia de
Software, tanto información como programas.








CUALES SON LAS VENTAJAS DE USAR UNA RED DE COMPUTADORAS:

Ø  Ahorro de dinero al utilizar menos disquetes.
Ø  Ahorro de dinero al compartir recursos caros y no siempre trabajando eficientemente en una jornada de trabajo: impresoras, unidades de disco duro y flexibles, módem, lectores CD-ROM, cintas para respaldo, entre otros.
Ø  Ahorro de tiempo en el transporte de datos o información entre nodos alejados,
Ø  Ahorro de tiempo al instalar y actualizar programas.
Ø  Aumento en la_eficiencia logística, al evitar la duplicidad de_archivos en los casos que éstos deben ser únicos, a la vez que se facilita su actualización,
Ø  Comunicación o mensajería en tiempo real.
Ø  En redes cliente-servidor, se aprovecha la oportunidad de tener un control  centralizado en cuanto a los derechos y restricciones de los usuarios respecto de los recursos en red, lo cual brinda una mejor organización informática.
Ø  Resumiendo, aumento en la productividad.


            CUALES SON LAS DESVENTAJAS DE USAR UNA RED DE COMPUTADORAS:

Ø  Inversión de dinero considerable al implementar la red y para mantenerla.
Ø  Inversión en recursos humanos más calificados, o capacitación a la fuerza labora existente, pues la complejidad computacional aumenta al tener una red.
Ø  La confidencialidad de información tiene riesgos de ser violada.
Ø  Posibles caídas del sistema que dejarían aislados los procesos.
Ø  Pérdida de control, tanto técnico como administrativo, conforme aumenta el tamaño de la red.
Ø  Mayor gasto energético, pues deben permanecer encendidos los recursos
compartibles.
Ø  La actualización es más cara o especializada.
Ø  Si las potenciales ventajas minimizan las potenciales desventajas, habría razones para implementar una red de computadoras.

TOPOLOGIA.
La palabra topología se definir como la manera en que se conectan las redes. Es la forma de cómo está estructurad  la red (estructura de redes).

Al hablar de topologías, se definen 2 enfoques: topología física y topología lógica; la topología física, refiere a la estructura o forma en que físicamente se unirán los nodos de una red. La topología física es la más evidente de las dos, ya que uno puede ver como están cableadas las estaciones, es decir, la ruta que sigue el cable al ir interconectando nodo tras nodo.
Por otra parte, la topología lógica define el camino que va a seguir el flujo de datos entre los integrantes de la red, que no necesariamente debe ser igual al camino del cable; en algunas propuestas coincide la topología lógica con la topología física implementada.


TOPOLOGIA DE BUS O CANAL.
En esta topología, todas las computadoras están conectadas a un sólo cable central,
que une nodo tras nodo; el principio y el fin del cable nunca se unen; en vez de ello, se
utilizan dispositivos llamados terminadores a cada extremo de este bus, para evitar que
la señal rebote. Para que una estación pueda recibir un mensaje, ésta ha de reconocer
su propia dirección, misma que se encuentra definida en la tarjeta de red.

CARACTERISTICAS CUALITATIVAS.

Ø  La instalación resulta muy sencilla.
Ø  Se adapta con facilidad a la distribución física de las estaciones.
Ø  Posee gran flexibilidad en la variación del número de estaciones, ya sea aumentar disminuir el número de estaciones.
Ø  El coste resulta reducido, pues necesita pocos componentes y muy sencillos todos
ellos: cable, conectores, terminadores.
CARACTERISTICAS ESPECIALES.

Ø  Poca seguridad del sistema, ya que una avería en el soporte físico, es decir, el bus o cable, inhabilita el funcionamiento completo de la red.
Ø  Se tiene dificultad para encontrar las averías en el cable, cuando éstas suceden, pues la falla puede haberse suscitado en cualquier punto del bus.


TOPOLOGIA DE ESTRELLA.
Todas las estaciones se encuentran unidas a un nodo central que efectúa las funciones
de controlador de conmutación. A este controlador central se le conoce más por su
nombre en inglés: HUB.

CARACTERISTICAS CUALITATIVAS.

Ø  Las estaciones en su conexión con el controlador central (HUB), pueden utilizar
distintas velocidades de transmisión, distintos protocolos y diferentes medios físicos de conexión.
Ø  Posee una buena flexibilidad en cuanto al incremento y disminución del número
de estaciones que se conectan a la red.
Ø  Permite una fácil localización de averías.

CARACTERISTICAS ESPECIALES.

Ø  El sistema tiene poca seguridad, ya que todas las transmisiones dependen del
buen funcionamiento del controlador central.
Ø  El costo es elevado debido al gran consumo de líneas de conexión.
Ø  El costo se incrementa al tener que adquirir un HUB.
Ø  No permite grandes flujos de tráfico por la posible saturación del HUB, efecto
llamado cuello de botella.


TOPOLOGIA DE ANILLO.
Todas las estaciones están conectadas formando un anillo, de manera que la
información atraviesa por todos los nodos, aunque solamente la estación a la que va
dirigida la información puede recuperarla.
 


CARACTERISTICAS CUALITATIVAS.


Ø  La tasa de errores de la transmisión es muy pequeña, ya que la información se
regenera en cada nodo de estación.
Ø  Se pueden enviar fácilmente mensajes a todas las estaciones.



CARACTERISTICAS ESPECIALES.


Ø  Una avería en el medio de transmisión o en una estación bloquea la red, aunque para disminuir este problema de seguridad se han diseñado redes de doble anillo.
Ø  Si el número de estaciones es elevado, el retardo que se produce en la red puede
ser grande, ya que cada estación contribuye con un cierto tiempo de demora.



SISTEMA OPERATIVO DE UNA RED.

EL SOTFWARE DE APLICACIÓN.

Refiere a los sistemas finales, con los que el usuario común interactuará día a día para
resolver sus tareas específicas por computadora: procesadores de texto, hojas de
cálculo, diseño gráfico, presentaciones electrónicas. Para que estas aplicaciones
puedan provechar las ventajas del ambiente de red, es necesario adquirir las versiones
fabricadas específicamente para multiusuario. Ejemplos hay miles; en nuestro medio,
los más clásicos son Microsoft Word, Microsoft Excel.

SISTEMA OPERATIVO DE UNA RED.

El Sistema operativo de la red, es mejor conocido como 126__por sus siglas en inglés:
Network Operating System.

De los varios sistemas de software necesarios para administrar el flujo lógico de una
red, el NOS es el más famoso y referenciado (además es el más costoso de todos),
incluso, el sistema total de red en sí, vemos que en infinidad de ocasiones llega a
adoptar incorrectamente- el nombre del NOS o del fabricante del NOS; así, la gente
dice: "nosotros tenemos una red LANtastic, nosotros tenemos una red Novell".
El NOS es el corazón de la red.

El NOS Controla operaciones críticas d, la red comopeticiones de archivos, ruteo de paquetes, seguridad de la red, interconectividad, y administración del sistema. El NOS controla el acceso de los clientes a los servicios de red, les proporcionan acceso a los archivos que se encuentran almacenados en la red, manejan el acceso de múltiples clientes, proporcionan servicios de impresión y constituyen, de hecho, el foco de los recursos de la red.


lunes, 14 de febrero de 2011

ANTECEDENTES HISTORICOS DE LAS REDES LAN.

Los comienzos
Los ordenadores nacieron grandes, desgarbados, delicados, caros, difíciles de manejar y poco eficientes.  De hecho, el propio ENIAC, al que hemos hecho referencia, era un buen ejemplo. Pesaba cerca de 30 toneladas y ocupaba el espacio equivalente a una sala de baile; su operación requería la nada despreciable cantidad de 174.000 W de potencia.

Primeras conexiones
 El contacto físico de los usuarios con los ordenadores era bastante escaso, por lo que empezaron a arbitrarse soluciones para acercarlos (siguiera parcialmente). Empezó así el embrión de lo que sería el teleproceso y las Redes, al empezar a utilizar algunos dispositivos físicamente alejados de los ordenadores de los que dependían, enlazados mediante líneas de muy diverso tipo.
Uno de tales proto-servicios fue la impresión en remoto, donde el ordenador enviaba los resultados a equipos de impresión en las oficinas y despachos de los usuarios.  Pronto apareció un antecesor de TELNET, un servicio que permitía ya el acceso a los ordenadores mediante terminales remotos.  Cuando el parque de Computadoras en Universidades y centros de investigación fue creciendo, se hizo evidente la necesidad de enviar datos (ficheros) directamente de una computadora a otra, con lo que nació FT ("File Transfer"); un sistema para que una computadora entendiera lo que enviaba otra, salvando las posibles diferencias particulares (modelo, lenguaje, formato interno de los ficheros, etc.)  A estas alturas, no existía Internet tal como hoy lo concebimos, solo unas redes interconectando algunos ordenadores. 
 Además, los ordenadores que formaban estas redes eran un mundo súper restringido que se limitaba como queda dicho a unas cuantas universidades y centros de investigación del Gobierno USA.

Primeras redes
Diciembre de 1957 marca otro hito importante en el desarrollo de la informática (en especial de Internet), cuando en plena Guerra Fría, en respuesta al primer satélite soviético, el Departamento de Defensa (DoD) funda la ya mítica ARPA.  Agencia de Proyectos Avanzados de Investigación (Advanced Research Proyects Agency), para devolver a los EEUU la superioridad en el área de las aplicaciones militares de la informática. Esta agencia sería el promotor y mecenas de muchos proyectos científicos (no solo informáticos) de gran trascendencia, entre otros el lanzamiento del primer satélite artificial USA.
Durante los años 60 y 70 se crearon muchas tecnologías de redes, cada una basada en un diseño específico de hardware.  Algunas de estas redes, llamadas de aérea local LAN (Local Aérea Network), conectan equipos en distancias cortas (normalmente dentro del propio Campus de la Universidad), mediante cables y hardware específico instalado en cada equipo.  Otras redes más grandes, llamadas de aérea extensa,  WAN (Wide Aérea Network), conectaban equipos a distancias mayores utilizando líneas de transmisión similares a las empleadas en los sistemas telefónicos.
A pesar de que las LAN y WAN hicieron que compartir información entre organizaciones fuera mucho más sencillo, la información no podía ser transferida mas allá de los límites de cada red. Cada tecnología de red transmitía la información de modo diferente, supeditada al diseño del propio hardware.  Una determinada tecnología LAN solo podía funcionar en ciertos equipos, y la mayoría de las tecnologías LAN y WAN o eran incompatibles entre sí, o la comunicación entre ellas era súmamente complicada.
Con objeto de mejorar las capacidades de transmisión de las líneas telefónicas se ideó la multiplexación. Esta nueva tecnología es ni más ni menos que meter dos o más mensajes distintos (podían ser incluso a destinos distintos) por una misma línea telefónica.  Para conseguirlo, los mensajes originales se fraccionan en trozos cortos, y el tiempo de transmisión se divide igualmente en trozos, asignándose sucesivamente un intervalo de tiempo a cada trozo de un mensaje distinto.  Un proceso inverso (desmultiplexación) es capaz de reconstruir en la llegada los mensajes a partir de los trozos de cada uno, que van llegando sucesiva y alternativamente.
En 1959 en plena guerra fría, los soviéticos lanzan con éxito su primer satélite artificial Sputnik, lo que induce a Norteamérica a redoblar sus esfuerzos científicos y técnicos por conseguir la supremacía tecnológico-militar.
En 1960 el Departamento de Defensa ya poseía una red de computadoras uniendo sus centros estratégicos y de investigación (message-communication network, AUTODIN), aunque tenía conocidas deficiencias.  En esta época, en la mitad de la Guerra Fría, el DoD se planteó si en caso de que un hipotético ataque nuclear quedara dañara la red de ordenadores,  ¿Cómo seguiría comunicando el ejército americano con sus centros de misiles para una réplica?.

La solución a este problema vino de la mano de la RAND Corporation (otra agencia de investigación gubernamental que tuvo un papel destacado en la obtención de la primera bomba atómica).  Fue una ampliación del concepto multiplexación antes aludido, y recibió el nombre de Conmutación de Paquetes ("Packet-switching").  La base de la idea consiste en que la información a transmitir se fracciona en trozos; a continuación se construye un datagrama o paquete con cada trozo.  Además del fragmento de información a transmitir, se añaden etiquetas con información del origen del que partió, y del destino al que debe llegar, así como otros datos que permiten verificar que el paquete ha llegado íntegro, sin errores de transmisión, y de los diversos pasos que ha realizado de ordenador en ordenador hasta que alcanza su meta. 
En 1967 el DoD consideraba las posibilidades del sistema, la agencia ARPA estudia las posibilidades del IMP y empieza a cristalizar la idea de una red que concrete estas elucubraciones teóricas, a las que por esta época comienzan a referirse como "ARPA Contractor Machine-to-Machine Transmission" (lo que luego sería ARPANet).
Para dar respuesta concreta a estas cuestiones y planteamientos teóricos, en 1969 la Agencia ARPA crea ARPANet ("Advanced Research Proyect Agendy Network"), una red experimental de computadoras basada en la tecnología de conmutación de paquetes.  ARPANet era un proyecto para interconectar los diversos tipos de redes y permitir el libre intercambio de información entre los usuarios, independientemente de las máquinas o redes que utilizaran.  Para ello se agregaron unos equipos especiales, llamados enrutadores o encaminadores, que conectaban redes LAN y WAN de diferentes tipos.  Los equipos interconectados necesitaban un protocolo común.  El nuevo protocolo de red propuesto por ARPA se denominó NCP [13], y el sistema de esta red de  redes interconectadas dio en llamarse Internet (de ahí su nombre).
La primera instalación real de una red de este tipo, se realizó dentro del edificio del Laboratorio Nacional de Física de Inglaterra en 1968. Pronto se construirían modelos mucho mayores.  Muy poco después, el Pentágono deseaba construir en USA una red basada en los mismos principios. La tecnología de conmutación de paquetes se convierte rápidamente en la base del programa de redes de datos del Departamento de Defensa y se decide construir una primera red uniendo cuatro ordenadores de alta velocidad (de entonces).
Una compañía de Cambridge ganó el concurso para construir los conmutadores de paquetes IMP que utilizaría la red.  En el mes de septiembre llega a la universidad de UCLA el primer IMP (posteriormente esta universidad se convertía en el corazón de la comunidad Internet).  Pocas semanas después llegaron IMPs a las universidades de Stanford (Stanford Research Institute, SRI); Santa Bárbara de California (UCSB); Universidad de California en Los Ángeles (UCLA), y la universidad de Utah en Salt Lake City. Cuando estos equipos estuvieron configurados, se conectaron a líneas telefónicas, y ARPANET empezó a funcionar con estos cuatro nodos en 1969.
Esta primera red (ARPANET) permitía a los investigadores trabajar conjuntamente en los súperordenadores de la época.  Ofrecía básicamente tres servicios:  acceso a computadoras mediante terminal remoto (telnet); transferencia de ficheros FTP, e impresión en remoto. Curiosamente, el correo electrónico no se había implantado todavía. Fue un servicio que se consideró poco importante (pasa casi un año desde la aparición de ARPANET hasta que se  envía el primer e-mail). La velocidad de esta primera red era de 56 Kbps.
ARPANET siguió creciendo; en 1971 ya constaba de quince nodos, en 1972 ya eran 37 los miembros de esta red. Formar parte del club era por aquel entonces muy costoso; una conexión costaba un cuarto de millón de dólares anuales.
Por esta época, 1972, Rovert Kahn hace la primera presentación-demostración pública de ARPANET, conectando 40 máquinas a lo largo y ancho del país con la TIP ("Terminal Interface Processor") en el vestíbulo del hotel Hilton en Washington DC.  ARPA cambia su nombre por DARPA ("Defense Advanced Research Projects Agency") .


En 1973 el crecimiento de la red se estimaba en un nuevo miembro cada veinte días y ARPANET se internacionaliza con la inclusión del University College de Londres y el Radar Real de Noruega. Se empieza a hablar de una red de ámbito global.  Por otra parte, el continuo incremento de tráfico militar en la red hizo que en Julio de 1975 la DCA ("Defense Communications Agency") tomara el control sobre ARPANET.
En 1976 se materializa el proyecto de una red conmutada de paquetes vía satélite, SATNet ("Atlantic packet Satellite network") que enlaza los EEUU con Europa, aunque sorprendentemente no usa satélites gubernamentales o militares, sino InTelSat ("International Telecommunications Satellite Organization"), una red de satélites de comunicaciones civiles.
En 1979 Steve Bellovin (un graduado de la universidad de Carolina del Norte), Tom Truscott y Jim Ellis crean USENET, una red descentralizada de noticias.
1981 Comienzan a funcionar (separadamente) CSNET y BITNET
1982  ARPANET instala oficialmente el protocolo TCP/IP como el oficial de la red, sustituyendo al protocolo original NCP ("Network Control Protocol"), con que había empezado su operación.  Comienza a funcionar FidoNet.
1983  En Enero, la DCA exige que adopte el protocolo TCP/IP a todos los sitios que deseen seguir conectados a ARPANET.  El proceso, que suponía el abandono definitivo de NCP, el primitivo protocolo de ARPANET, necesitó de varios meses hasta la total adaptación.  Es también en esta fecha (Octubre de 1983), cuando la primitiva red ARPANET se divide en MILNET, de uso preferentemente militar, y la nueva ARPANET de uso científico. Por esta razón es considerada por algunos como la fecha del verdadero nacimiento de Internet.   Sin embargo, ARPANET e Internet nunca fueron la misma cosa.  ARPANET fue siempre una sola red, mientras que INTERNET fue siempre una red de redes, de la cuál ARPANET fue solo una de ellas.
En esta fecha, la Red alcanza 235 ordenadores y el término Internet va desplazando progresivamente al anterior.  Comienza a funcionar EUNet ("European Unix Network").
1983:  La red alcanza unos 500 ordenadores, concretamente en Agosto había registrados 563.
1984:  William Gibson acuña el término "Ciberespacio" en su obra Neuromancer. Se introduce oficialmente el sistema DNS.
1985:  La Red cuenta con 1.000 ordenadores.  Comienza a funcionar JUNet ("Japan Unix Network") y se estandariza el subdireccionamiento ("subnetting") con la especificación RFC 950 que permite interconectar pequeñas redes (LAN) con redes de ámbito mayor (WAN).  En esta época comienza a popularizarse el PC ("Personal Computer").
1986:  La Red cuenta con 2.000 ordenadores en Febrero y con 5.000 en Noviembre.  Esta fecha es importante porque la NSF ("National Science Foundation") quiere acercar la potencia de los grandes computadores a los usuarios más modestos, para lo que decide crear cinco centros de súper computación a lo largo del país e interconectarlos.  En principio se proyecta utilizar ARPANET, pero su burocracia y la escasez de soporte la hacen desistir, de forma que construyen su propia red utilizando el mismo protocolo IP de ARPANET.  Los cinco centros quedan unidos (1.5 Mbps) en la denominada NSFnet, pero no pueden unir todas las Universidades con la nueva red, sencillamente porque no tienen suficientes recursos económicos para tender las conexiones (cables) con cada universidad.  Para resolver el problema se decide que las escuelas y universidades de una misma región se unan entre sí, y esta red se une a su vez con uno de los súper ordenadores. 
Como consecuencia el tráfico de la red crece continuamente y pronto los ordenadores y la líneas resultan lentos para digerir la ingente cantidad de datos.  Desde entonces la red de la NSF se constituye en el corazón de Internet.
Posteriormente la IETF pasó a depender de la Sociedad Internet ("Internet Society"), fundada en 1992 con asistencia del Federal Networking Council, transformándose en una organización de voluntarios organizada en diversos grupos de trabajo, cuya misión es centralizar, estandarizar y difundir información sobre Internet.

1987:  La Red alcanza 20.000 ordenadores

El primer virus de red
1988 es otro hito histórico (infausto), el 2 de Noviembre aparece el primer "Virus" informático.  El gran público conoce la existencia de Internet al ser portada de periódicos y telediarios.  Robert Morris, estudiante de la universidad de Cornell, conocedor del funcionamiento de la red, desarrolla un "Gusano", un programa que lanzado desde un ordenador, generaba copias de sí mismo y se auto-enviaba a otros ordenadores.

Muchos de los servidores de la red se vieron sobrecargados y tuvieron que ser desconectados para poder eliminar esta nueva especie de cáncer informático (que colapsa unos 6.000 ordenadores, incluyendo equipos del Gobierno federal, la NASA y la Fuerza Aérea).  En adelante un equipo de expertos gubernamentales, el CERT ("Computer Emergency Response Team") cuidará de hacer frente a este tipo de problemas, cuyo costo en tiempo perdido y esfuerzos para eliminarlo, se estimaron entre 15 y 100 millones de dólares.
1989:  La red alcanza 100.000 ordenadores.  En esta fecha ya existía en algunos círculos la clara percepción de que la red se estaba quedando pequeña.  La Oficina de Ciencia y Tecnología en la persona de su presidente, publica un informe sobre el Programa Federal de Computación de alta capacidad, donde se proponen cuatro áreas de investigación y desarrollo que devolverían al país una posición preponderante en las tecnologías de computación y de redes. 
El informe propone que, basándose en NSFnet y en Internet, el gobierno funde una nueva red que pudiera llegar al rango del Gigabyte (mas de un billón de bits por segundo). Una vez puesta en marcha, la red sería transferida a manos de la iniciativa privada.  El plan prevé un desarrollo a cinco años con una inversión total de 2 billones de dólares USA y de 988 el primer año, se considera que el costo total del proyecto equivale al de un bombardero B-2.
1990:  El 1 de Junio es la fecha oficial de "defunción" de ARPANET, es desmontada 20 años después de su "nacimiento".  De todos modos, los nodos que formaban ARPANET estaban ya conectados también mediante Internet, de forma que su desaparición pasó desapercibida.
Por esta época (1990) Internet era ya una importante red de ordenadores interconectados donde, a veces, empezaba a ser difícil encontrar la información que se andaba buscando. Peter Deutsch de la McGill University de Montreal crea un programa "buscador" denominado Archie, el nombre tiene su origen en el de un personaje de un famoso cómic Norteamericano.  Este servicio de búsqueda tuvo mucho éxito y pronto se difundió por la red.
1991: Se funda CIX ("Commercial Internet Exchange Association").  En Enero hay 376.000 ordenadores conectados; en Octubre son ya 617.000.  El gobierno USA funda la NREN ("National Research and Educational Network"), según una propuesta liderada por el vicepresidente Al Gore.  Es entonces cuando se acuña el término "Autopistas de la información".





Se crea el INWG ("International Network Working Group"), entidad encargada de investigar protocolos comunes para la red.  Vinton Cerf es elegido presidente a los 29 años. Más tarde será considerado el padre de Internet. Ray Tomlinson, de BBN, crea el primer programa de e-mail.