1. Cátedra Telefónica en la UPM
Internet de Nueva Generación
Hacia una Internet de Nueva
Generación
(Versión 6, 2 de Enero de 2004)
Juan Quemada
Catedrático de la ETSI Telecomunicación - UPM y
Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación
1
3. PRESENTACION
INTERNET DE NUEVA GENERACION, UNA CÁTEDRA PIONERA
Este libro ve la luz en un momento crucial para el desarrollo de la Sociedad de la Información en España. Si
en años anteriores la crisis con la que comenzó el siglo XXI amenazaba el crecimiento de las Tecnologías de
la Información y las Telecomunicaciones (TIC), en este momento los indicadores de referencia dejan ver la
luz al final del túnel. El número de internautas, lejos de estancarse, sorprende con un fuerte tirón al alza
gracias a la irrupción de la banda ancha, lo que convierte a España en uno de los países punteros de Europa
en penetración de ADSL. La conjunción de la tecnología de Internet y la de las comunicaciones móviles
augura un cambio trascendental tanto en los medios de producción como en los de ocio en cualquier entorno,
sentando las bases de una nueva revolución tecnológica que cambia nuestra forma de relacionarnos, de
trabajar, adquirir conocimientos y tratar con las Administraciones Públicas.
De igual forma que el desarrollo del ferrocarril o el automóvil han supuesto hitos mesurables en la evolución
de las naciones en el pasado siglo, así la inversión en TIC supone una vía segura y eficiente para aumentar el
potencial de crecimiento de la economía. El ejemplo más cercano lo tenemos en EE.UU. en donde la apuesta
por las TIC guarda un inseparable efecto multiplicador sobre el crecimiento de su economía y el bienestar de
sus ciudadanos.
En el hogar, la empresa o los centros educativos los usuarios pueden acceder al potencial de información que
ponen a su disposición las nuevas tecnologías de la comunicación. La banda ancha no sólo permite navegar
por Internet en un ejercicio que era hasta ahora casi privativo del ámbito científico o del mero
entretenimiento. La irrupción de la oferta de servicios como la teleasistencia, domótica, educación virtual,
vídeo bajo demanda, teleseguridad, telemedicina, etc., señalan ya el futuro del hogar, la escuela o el hospital
digital. En un ámbito universitario como en el que nace este libro huelga comentar las ventajas que ofrece
Internet para docentes y estudiantes, desde el acceso prácticamente universal a las fuentes del conocimiento
a la revolución en los métodos de estudio tanto presenciales como on-line, cambiando el concepto de aulas
de informática por el de informática en todas las aulas.
Sin embargo, a pesar de que Internet ha irrumpido en las vidas cotidianas de cientos de millones de usuarios,
es todavía un arcano para muchos, y lo es aún más la Internet del futuro, la Internet de Nueva Generación.
En este libro, el profesor Juan Quemada contribuye a despejar este misterio que rodea a Internet con rigor
técnico y claridad expositiva. Se trata de una obra muy útil tanto para el profano que tenga interés por
conocer mejor el origen y el funcionamiento de Internet como para los ingenieros y científicos, presentes y
futuros, que necesiten un libro de referencia sobre las últimas novedades en IPv6.
A través del programa de Cátedras Telefónica del que es pionera la Cátedra de Estudios de Internet de
Nueva Generación de la Universidad Politécnica de Madrid, bajo la dirección del profesor Juan Quemada,
se fomenta el efecto palanca de la innovación tecnológica apoyando la generación y difusión del
conocimiento mediante cursos de postgrado, convocatoria de becas y premios, participación en foros,
edición de publicaciones, etc., potenciando en definitiva las relaciones entre la Universidad y la Empresa. La
génesis de este libro en el ámbito del programa de Cátedras Telefónica refuerza el compromiso del líder
español en telecomunicaciones apoyando la difusión del conocimiento, incentivando la investigación, el
desarrollo y la innovación (I+D+I). En el marco de este esfuerzo, este año Telefónica ha favorecido la
concesión de mil cien becas, al tiempo que incrementó su actividad como vehículo catalizador del
conocimiento en el ámbito universitario a través del portal de la Fundación Telefónica CampusRed.net con
más de un millón de visitas y doce millones de páginas vistas.
José Maria Sanz-Magallón
Subdirector General Relaciones Institucionales y Gestión de Conocimiento de Telefónica S.A.
3
5. PRÓLOGO
Con gusto escribo unas líneas para prologar este libro, que bajo el título de Hacia una Internet de Nueva
Generación recoge los antecedentes históricos de la creación de la red de redes, su evolución y las
tendencias futuras. Aunque en la segunda mitad del siglo XX, se han producido numerosas innovaciones
científicas y tecnológicas que han transformado nuestra sociedad, incidiendo directamente en la vida de las
personas, entre ellas el desarrollo y despliegue de Internet, la multiplicación de sus aplicaciones, la
generalización de su uso, al menos en los países del primer mundo, es, sin duda alguna, causa de una de las
transformaciones mas importantes que ha permitido el desarrollo de la denominada Sociedad de la
Información.
Se ha escrito mucho sobre este fenómeno, sobre sus bases tecnológicas, sobre los servicios construidos sobre
la red, sobre el ascenso y caída de las .com y el periodo de recuperación, que estamos viviendo en estos
momentos, de algunas de las empresas supervivientes de la crisis de finales del siglo pasado. Sin embargo,
nos encontramos con una tecnología y unos modelos de negocio en su explotación que están cambiando
continuamente, en una fase en que no resulta fácil anticipar el futuro, ni si quiera a corto plazo.
Por todas las razones apuntadas, este libro es oportuno y contribuye a clarificar la situación actual y algunas
de las previsibles tendencias de futuro. El libro aborda los problemas y soluciones técnicas pasadas,
presentes y futuras, y combina de forma equilibrada una visión profesional profunda y detallada con un
lenguaje sencillo que permite su lectura a los no especialistas. Esta acertada orientación, unida al hecho de
estar escrito en castellano hace de él una referencia obligada.
Por otra parte, debo resaltar que el libro es el resultado del trabajo desarrollado por el Prof. Juan Quemada
en el marco de la Cátedra Telefónica en la Universidad Politécnica de Madrid sobre Internet de Nueva
Generación que tiene la vocación y así viene desarrollándose desde su creación, de convertirse en un foro
donde se contribuya con diferentes iniciativas a la discusión promoción y desarrollo de la tecnología y
aplicaciones de las versiones más avanzadas de Internet. Desde la universidad estamos muy satisfechos de
esta fórmula de colaboración con la empresa en general y, de forma muy especial, con Telefónica.
Para concluir, unirme a las palabras del autor, en el sentido de que Internet como red se comporta como un
organismo en constante evolución y lo que en estos momentos recibe adecuadamente el calificativo de
Nueva Generación, no será sino un escalón más en esa dinámica de cambio, en la que el éxito y la
aceptación de los servicios desplegados, así como la seguridad en su uso, serán sin duda, elementos de
referencia para poder explorar su futuro. Enhorabuena a su autor por la obra y sea bienvenida.
Javier Uceda Antolín
Vicerrector de Investigación y Relaciones Institucionales de la UPM
5
7. Hacia una Internet de Nueva Generación
Índice:
1. Introducción.....................................................................................................................................9
2. Las Redes de Comunicación............................................................................................................9
3. Las Redes de Datos........................................................................................................................11
3.1 Conmutación de circuitos y de paquetes .................................................................................12
4. La Primera Internet ........................................................................................................................14
4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP .........15
4.1.1 Creación de aplicaciones en la primera Internet...............................................................16
4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor............................17
4.1.2 La evolución de las tecnologías de red .............................................................................19
4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet ...............................................20
5. Los Noventa: Internet entra en la Encrucijada ..............................................................................22
5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet .......................................23
5.2 La explosión de las aplicaciones..............................................................................................26
5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. ............26
5.2.2 El primer Web: publicación de documentos en la red......................................................28
5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones...............................................29
5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red ..............................31
5.2.5 Voz y Vídeo sobre IP........................................................................................................32
5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red.............................33
5.4 Los modelos de negocio de Internet. .......................................................................................35
6. El nuevo Milenio: Hacia una Internet de Nueva Generación ........................................................36
6.1 Los nuevos terminales y el acceso a Internet...........................................................................38
6.1.1 Banda Ancha.....................................................................................................................39
6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local ............................................40
6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil ..............................................40
6.1.4 El crecimiento de Internet.................................................................................................42
6.2 Aplicaciones y servicios ..........................................................................................................42
6.2.1 La nueva arquitectura del Web .........................................................................................43
6.2.1.1 Web Services y el Web Semántico ............................................................................45
6.2.2 Completando la arquitectura de servicios multimedia: la señalización............................46
6.2.3 Otras aplicaciones.............................................................................................................47
6.3 Un nuevo marco de seguridad .................................................................................................48
6.3.1 La identidad digital ...........................................................................................................49
6.3.2 Los protocolos de seguridad .............................................................................................50
6.4 La evolución de la red y de la arquitectura TCP/IP.................................................................51
6.4.1 La transición de IPv4 a IPv6.............................................................................................52
6.4.2 La calidad del servicio TCP/IP .........................................................................................54
6.4.3 Difusión y comunicación de grupo: multi-envío (multicast)............................................55
7
8. 6.4.4 Redes móviles...................................................................................................................56
6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc.......................................57
6.4.5 Movilidad personal y de terminal .....................................................................................57
6.4.6 La evolución de la conmutación y la transmisión ............................................................59
7. Concluyendo ..................................................................................................................................59
8. Agradecimientos ............................................................................................................................62
9. Bibliografía y Referencias .............................................................................................................62
8
9. 1. Introducción
La información tiene un papel tan esencial en la sociedad actual, que hemos
pasado a denominarla “La Sociedad de la Información”. Todas las áreas
relacionadas con la creación, almacenamiento, control, transporte y difusión de
la información tienen una enorme importancia estratégica y son uno de los
sectores económicos clave en los países más desarrollados.
Un transporte rápido, seguro y fiable de información es vital en una sociedad
basada en la información y por ello durante las últimas décadas ha habido un
intenso proceso de mejora de las redes de telecomunicación, que parece haberse
acelerado últimamente con el desarrollo espectacular de la telefonía móvil y de
Internet.
La evolución de las tecnologías de telecomunicación de las redes de datos y de
Internet en particular, ha seguido unas pautas difícilmente predecibles, que
vamos a tratar de analizar aquí desde diversas perspectivas, que tratan de
abstraer las tendencias, decisiones y hechos más significativos de la historia
de Internet. El libro trata de anticipar a partir de estas pautas cómo será la
evolución de una Internet en los próximos años.
El objetivo de este libro es tratar de ayudar a entender a las personas
interesadas en el fenómeno Internet, los factores técnicos que han marcado su
historia y que pueden condicionar su futuro. Para ello se da una panorámica que
cubre desde los comienzos de la conmutación de paquetes hasta hoy, tratando
siempre de simplificar las descripciones lo suficiente como para hacerlas
comprensibles sin necesidad de conocimientos técnicos especializados.
El primer capítulo sitúa las redes de datos en el contexto del conjunto de redes
de telecomunicación, para entrar en el segundo capítulo en una breve descripción
de las redes de datos y su evolución histórica. El tercer capítulo describe la
primera Internet, su relación con otras propuestas que competían con ella y
trata de identificar los factores que permitieron que Internet desbancara al
resto de las redes de datos existentes en aquel momento. En el capítulo cuarto
se describe la transformación que Internet sufrió durante los años noventa, que
permitió satisfacer la enorme demanda de uso y servicios a que se vio sometida.
El quinto capítulo describe las transformaciones y tendencias que está sufriendo
la Internet actual. Además intenta definir y acotar la Internet de Nueva
Generación que se está gestando en estos momentos. El libro termina con las
conclusiones y los agradecimientos a todos los que han contribuido a su
realización de una u otra forma.
2. Las Redes de Comunicación
Los servicios ofrecidos por las redes actuales son mucho más avanzados que en el
pasado. Además se encuentran en un proceso continuo de innovación. Sin embargo,
actualmente seguimos teniendo los tres tipos de redes troncales en que se ha
basado el transporte de información durante las últimas décadas:
♦ Las redes telefónicas
♦ Las redes de difusión de radio y televisión
♦ Las redes de datos
También existen otras redes más especializadas o de menor tamaño que ocupan
nichos de mercado específicos.
9
10. La red telefónica, especializada en el transporte de voz, ha sido
tradicionalmente una de las redes de mayor peso. Esta red está formada por la
red fija y la red de telefonía móvil, que ha crecido espectacularmente en los
últimos años, debido al avance que supone disponer del servicio telefónico
móvil.
Las redes de difusión de audio o de vídeo, es decir la radio y la televisión,
forman otra de las grandes troncales de comunicación. Estas redes de difusión
utilizan normalmente comunicaciones radio, ya sea a través de antenas terrestres
o satélites. En algunos países un porcentaje alto de la difusión se realiza
también a través de cable.
La tercera troncal son las redes de datos, especializadas en transportar
paquetes de datos entre ordenadores. Las redes de datos han tenido un desarrollo
vertiginoso desde la aparición de Internet [1].
La gran expansión de Internet nunca hubiera sido posible sin la enorme
convulsión tecnológica que supuso el desarrollo de la electrónica de estado
sólido, que a su vez hizo posible el microprocesador y luego el ordenador
personal. Después, la aparición de Internet permitió interconectar los
ordenadores en red, convirtiendo el ordenador personal en un eficaz instrumento
de ocio, de trabajo y de comunicación interpersonal.
Desde hace bastantes años los procesadores permiten digitalizar señales de voz,
vídeo o gráficos a un coste muy bajo. Esto hace tecnológicamente viable la
unificación tanto de la representación de la información, como de las redes que
transportan dicha información. Esta unificación se conoce por el nombre de
multimedia.
La unificación de la representación de la información multimedia en formato
digital ha tenido un fuerte impacto, habiendo provocado la convergencia entre
diversos sectores de la economía tales como el sector de los medios de
comunicación, la industria cinematográfica, el sector de las telecomunicaciones
o el sector informático.
La aparición de la información multimedia también permite la unificación del
transporte de información a través de una Internet de gran capacidad, aunque
este proceso no se ha producido de momento. Es difícil asegurar si en algún
momento llegaremos a tener una gran red unificada o no, pero lo que sí parece
claro es que Internet ofrece cada vez más y mejores servicios multimedia, que el
tráfico de voz y vídeo crece en Internet a medida que pasa el tiempo, y que es
muy probable que este tráfico supere al que se cursa por la red telefónica en un
futuro no muy lejano.
Por otro lado, Internet se basa en un diseño arquitectónico realizado en los
años 70 y posee algunas limitaciones que parece necesario eliminar antes de
poder extraer todo el potencial que posee. La IETF (Internet Engineering Task
Force) [5] y el W3C [12], las organizaciones con mayor influencia en Internet,
así como el mundo investigador están trabajando intensamente en el desarrollo de
una nueva arquitectura para Internet conocida como Internet de Nueva Generación.
Estos desarrollos afectan tanto a la arquitectura de la red, como a las
aplicaciones, y una vez desarrollada es muy probable que permita crear una red
que mejore muy substancialmente tanto la capacidad de transporte de información
de la actual Internet, como los servicios que conocemos. La Internet de Nueva
Generación quizá permita crear también la gran red unificada.
La nueva Internet aparecerá como evolución de la actual, por lo que es difícil
entender el futuro de Internet sin conocer su pasado. Por lo tanto, vamos a
revisar la historia de las redes de datos y de Internet para tratar de
extrapolar a continuación su evolución futura.
10
11. 3. Las Redes de Datos
Las redes de datos pueden considerarse desde el punto de vista técnico como una
evolución de las redes telegráficas. En un primer momento los protocolos
telegráficos se adaptaron para la transmisión de bloques de información digital,
desde los terminales hasta los grandes ordenadores de las primeras generaciones,
para pasar a comunicar posteriormente ordenadores entre sí, tal y como ocurre
actualmente.
En el mundo de las comunicaciones se denomina protocolo al algoritmo que guía y
ordena la comunicación entre dispositivos remotos. El nombre de protocolo se
debe a que poseen una función similar a la de los protocolos sociales, ordenar
las interacciones entre partes. En la sociedad ordenan la interacción entre
personas y en las redes de datos ordenan la interacción entre ordenadores.
Cuando se diseña una red de datos el primer paso consiste en definir los
protocolos que deben seguir los ordenadores para comunicarse entre si,
denominándose arquitectura de la red al conjunto de protocolos que utiliza.
La comunicación de datos utilizaba inicialmente las redes existentes,
fundamentalmente la red telefónica, hasta que durante los sesenta se propone una
nueva técnica, denominada “Conmutación de Paquetes” [6] [10]. La conmutación de
paquetes es significativamente más eficiente que la conmutación de circuitos
para la mayoría de los servicios de telecomunicación actuales, por lo que su
aparición inicia un proceso que ha cambiado profundamente el mundo de las
telecomunicaciones.
A finales de los sesenta y durante los setenta aparecen diferentes propuestas de
arquitecturas de redes basadas en conmutación de paquetes, que aunque se
utilizaban en entornos muy diferentes, también competían entre sí. Por ejemplo:
♦ Aparece ARPANET en 1968, promovida por el Departamento de Defensa de EEUU.
En 1983 ARPANET cambia su arquitectura y se transforma en Internet al
incorporar la arquitectura TCP/IP, empezando la expansión imparable que
todos conocemos.
♦ Los operadores de telecomunicación empiezan a ofrecer servicios de
conmutación de paquetes que venden a las grandes empresas, por ejemplo las
del mundo financiero en España. Telefónica ofrece en 1972 uno de los
primeros servicios de conmutación de paquetes comerciales a nivel mundial,
denominado RSAN, que posteriormente pasó a llamarse IBERPAC al adoptar la
norma X.25.
♦ En 1979 se crea USENET, la red de usuarios del sistema operativo UNIX
basada en el programa UUCP (UNIX to UNIX Copy Program). En el marco de
esta red se desarrollan también ideas y servicios de gran interés, como el
servicio de news. En Europa USENET se denominó EUNET. USENET converge
hacia Internet de forma natural, debido a que compartían muchos objetivos
comunes con el grupo que desarrolló Internet, además de compartir el
sistema operativo UNIX en sus desarrollos.
♦ Las operadoras de telecomunicación, especialmente las europeas, empiezan a
ofrecer servicios de conmutación de paquetes basados en la norma X.25
publicada por el CCITT en 1976. X.25 evoluciona posteriormente hacia SMDS,
FRAME-RELAY, ATM, etc.
♦ Los grandes fabricantes de ordenadores proponen arquitecturas de red que
incluyen servicios de usuarios, tales como IBM (red SNA para aplicaciones
corporativas o red BITNET para el mundo investigador), Digital Equipment
(red DECNET), etc.
♦ El servicio MINITEL que fue enormemente exitoso en Francia.
11
12. Además, hay muchas otras iniciativas que no vamos a comentar aquí.
Durante los 80 y principios de los 90 la industria realiza un enorme esfuerzo
para definir un modelo de referencia que unifique la arquitectura de las redes
de datos. Este modelo es conocido como el modelo OSI (Open Systems
Interconnection) de la Organización ISO (International Organization for
Stardardization). Casi nadie dudaba entonces sobre el éxito de dicha norma, que
de haber triunfado hubiese ocupado el puesto de la Internet actual.
Tanto es así que la mayoría de las organizaciones y empresas, incluido el DOD
que había financiado el desarrollo de Internet, realizaron planes de
implantación del modelo ISO – OSI a finales de la década de los ochenta.
Durante ese periodo, Internet, que ya está operativa, se va introduciendo en el
mundo universitario e investigador. A principios de los noventa la definición
del modelo ISO - OSI está incompleta e Internet en cambio crece
vertiginosamente, por lo que las empresas y organizaciones más innovadoras
empiezan a introducir Internet.
A finales de los años ochenta en algunos países, fundamentalmente europeos,
existen ya servicios comerciales de redes de datos basados en la norma X.25, que
se utilizaban fundamentalmente en el ámbito corporativo y financiero. Pero el
éxito de Internet lleva a la creación de servicios comerciales basados en
TCP/IP, conocidos como ISPs (Internet Service Providers). A partir de entonces
Internet empieza a introducirse a un ritmo imparable tanto en las empresas como
en los hogares. El DOD vuelve a alinear sus redes y desarrollos con Internet a
principios de los 90.
3.1 Conmutación de circuitos y de paquetes
Antes de la conmutación de paquetes, la mayoría de las redes se basaban en la
“Conmutación de Circuitos”. En estas redes el intercambio de información sólo se
puede realizar cuando se ha establecido el circuito. El funcionamiento del
teléfono ilustra muy bien como funciona la conmutación de circuitos. Primero hay
que establecer el circuito con una llamada. Sólo se puede intercambiar
información, es decir hablar con nuestro interlocutor, cuando el circuito está
establecido y nuestro interlocutor está en el otro extremo.
Figura 2.1. Conmutación de Circuitos
En cambio, la conmutación de paquetes funciona de un modo similar al correo
postal. En este tipo de comunicación la información puede enviarse en cualquier
momento sin necesidad de esperar a que el destinatario esté preparado para
recibirla, tal y como se hace con el correo postal. Para enviar un bloque de
información digital simplemente hay que introducirlo en un “Paquete” y enviarlo.
Un “Paquete” es similar a una carta. Lleva una cabecera con información sobre el
destinatario y el remitente. El paquete envuelve y delimita el bloque de
información, como si fuese el sobre en un envío postal. Un paquete se denomina
12
13. también “Datagrama”, probablemente porque sus diseñadores lo consideraron una
variante del telegrama, debido a la velocidad con que se transmiten los paquetes
de datos.
El paquete, la carta electrónica, también hay que enviarlo a una estafeta de
correos digital, que en el caso de Internet es el “Router” o “Encaminador de
Paquetes”. El router tiene como función clasificar los paquetes recibidos y
enviar cada uno a la siguiente estafeta digital del camino hacia su destino,
exactamente igual que en el servicio postal. Por lo tanto para enviar un mensaje
de un ordenador a otro simplemente se empaqueta en uno o varios paquetes, que se
envían al router más próximo para que este lo reenvíe hacia su destino.
Figura 2.2. Conmutación de Paquetes
La función básica de un router es almacenar y reenviar paquetes. Los paquetes
llegan por las conexiones entrantes, para ser almacenados en la lista de espera
de la conexión de salida por la que debe continuar. El paquete continúa cuando
le llega su turno de reenvío, después de que los paquetes anteriores de la lista
de espera hayan sido enviados. Por eso, la “conmutación de paquetes” recibe
también el nombre de “almacenamiento y envío”.
Figura 2.3. Router o Conmutador de Paquetes
La conmutación de paquetes es mucho mas eficiente que la conmutación de
circuitos en el envío de datos esporádicos dispersos en el tiempo, tal y como
requieren la mayoría de los servicios de datos. Permite incluso un
aprovechamiento más eficaz del ancho de banda en comunicaciones de voz
utilizando técnicas de detección de silencios y codificadores de gran
eficiencia.
El modelo de conmutación de paquetes descrito anteriormente es el utilizado por
el protocolo IP de Internet y corresponde a un servicio de conmutación de
paquetes de tipo datagrama (sin conexión). También existe otro servicio de
conmutación de paquetes, denominado orientado a conexión, que permite crear
circuitos virtuales, combinando elementos de la conmutación de circuitos y de
paquetes. El servicio orientado a conexión es más complejo, por lo que no vamos
a describirlo aquí, aunque es utilizado por muchos otros protocolos como por
ejemplo, X.25, FRAME RELAY, ATM, MPLS, en conmutación óptica, TCP, etc.
13
14. 4. La Primera Internet
Internet nace, financiada por DARPA (Defense Advanced Research Project Agency),
durante la guerra fría. DARPA fue creada por el ejército norteamericano en 1957,
a raíz del lanzamiento ruso del Sputnik, para asegurar la supremacía de EEUU en
tecnologías de uso militar. Los gestores de DARPA trataron de involucrar a la
comunidad investigadora de EEUU de forma abierta, en contraposición al
secretismo imperante en la mayoría de los proyectos militares de la Unión
Soviética y lo consiguieron plenamente.
El modelo de gestión de proyectos utilizado por DARPA y por otros programas del
DoD (Department of Defense) de EEUU ha tenido un enorme éxito a largo plazo,
porque no sólo lleva al desarrollo de ARPAnet o de Internet, sino de muchas
otras tecnologías clave para la sociedad de la información, tales como gran
parte de la tecnología electrónica de estado sólido, del sistema operativo BSD
UNIX (que tanta influencia ha ejercido en el mundo de la informática), etc.
Todos estos proyectos han tenido una enorme influencia en el mundo de la
tecnología y es muy probable que sin ellos el panorama actual fuese muy
diferente. Los gestores de los programas y fondos de investigación deberían
estudiar el modelo de financiación y gestión utilizado por DARPA, porque la
eficacia de aquellos proyectos, así como el impacto conseguido, no han sido
igualados por ningún otro programa de desarrollo tecnológico.
El proyecto inicial [6] tuvo como objetivo el desarrollo de una red tolerante a
fallos de sus nodos, que se denominó ARPAnet. Para conseguir este objetivo la
red debía tener un control descentralizado y redundancia en rutas y nodos. En
términos militares la nueva red debía ser capaz de sobrevivir a un ataque
nuclear, un objetivo de capital importancia durante la guerra fría. Es curioso
constatar como un requisito de carácter militar, la tolerancia a fallos en sus
nodos, ha sido probablemente la principal razón de su éxito a largo plazo. Este
requisito llevó a sus diseñadores a desarrollar técnicas de conmutación de
paquetes con encaminamiento adaptativo, de forma que las redes resultantes
fuesen capaces de reconfigurarse si algún nodo dejaba de operar. La arquitectura
resultante, además de ser adaptativa, reduce el coste del transporte de
información porque utiliza los recursos de la red más eficientemente que la
conmutación de circuitos tradicional, especialmente cuando se envían bloques
sueltos de información.
En la década de los 70, estando ARPAnet y otras redes ya en uso, surgió la
necesidad de interconectar las redes existentes entre sí. Es en este momento
cuando comienza el desarrollo, de lo que hoy conocemos como Internet, por un
grupo de investigadores liderados por Vinton Cerf y Robert Kahn [3, 10]. Su
objetivo fue desarrollar una arquitectura y unos protocolos que permitiesen
interconectar varias redes heterogéneas, transformándolas en una única red. Este
proyecto lleva la desarrollo de la arquitectura TCP/IP en la que se basa
Internet.
En la base de esta arquitectura está el protocolo IP, abreviatura de “Internet
Protocol”, que en castellano significa “protocolo entre redes”. La nueva red
pasa a denominarse Internet debido al papel fundamental que este protocolo tiene
en la nueva arquitectura. Los routers son los dispositivos encargados de
encaminar paquetes entre redes y su comportamiento se rige por las reglas que
marca el protocolo IP.
Aunque la gestación de Internet empieza en los setenta, el nacimiento real de
Internet se produce el 1 de Enero de 1983. Ese día muchas de las redes
relacionadas fundamentalmente con ARPANET instalan en sus routers y ordenadores
la arquitectura TCP/IP y “La Red” comienza a funcionar. A partir de entonces,
Internet crece imparablemente.
14
15. Durante una década su crecimiento se centra en el mundo investigador, hasta que
a finales de la década de los 80 Tim Berners-Lee propone un nuevo servicio: “The
World Wide Web” [4]. La facilidad de uso del nuevo servicio dispara la
introducción masiva de Internet en empresas y hogares, desbancando del mercado a
las demás redes.
4.1 La primera arquitectura de Internet: aplicaciones “extremo a
extremo” sobre TCP/IP
La arquitectura IP tiene tres protocolos como componentes fundamentales: IP, TCP
y UDP (figura 3.1). El protocolo IP da un servicio de datagramas y tiene como
función principal encaminar paquetes desde su origen hasta su destino, a través
de todas las redes que componen Internet. Para poder realizar esta función cada
ordenador conectado a la red se identifica por una dirección única en la red,
conocida como dirección IP. La dirección IP del destinatario va en todos los
paquetes y sirve para que los routers puedan encaminar el paquete correctamente
hasta su destino. Todo paquete incluye también la dirección del remitente que es
utilizada para el envío de paquetes de respuesta.
El protocolo IP se diseñó utilizando direcciones de 32 bits, que permiten
identificar hasta unos 4.000.000.000 ordenadores diferentes. En los 70 parecía
imposible que el mundo llegase a tener tal cantidad de ordenadores.
La asignación de direcciones únicas es una tarea administrativa de vital
importancia para el funcionamiento de Internet. Esta tarea fue realizada en un
principio por ICCB (Internet Configuration Control Board), creada en 1979. A
medida que crecía su importancia se fueron creando estructuras más
representativas para su administración como IANA (Internet Assignment Number
Authority) y finalmente ICANN (Internet Corporation for Assigned Names and
Numbers)[18] que delega la asignación de direcciones IP en organizaciones de
tipo regional y local.
Las organizaciones que solicitaban direcciones recibían bloques de direcciones
IP. Se asignaban 3 tipos de bloques de direcciones dependiendo del tamaño de la
organización solicitante:
1. Asignación de Clase A: Bloque de unas 16.000.000 direcciones para grandes
organizaciones.
2. Asignación de Clase B: Bloque de unas 65.000 direcciones para
organizaciones medianas.
3. Asignación de Clase C: Bloque de 256 direcciones para organizaciones
pequeñas.
Los usuarios que recibían un bloque de direcciones se comprometían a seguir unas
normas de buen comportamiento en el uso de Internet, denominadas “Internet Code
of Conduct” [30]. En caso de no seguir dichas normas, la asignación de
direcciones podía ser retirada por el organismo administrador.
Muchos de los males de la Internet actual se deben a la forma en que se
asignaron las primeras direcciones. No se utilizó un plan jerárquico y además
las asignaciones fueron muy generosas hasta principios de los noventa. Una gran
cantidad de direcciones asignadas entonces nunca se han utilizado. En este
momento se ha asignado aproximadamente la mitad del espacio de direcciones de IP
y se están utilizando menos del 10% de las direcciones asignadas.
Los diseñadores de Internet añadieron sobre el protocolo IP, el protocolo TCP
(Transmission Control Protocol) encargado de garantizar la entrega íntegra de
los mensajes en su destino. Además de TCP, también se añadió el protocolo UDP
(User Datagram Protocol) para comunicaciones no fiables. Sobre estos dos
protocolos se instalan las aplicaciones.
15
16. Internet necesita para su funcionamiento y gestión otros protocolos tales como
ICMP (Internet Control Message Protocol), ARP (Address Resolution Protocol),
etc. Pero son TCP e IP los que realmente la caracterizan, por lo que la
arquitectura de Internet se conoce también como arquitectura TCP/IP [2].
Los protocolos TCP, UDP e IP forman la capa intermedia de la red tal y como se
muestra en la Figura 3.1. Estos protocolos fueron diseñados para poder conectar,
tanto con una gran variedad de tecnologías de red, como con una gran variedad de
aplicaciones. Es decir, normalizan sólo lo estrictamente necesario para
desacoplar las tecnologías de red, de las aplicaciones. IP hace de interfaz con
las redes que se interconectan a Internet y se especializa en encaminar paquetes
entre redes. TCP y UDP hacen de interfaz con las aplicaciones dando un interfaz
de acceso normalizado.
Figura 3.1. Arquitectura “extremo a extremo” de las aplicaciones sobre TCP/IP
Las claves del éxito de Internet parecen ser tres:
♦ La facilidad de diseño y programación de nuevas aplicaciones que utilizan
los protocolos TCP y UDP a través del interfaz de “socket”.
♦ La enorme capacidad de los órganos de gestión de Internet para innovar,
adaptarse a situaciones cambiantes o de reaccionar frente a problemas.
♦ La capacidad de IP para incorporar nuevas tecnologías de red de forma
incremental, sin afectar el funcionamiento de sus aplicaciones.
Pasemos a analizar los factores que han dado a Internet su gran capacidad para
incorporar nuevas tecnologías de red, para soportar eficazmente el diseño de
aplicaciones, así como para innovar y adaptarse a nuevas situaciones.
4.1.1 Creación de aplicaciones en la primera Internet
Una de las razones principales del éxito de Internet fue su capacidad para
soportar eficazmente el diseño de aplicaciones. La existencia del interfaz de
“socket”, que permite programar aplicaciones con gran facilidad, es uno de los
factores que facilitó el desarrollo de nuevas aplicaciones. El interfaz de
“socket” TCP es muy similar al interfaz de comunicación entre procesos de UNIX
basado en tuberías (pipes en inglés), por lo que el porte o la adaptación de
aplicaciones UNIX a Internet fue bastante sencilla, al estar la mayoría de los
programas en código abierto. Esto permitió que Internet dispusiese de
aplicaciones operativas casi desde el primer momento, dándole una ventaja muy
significativa sobre otras redes que tardaron mucho más en disponer de
aplicaciones.
16
17. Otro factor factor importante fue la decisión de diseñar IP para ofrecer un
servicio de datagrama y de añadir un nivel de transporte que ofrece a las
aplicaciones tanto un servicio de datagramas, como un servicio orientado a
conexión:
♦ El protocolo TCP ofrece un servicio orientado a conexión
♦ El protocolo UDP ofrece un servicio de datagramas
La utilización de un protocolo de red orientado a conexión, tal y como proponía
X.25, no hubiese permitido ofrecer un servicio de datagramas eficaz a nivel de
transporte. Su implementación hubiese sido muy ineficaz, porque obliga a
establecer un circuito por cada datagrama a enviar.
También contribuyó al éxito de Internet la naturaleza extremo a extremo de las
aplicaciones de Internet, que residen solamente en los ordenadores de los
extremos. Esto facilita y abarata el desarrollo y la puesta a punto de nuevas
aplicaciones. La mayoría de las aplicaciones se pudieron desarrollar y probar
con uno o dos ordenadores conectados a la red.
Internet difiere radicalmente de la red telefónica en lo que a despliegue de
nuevas aplicaciones se refiere. Las aplicaciones de la red telefónica se
instalan normalmente dentro de la red, necesitando un costoso proceso de puesta
a punto e instalación que involucra fundamentalmente a los operadores de la red.
Esto facilita el despliegue de nuevos servicios y aplicaciones, porque evita que
los usuarios deban realizar las instalaciones, ahorrándoles una gran cantidad de
trabajo.
Los primeros usuarios de Internet eran en su mayoría expertos informáticos que
instalaban las nuevas aplicaciones y servicios sin problemas porque era parte de
su actividad investigadora. El crecimiento de Internet ha incorporado una
mayoría de usuarios que no tienen conocimientos informáticos, por lo que la
facilidad de instalación de una aplicación ha pasado a ser hoy un factor
crítico, habiendo aparecido el concepto de “conectar y usar” (Plug & Play en
ingles).
Todos estos factores convirtieron a Internet en un entorno excelente para
experimentar con nuevas aplicaciones y servicios desde el primer momento. Cuando
alguna aplicación se hacía popular, se desplegaba rápidamente a toda la red,
debido a la facilidad con que los usuarios podían instalarlas.
4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor
Las aplicaciones de Internet utilizan los protocolos TCP, UDP e IP a través de
un interfaz de programación de aplicaciones que recibe el nombre de interfaz de
“socket”. “Socket” significa enchufe en inglés y probablemente fue escogido por
la similitud con la función que tiene un enchufe para la conexión de aparatos
eléctricos a la red. El “socket” normaliza el acceso de las aplicaciones a la
red, simplificando enormemente la realización de aplicaciones. TCP y UDP
proporcionan servicios de transporte de datos radicalmente diferentes, teniendo
cada uno su interfaz de “socket” propio.
El protocolo TCP proporciona a la aplicación un servicio de transporte de datos
orientado a conexión y fiable. Es un servicio que permite crear circuitos
virtuales a través de los cuales dos aplicaciones en dos ordenadores diferentes
pueden intercambiar datos entre sí. Los sockets TCP son el mecanismo de
comunicación básico del modelo cliente-servidor, utilizado en la mayoría de las
aplicaciones de Internet:
1. El cliente permite al usuario acceder a servicios de Internet. Los
clientes acceden a los servicios estableciendo un circuito virtual con el
17
18. servidor que provee dicho servicio. A través de dicha conexión solicitan
páginas Web, ficheros, ejecución de aplicaciones en otras maquinas, envío
de mensajes, etc.
2. El servidor suministra el servicio a los clientes. Los servidores de
aplicaciones poseen una dirección IP y un puerto conocidos a través de
los cuales pueden dar servicio a muchos clientes simultáneamente.
Un último factor a resaltar de TCP, es su diseño como un protocolo capaz de
adaptarse a situaciones de congestión de forma que tratase de evitar el colapso
de la red. TCP introduce algoritmos de colaboración grupal, de forma que cuando
detecta situaciones de congestión reduce progresivamente su cadencia de
transferencia para ayudar a descongestionar la situación. Este algoritmo
consigue que las aplicaciones basadas en TCP sigan funcionando en situaciones de
congestión, aunque su tiempo de respuesta se ralentice. Esta característica ha
permitido que Internet pudiese dar un servicio lento pero aceptable durante los
primeros años en que la red estuvo muy congestionada.
El protocolo UDP proporciona a una aplicación un servicio no fiable de envío de
datagramas o bloques de datos. Es un servicio que inicialmente se utilizó menos
en las aplicaciones debido a que no garantiza la entrega de los datos enviados.
Su uso está aumentando actualmente, porque es más adecuado para el envío de
señales de audio y vídeo.
Como ya hemos comentado, las primeras aplicaciones fueron en muchos casos
versiones adaptadas de aplicaciones o servicios que ya existían en los sistemas
operativos UNIX, tales como, enviar correos electrónicos de un usuario a otro,
copiar ficheros de un directorio a otro, acceso remoto desde terminales, etc.
También se desarrollaron algunas aplicaciones que utilizaban las nuevas
posibilidades que permitía la red. Así aparecieron servicios tales como:
♦ El servicio DNS (Domain Name System), que permite asignar nombres
simbólicos a los ordenadores conectados a Internet y crear los
identificadores/localizadores uniformes de servicios o URI/URL (Uniform
Resource Identifiers/Locators).
♦ El correo electrónico, conocido como e-mail, soportado por múltiples
protocolos tales como, SMTP, POP, IMAP, etc.
♦ La transferencia remota de ficheros, conocida por el nombre del protocolo
(FTP - File Transfer Protocol), que se normalizó a tal efecto.
♦ El acceso remoto a un ordenador, que permitía trabajar como un usuario
local desde otro ordenador situado en cualquier parte del mundo, conocido
también por el nombre del protocolo (TELNET).
♦ El servicio de News que soportaba foros y grupos de discusión abiertos a
todas las personas conectadas a la red.
El motor de la expansión de la primera Internet fue fundamentalmente el correo
electrónico y también en menor grado la transferencia de ficheros. El correo
electrónico facilitó enormemente la comunicación y la colaboración entre
personas conectadas a la red. Aunque los primeros correos electrónicos sólo
permitían enviar mensajes de texto, pronto se generalizaron para poder adjuntar
ficheros, con lo que su utilidad aumentó muy significativamente.
El desarrollo de nuevos servicios fue una prioridad desde el primer momento en
Internet. La arquitectura extremo a extremo posibilitó la experimentación con
nuevas ideas y servicios que maduraron en la década de los noventa. Los nuevos
servicios abordaban temas tales como:
♦ Publicación electrónica de información en la red.
♦ Creación de comunidades y grupos de interés en la red.
♦ Automatización de procesos y flujos de trabajo.
♦ Realización de transacciones comerciales a través de la red.
18
19. ♦ Búsqueda y localización de información en la red.
♦ Comunicación síncrona, tal como Chats, IRCs o voz y vídeo sobre IP.
♦ ...
4.1.2 La evolución de las tecnologías de red
Otra clave del éxito de Internet parece estar en la capacidad de IP para
incorporar nuevas tecnologías de red de forma incremental, permitiendo al mismo
tiempo que las aplicaciones existentes sigan funcionando. Esta capacidad de
evolución incremental ha permitido la convivencia en un único marco operativo de
todo tipo de tecnologías de red. Así Internet empezó utilizando modems punto a
punto de entre 1200 b/s y 19200 b/s. Luego incorporó modems más rápidos,
diversas redes locales (Ethernet, token bus, Fast Ethernet, Gigabit Ethernet,
etc.), enlaces SDH, redes ATM, acceso ADSL o xDSL, etc. IP permite ir añadiendo
todas estas nuevas tecnologías de red.
Los diseñadores de la arquitectura TCP-UDP/IP tomaron la decisión de diseñar IP
para un servicio de datagramas con la misión exclusiva de encaminar paquetes
entre los extremos, dejando el control de la comunicación extremo a extremo a
los protocolos TCP y UDP. Esta decisión de diseño libera al router de tener que
controlar elementos de las aplicaciones. El router sólo debe conmutar paquetes
en función de sus tablas de direccionamiento, cuyo tamaño no depende de las
aplicaciones de usuario, sino de parámetros dependientes de la topología de la
red y de la asignación de direcciones realizada. Las conexiones de usuario se
controlan sólo en los extremos, liberando a la red de esta función. Por lo tanto
la capacidad de conmutación de un router no depende del número de aplicaciones o
comunicaciones de usuario que soporta, sino de su capacidad genérica de
conmutación de paquetes.
Otras redes, tales como la red telefónica o la red X.25, están o estaban basadas
en protocolos orientados a conexión y necesitan controlar el estado de cada
conexión en cada uno de los nodos por donde pasa la conexión. Un servicio
orientado a conexión necesita establecer la conexión antes de intercambiar
datos, pudiendo realizar una reserva previa de recursos que permite una gestión
más eficaz, pero que consume recursos en los nodos o conmutadores, haciéndolos
más complejos y costosos. Por ejemplo, la central telefónica necesita controlar
individualmente el estado de cada una de las conexiones de voz establecidas,
además de controlar la conmutación de la voz.
Muchas tecnologías de red usadas actualmente en Internet son orientadas a
conexión y no de tipo datagrama. Por ejemplo, la conmutación óptica se hace con
técnicas de conmutación de circuitos, asimismo ATM (Asynchronous Transfer Mode)
o MPLS (Multi Protocol Label Switching), utilizan protocolos orientados a
conexión. La reserva de recursos realizada permite optimizar algunas funciones
de los protocolos en un entorno donde no existen los problemas de escalabilidad
que aparecen en el nivel de red IP.
Durante mucho tiempo los expertos estuvieron fuertemente divididos sobre la
conveniencia de utilizar servicios de datagrama (sin conexión) o servicios
orientados a conexión. La evolución tecnológica parece haber dado la razón a
ambos, habiendo seleccionado en cada parte de la red el protocolo que mejor se
adapta a las condiciones específicas de cada función.
Un protocolo orientado a conexión parece más eficaz para grandes capacidades de
conmutación entre grupos de usuarios de tamaño limitado, donde los circuitos
virtuales quedan establecidos durante largos periodos de tiempo. En cambio, un
protocolo de datagramas parece escalar mejor a grandes poblaciones de usuarios y
aplicaciones, debido a que los nodos (routers) no deben controlar el estado de
cada una de las conexiones establecidas, siendo su única función enrutar la
información de acuerdo a la tabla de encaminamiento.
19
20. El protocolo IP y la arquitectura de Internet también fueron capaces de crear
una estructura jerárquica cuando la red creció y hubo que dar cabida a todas las
subredes que iban apareciendo. La nueva estructura jerárquica se basa en la
partición de Internet en Sistemas Autónomos (AS – Autonomous Systems) a los que
se asigna una nueva dirección de AS. El encaminamiento de paquetes entre
sistemas autónomos se realiza con un protocolo de encaminamiento, BGP (Border
Gateway Protocol), diferente del utilizado para encaminar paquetes dentro de un
sistema autónomo.
La Figura 3.2 describe la arquitectura actual de Internet compuesta por sistemas
autónomos (AS) y puntos neutros (NAP – Network Access Point). En el primer nivel
(Tier 1) están los proveedores de larga distancia, en el segundo nivel (Tier 2)
los proveedores nacionales, etc. La asignación de direcciones inicial no tuvo en
cuenta esta jerarquía porque todavía no existía. Los routers del núcleo de la
red necesitan unas tablas de direccionamiento de gran tamaño para encaminar
paquetes IP, debido a que las tablas deben contener todos los rangos de
direcciones IP existentes dentro de cada sistema autónomo, que suelen ser muchos
y estar dispersos. Si hubiese existido una asignación jerárquica, cada sistema
autónomo tendría asignado un único prefijo y el tamaño de las tablas de
encaminamiento se reduciría muy significativamente.
Figura 3.2. Jerarquía de Sistemas Autónomos
4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet
El desarrollo de Internet nos permite obtener enseñanzas de gran interés sobre
la forma en que se desarrollan actualmente las tecnologías de la información y
de las comunicaciones. Probablemente su éxito se deba en gran medida a los
métodos de trabajo utilizados por sus desarrolladores, que difieren muy
significativamente de los métodos utilizados por los organismos de normalización
tradicionales, como por ejemplo, ISO (International Standards Organisation), ITU
(Internacional Telecomunication Union), IEEE, etc.
El desarrollo de Internet siguió desde sus comienzos unos métodos de trabajo muy
participativos, que se recogen en las reglas de funcionamiento de ISOC (Internet
Society) [18] cuando se crea en 1986 para coordinar el desarrollo de Internet.
20
21. ISOC se gobierna por dos comités, IAB e IESG, cuyos miembros son elegidos por
las personas afiliadas a ISOC. La asignación de direcciones IP adquiere una
importancia muy grande y se delega en otras organizaciones, como ya hemos
comentado anteriormente.
El trabajo técnico lo realiza la IETF (Internet Engineering Task Force) [5] bajo
la supervisión de IAB y IESG. IETF se estructura en grupos de trabajo (WGs), que
se rigen por las siguientes normas de funcionamiento:
♦ Libertad de proponer soluciones: los grupos (WGs) se pueden proponer
libremente por cualquier miembro. El trabajo de un WG debe abordar
problemas técnicos pendientes de solución. La creación de nuevos grupos
necesita el visto bueno del IESG.
♦ Funcionamiento abierto y democrático: cualquiera puede participar en los
WGs y toda la información manejada por un WG es pública. Los miembros de
la todos los comités, IAB, IESG, …, son elegidos por los miembros de ISOC.
♦ Soluciones consensuadas y validadas: las propuestas consensuadas por un WG
se publican en RFCs (Requests for Comments). Un RFC debe ser validado en
implementaciones reales antes de progresar como norma. Sólo se puede hacer
una propuesta de norma (DS – Draft Standard) con un mínimo de dos
implementaciones de referencia, realizadas por grupos diferentes y que
interoperen.
♦ Competencia y necesidad: las RFCs pueden competir entre sí, dejando a los
usuarios la labor de decidir entre propuestas competitivas.
♦ Uso de la red: aunque los grupos de trabajo se reúnen varias veces al año,
utilizan la red como herramienta de comunicación permanente. Cada grupo
tiene al menos una lista de distribución por donde deben circulan todos
los mensajes relacionados con el trabajo del grupo y un repositorio de
ficheros donde deben estar todos los documentos que maneja el grupo de
trabajo.
Los desarrolladores de Internet también utilizaron algunas prácticas menos
explícitas, pero que también contribuyeron significativamente a su éxito:
♦ Software libre: El uso de “software libre”, que aunque no fue un
requisito, fue muy utilizado en los desarrollos de software relacionados
con Internet. El uso de software libre permitió aglutinar rápidamente
grandes grupos de usuarios que realizaban pruebas exhaustivas y proponían
mejoras, acelerando los desarrollos.
♦ Uso del formato ASCII: El uso intensivo de texto ASCII, tanto en RFCs,
como en las cabeceras y mensajes de la mayoría de los protocolos. Esto
facilitaba la portabilidad entre máquinas, así como la depuración y el
análisis de protocolos y aplicaciones, evitando costosos equipos de
prueba.
♦ Uso del TELNET: El uso de texto ASCII en la mayoría de los formatos de
mensaje de los protocolos de Internet permite probar y analizar estos
protocolos y aplicaciones utilizando TELNET, el protocolo de emulación de
terminal remoto. Los costosos analizadores y emuladores de protocolos que
utilizan otras redes no fueron necesarios, abaratándose el desarrollo de
nuevos servicios y aplicaciones.
♦ Conectividad extremo a extremo: La naturaleza “extremo a extremo” de las
aplicaciones también es otro factor que contribuyó a abaratar el
desarrollo y la puesta a punto de aplicaciones, sobre todo desde la
aparición del PC. Uno o dos PCs conectados a Internet son suficientes para
desarrollar y probar la mayoría de las aplicaciones.
Estas normas de funcionamiento hacen de Internet un sistema en evolución cuyas
reglas crearon desde el principio una gran comunidad de usuarios que no sólo se
benefició del uso de la red, sino que participó en la selección y prueba de los
mejores protocolos y aplicaciones. Esta capacidad de evolución, adaptación e
21
22. innovación ha sido probablemente decisiva en el éxito de Internet frente a otras
propuestas de redes de datos.
Hoy en día los intereses comerciales ejercen una enorme presión sobre Internet y
han transformado muy significativamente el espíritu inicial. Pero Internet es
todavía uno de los entornos más abiertos, manteniendo una enorme vitalidad y
capacidad de innovación. IETF sigue siendo un foro abierto donde cualquier
investigador puede acudir, aunque le sea difícil competir con los enormes
recursos que las grandes empresas de Internet dedican a IETF, mientras que el
resto de organizaciones de normalización siguen restringiendo el acceso a
representantes de países o empresas que deben desembolsar grandes cantidades de
dinero para poder participar.
No parece previsible que las reglas que han permitido evolucionar a Internet de
una forma tan exitosa vayan a cambiar significativamente en un futuro próximo,
por lo que es muy probable que la gran comunidad de empresas, usuarios e
investigadores que han creado Internet siga haciendo evolucionar la red en los
años futuros y desarrolle el potencial que todavía queda por desarrollar.
Estas reglas de funcionamiento también se han utilizado en otros desarrollos de
software libre, como por ejemplo en el sistema operativo Linux, que también ha
entrado últimamente en una fase similar a Internet debido al interés que ha
despertado en los últimos años como alternativa a Windows.
5. Los Noventa: Internet entra en la Encrucijada
La década de los noventa se caracteriza por la enorme demanda de conexión de
nuevos sistemas, que obligan a Internet a crecer muy por encima del tamaño para
el que la red había sido diseñada. Durante esta década Internet deja de ser un
servicio para el mundo investigador, transformándose en un servicio comercial
para el que tampoco había sido diseñada. Los usuarios de Internet no solo crecen
en número, sino también en diversidad, conectándose muchos usuarios sin
conocimientos informáticos que demandan una instalación y un uso más sencillo de
los nuevos servicios y aplicaciones.
Internet se gestó en los años 70 cuando sólo existían ordenadores grandes
(Mainframes) y medianos (Minis). Nadie pudo imaginar entonces, la enorme
proliferación de ordenadores que iba a provocar la aparición del ordenador
personal. Internet pudo crecer por encima de los límites para los que había sido
diseñada y salir de esta encrucijada, pero a costa de romper uno de sus
principios básicos, la arquitectura extremo a extremo de las aplicaciones.
A principios de los noventa se empieza a detectar el agotamiento de las clases A
y B, llevando a IANA a introducir un nuevo procedimiento de asignación de
direcciones jerárquico y mucho más restrictivo. IETF trabaja en paralelo en la
búsqueda de soluciones. La propuesta que realmente ahorra direcciones IP y se
impone mayoritariamente, está basada en un nuevo tipo de dispositivo, denominado
NAT (Network Address Translators). NAT permite conectar redes enteras a Internet
a través de una única dirección IP, utilizando direcciones privadas en el
interior. Esta solución permite satisfacer la enorme demanda de conectividad,
pero rompe la conectividad extremo a extremo de las aplicaciones.
La gran contribución de esta década son las múltiples aplicaciones que aparecen,
que no solo crean nuevos servicios, sino que simplifican enormemente el uso de
la red. Las nuevas aplicaciones dan un enorme valor añadido y son el auténtico
motor del crecimiento. La estrella indiscutible es “The World Wide Web” [4]
(abreviadamente Web o WWW), propuesto en 1989 por el investigador británico Tim
Berners Lee y considerado el motor principal de la expansión de Internet en los
22
23. 90. De hecho, los tres elementos que componen el Web, URLs, el protocolo HTTP y
el lenguaje HTML, se consideran parte integrante de la arquitectura de Internet.
Durante este periodo aparecen también otras aplicaciones muy significativas como
las aplicaciones multimedia que permiten enviar voz y vídeo sobre IP,
aplicaciones de mensajería instantánea, los buscadores de información o incluso
aplicaciones que se basan en nuevos paradigmas como el paradigma de comunicación
“igual a igual” (P2P - Peer to Peer) o la computación en malla (GRID computing).
Son todas estas aplicaciones las que dan a la red su enorme potencial y
atractivo.
El fuerte crecimiento de Internet, así como la demanda de nuevos servicios y
aplicaciones también ha creado nuevos retos y tensiones, por ejemplo:
♦ El control de la seguridad en la arquitectura TCP/IP con conectividad
extremo a extremo entre todos los ordenadores de la red, donde cada
usuario debe gestionar su propia seguridad.
♦ La dificultad en el cobro del acceso a Internet y sus contenidos por parte
de los proveedores de acceso a la red.
♦ La dificultad de conseguir un acceso eficaz al enorme repositorio de
información distribuida que empieza a estar accesible en la red, cuya
catalogación es imposible por métodos tradicionales.
♦ La escasez de ancho de banda y el control de la congestión que no permiten
un acceso ágil a Internet debido a la congestión que produce el enorme
crecimiento de la demanda de transferencia de información. La naturaleza
del protocolo IP (best-effort) no permite al usuario el control de la
calidad del servicio, limitando las prestaciones de ciertas aplicaciones
de tiempo real.
Pasemos a analizar todos estos factores, así como su impacto en la evolución de
Internet.
5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet
El protocolo IP se diseñó imponiendo un límite, que entonces parecía
inalcanzable, de aproximadamente 4000 millones de ordenadores en la red. A
finales de los ochenta se dispararon las alarmas, porque el tamaño de la red se
duplicaba cada año. Las direcciones IP se hubiesen agotado antes de acabar la
década si no se hubiesen tomado medidas.
La perspectiva de una escasez de direcciones IP que colapsase Internet, creó una
gran preocupación y provocó la modificación de los procedimientos de asignación
de direcciones, basada hasta entonces en la asignación de bloques de clase A, B
y C. La asignación de bloques A, B o C era muy ineficaz. En los comienzos de
Internet muchas organizaciones recibieron bloques de clase A o B, que han tenido
una utilización real muy baja, en algunos casos menor del 1%.
A partir de entonces se introduce CIDR (Classless Inter Domain Routing), también
conocido como supernetting. En CIDR se puede asignar un bloque de cualquier
tamaño. La asignación de direcciones empieza a realizarse de forma jerárquica,
asignándose direcciones solamente a los proveedores de servicios Internet
(ISPs), que a su vez deben reasignarlas a los niveles inferiores. La creciente
escasez de direcciones provoca fuertes restricciones en las asignaciones de los
usuarios finales que no pueden disponer de direcciones IP. También se controla
el uso real de las direcciones asignadas, retirando la asignación en caso de no
ser usadas en un plazo de tiempo razonable.
Además aparecen nuevas técnicas de asignación de direcciones que se extienden
rápidamente y que han distorsionado muy significativamente la arquitectura de
Internet.
23
24. La primera técnica es el ya mencionado NAT (Network Address Translator). NAT
sólo utiliza una dirección pública IP para conectar una red que puede tener
miles de ordenadores y por eso consigue un enorme ahorro de direcciones IP. Un
dispositivo NAT recibe las conexiones TCP o los paquetes IP que vienen de la red
privada y los reencamina hacia la Internet pública como si fuesen suyos. Los
paquetes de respuesta los recibe el dispositivo NAT, que los reencamina hacia el
otro extremo de la comunicación dentro la red privada utilizando una tabla de
encaminamiento donde figuran todas las comunicaciones en curso.
La introducción de NAT obliga a renunciar al paradigma extremo a extremo de las
aplicaciones de Internet, que pasan a tener un dispositivo intermediador entre
los extremos. Desde dentro de una red privada, es decir desde detrás de un NAT,
sólo se puede acceder como cliente a algunos servicios de la Internet pública,
como Web o correo electrónico. Los servidores dan servicio a través de una
dirección IP y de un puerto, que deben ser públicos. La instalación de
servidores detrás de un NAT no es posible, salvo que el dispositivo NAT permita
hacer traducciones permanentes de direcciones y puertos públicos a las que
realmente posee el servidor en el dominio privado. Muchas de las aplicaciones
que se desarrollan durante esta década no pueden desplegarse de forma
generalizada debido a las dificultades que crean los dispositivos NAT.
Figura 4.1. Dispositivos NAT crean dominios de direccionamiento privado
Además de NAT, aparecen protocolos de asignación dinámica de direcciones, que
aunque en menor medida que NAT, también han permitido ahorrar direcciones. Los
dos protocolos de asignación dinámica de direcciones más utilizados son: el
protocolo DHCP (Dynamic Host Configuration Protocol) que asigna direcciones
temporales a un ordenador en entornos de red de área local y el protocolo PPP
(Point to Point Protocol) muy utilizado en el acceso a Internet a través de
MODEM telefónico que también realiza asignación dinámica de direcciones.
En paralelo con la introducción de las soluciones anteriores, que sólo paliaban
el problema, se formaron grupos de trabajo en la IETF con el objetivo de buscar
soluciones más duraderas, basadas en buscar alternativas al protocolo IP. Estos
grupos convergieron en una única propuesta publicada en 1998, que se conoce como
IPv6 (IP versión 6) [14], para diferenciarla de la versión de IP actual,
conocida como IPv4 (IP versión 4).
La aplicación de todas estas técnicas, especialmente de CIDR y de NAT, ha
reducido muy significativamente las necesidades de direcciones IP. El coste
24
25. pagado ha sido la introducción masiva de dispositivos NAT en Internet, tal y
como se muestra en la Figura 4.2. La Internet actual se compone de muchas redes
con direcciones privadas, desde donde es posible acceder a los servicios
internos de la red privada y a los servidores de la Internet pública. Los
dispositivos NAT realizan una función de intermediación que rompe el principio
“extremo a extremo” (Figura 4.2) con el que surgió Internet, por lo que los
ordenadores que están dentro de la una red privada no son accesibles desde el
exterior. Esta rotura del principio “extremo a extremo” está dificultando el
despliegue de nuevas aplicaciones y servicios, tales como IPsec, Voz sobre IP,
P2P o GRID que no pueden operar a través de NAT o necesitan una mayor
complejidad arquitectónica para poder hacerlo.
Figura 4.2. Impacto de un dispositivo NAT en la conectividad “extremo a extremo”
Solo las organizaciones que recibieron asignaciones antes de la introducción de
CIDR tienen direcciones públicas en abundancia y las utilizan profusamente. Las
demás organizaciones tienen escasez de direcciones públicas y suelen utilizar
direcciones privadas a través de dispositivos NAT.
Un problema significativo de la Internet actual es la enorme dispersión del
espacio de direcciones que provoca un crecimiento constante del tamaño de las
tablas de encaminamiento de los routers troncales de Internet. En el año 2000
estos routers necesitaron aumentar su capacidad de proceso en más de un 50%.
Los nuevos servicios también pueden ser un motor importante para el despliegue
de IPv6. Por ejemplo, los servicios multimedia en UMTS que deben usar IPv6 de
acuerdo a las actuales recomendaciones.
Por último, debemos resaltar que las reglas de asignación actuales imposibilitan
el despliegue de Internet en el tercer mundo. Actualmente hay muchos países que
tienen muy pocas direcciones públicas asignadas y nunca van a conseguir las
suficientes. Países como China o la India tienen menos direcciones asignadas que
algunas universidades norteamericanas.
Un caso muy ilustrativo de la situación actual es la iniciativa de la
Universidad de Stanford [25] en California para liberar las direcciones no
utilizadas. Stanford decidió devolver su bloque de direcciones “Clase A” hacia
finales de los noventa para ayudar a solucionar el problema de la escasez de
direcciones. Un bloque “Clase A” tiene 16 millones de direcciones, de las cuales
la universidad sólo utilizaba unas 56000, es decir, el 0,4% de las direcciones
asignadas. La universidad tardó 2 años de trabajo intensivo en reconfigurar toda
su red. Otras universidades norteamericanas también poseen asignaciones de
“Clase A”, pero después de ver el enorme esfuerzo que supuso la reconfiguración
en Stanford decidieron esperar a que se realice la transición a IPv6 para
reorganizar sus direcciones.
25
26. Los datos facilitados por Brian Carpenter, presidente de IAB (Internet
Architectural Board de ISOC) y responsable del programa de IBM sobre normas y
tecnología de red, también son muy ilustrativos. Según sus palabras [25]
actualmente hay 2000 millones de direcciones asignadas (la mitad del espacio
disponible), pero sólo se están utilizando realmente unos 69 millones. Carpenter
estima que IPv4 sólo permitirá llegar a un máximo de unos 160 millones de
interfaces IP realmente conectados a Internet. Racionalizar el uso del espacio
de direcciones es muy costoso y cada vez más organizaciones están analizando las
implicaciones de migrar a IPv6.
IPv6 está considerado actualmente de forma prácticamente unánime como la única
forma de solucionar los problemas de crecimiento a largo plazo de Internet y la
discusión se centra actualmente en cuándo se debe hacer la transición. Desde el
punto de vista de productos, IPv6 es ya una realidad comercial. Prácticamente
todos los fabricantes de routers, así como los de sistemas operativos, soportan
IPv6. Incluso los proveedores de Internet (ISPs), que han sido los más
reticentes, están empezando a dar servicios precomerciales.
5.2 La explosión de las aplicaciones
Las aplicaciones son las grandes protagonistas de la década de los noventa. Las
nuevas aplicaciones simplifican enormemente el uso de los servicios y facilitan
el acceso a Internet de usuarios sin conocimientos informáticos. La gran
estrella de las aplicaciones debido a su simplicidad de uso es el Web. Pero
existen muchas otras que no alcanzan el mismo impacto, pero que también juegan
un papel importante.
Tratar de catalogar todas las aplicaciones existentes es prácticamente
imposible, por lo que se ha optado por incluir sólo las aplicaciones o grupos de
aplicaciones más representativas. Por ejemplo, no se han incluido las
aplicaciones de uso restringido en entornos corporativos o privados.
En primer lugar se han incluido las aplicaciones de soporte a la colaboración,
grupos y comunidades porque fueron las primeras que aparecieron y soportan uno
de los objetivos fundamentales de Internet: facilitar la colaboración de grupos
dispersos geográficamente. Después se analiza el Web, diferenciándose el primer
Web que permite publicar información en la red, del Web interactivo que permite
acceso remoto a aplicaciones y bases de datos. También se analiza el problema
que plantea la gestión de toda la información y el conocimiento que se está
acumulando en la red. Por último se incluye la arquitectura de servicios
multimedia de Internet, diseñada para soportar una nueva generación de servicios
de audio y video.
5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P,
GRID, etc.
Internet es una herramienta de comunicación muy eficaz, que se utilizó desde el
primer momento para soportar la comunicación en grupos de personas dispersas
geográficamente. La primera Internet fue ya una formidable herramienta de
colaboración que aceleró muy notablemente el trabajo en equipo.
El desarrollo de los protocolos de Internet a través de los grupos de trabajo de
IETF es uno de los mejores ejemplos de colaboración a través de la red. La
coordinación de los comités y de los grupos de trabajo se ha soportado desde los
primeros momentos con dos herramientas de gran eficacia, que todavía se utilizan
hoy profusamente:
• La lista de distribución de correo electrónico de un grupo, que permite
distribuir correos electrónicos a todos los miembros del grupo.
26
27. • El repositorio de documentos del grupo, donde se almacenan todos los
documentos de trabajo. Este repositorio ha sido tradicionalmente un
servidor FTP donde los miembros pueden cargar y descargar documentos
electrónicos a través de la red. Hoy en día los servidores FTP tienden a
ser sustituidos por aplicaciones interactivas Web que dan soporte
integrado a las necesidades de colaboración y comunicación.
Otro servicio que tuvo un enorme auge en los primeros años de Internet fue un
servicio de foros y grupos de discusión denominado News. Las News eran un
servicio global donde cualquiera podía participar, que funcionó muy bien
mientras los grupos de usuarios eran pequeños y homogéneos. Cuando Internet
creció el servicio se hizo inmanejable y cayó en desuso. En su lugar aparecieron
servicios de creación de comunidades más cerrados que permiten comunicarse a
grupos de personas con un interés común. Hoy en día se han incluido funciones
similares en muchos portales de Internet, pero donde los gestores de los grupos
pueden decidir quién puede acceder y quién no. Por ejemplo, está el servicio de
grupos de YAHOO o los servicios que ofrece el Messenger de Microsoft asociados a
MSN.
El trabajo y la colaboración a través de la red ha creado un nuevo tipo de
tecnologías destinadas a soportar la colaboración que reciben el nombre de
“groupware”. Estas tecnologías automatizan de forma eficaz actividades tales
como: uso de repositorios de documentos compartidos, gestión de flujos de
trabajo e información, notificaciones al grupo, foros de discusión diferidos e
interactivos, votaciones electrónicas, reuniones a través de la red con
videoconferencia, gestión de agendas compartidas, etc. Hoy en día la mayoría de
los portales, tanto corporativos como públicos, soportan la creación de
servicios para grupos y comunidades.
También debemos mencionar los servicios interactivos o síncronos, que permiten
colaborar a un grupo de personas en tiempo real a través de la red. El servicio
más antiguo de este tipo es el chat, que permite intercambiar mensajes de texto
de forma interactiva a un grupo de personas. Una variante más actual es la
mensajería instantánea, que enriquece el chat con detección de presencia que
indica cuando un usuario está accesible en la red. La mensajería instantánea
ofrece habitualmente la posibilidad de intercambio de gráficos y ficheros en
tiempo real. También podemos incluir dentro de este apartado las aplicaciones de
colaboración multipunto, que como la aplicación Isabel [37], permiten que los
usuarios conectados interaccionen como si estuviesen reunidos, pudiendo hablar
entre sí, verse, además de compartir aplicaciones, presentaciones u otras
informaciones. La transmisión de audio y vídeo utiliza la arquitectura de
servicios multimedia de Internet que veremos más adelante [23].
Últimamente han surgido dos modelos de aplicación alternativos a la estructura
cliente-servidor tradicional, que despiertan un gran interés. Son el modelo de
“igual a igual” (P2P - Peer to Peer) y la computación en red, también conocida
como GRID. Ambos modelos son de reciente aparición y tienen gran parte de su
potencial por desarrollar. Se han incluido en este apartado por su enorme
capacidad para crear grupos y comunidades.
Las aplicaciones P2P han surgido para dar soporte a comunidades de usuarios que
comparten ficheros a través de la red. El primero fue NAPSTER [29]. NAPSTER
mostró el potencial del modelo P2P, aglutinando rápidamente una gran comunidad
de usuarios que intercambiaban libremente música y canciones en formato MP3. La
dudosa legalidad de los intercambios ha llevado a NAPSTER a juicio con las casas
discográficas. Su éxito ha llevado al desarrollo de nuevos servicios y
aplicaciones [28] tales como Freenet, Gnutella, Kazaa, Groove, eDonkey, etc.
P2P explota las ventajas económicas del almacenamiento distribuido. Hoy en día
los discos duros de los PCs son muy baratos y tienen una gran capacidad de
almacenamiento. Crear un gran repositorio distribuido utilizando P2P es mucho
27
28. más barato y fácil de gestionar, que centralizar todo el almacenamiento en un
gran servidor.
En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”.
Los “iguales” (peers) pueden actuar como clientes o como servidores, según
requiera la aplicación. Los servicios P2P existentes suelen incluir algún tipo
de servidor central, que actúa como punto de acceso al servicio y pone en
contacto entre sí a los “iguales”, debido a la falta de conectividad “extremo a
extremo”.
“GRID computing” [35], que podríamos traducir como computación en malla, es
también otro paradigma grupal. Las aplicaciones GRID utilizan la red como el bus
de un gran multi-computador de ámbito planetario donde ordenadores conectados a
través de Internet se distribuyan tareas de gran complejidad de cálculo. GRID ha
explotado hasta ahora las ventajas económicas del cálculo distribuido. Un gran
supercomputador es mucho más caro que un grupo de PCs de potencia equivalente.
Hoy en día los microprocesadores son muy baratos y tienen una enorme potencia,
además están la mayor parte de su tiempo en estado de espera. GRID utiliza la
potencia de cálculo no aprovechada de los PCs existentes para resolver problemas
de gran complejidad.
SETI@home [26] es quizá el ejemplo más exitoso y conocido, habiendo conseguido
unir 3,3 millones de PCs, con una capacidad de cálculo equivalente a 31
Teraflops/s, que tratan de descifrar señales extraterrestres. La computación
GRID está considerada como uno de los grandes retos para el futuro de la red y
la comunidad investigadora se ha integrado actualmente en torno al Global GRID
Forum [27].
Estos son ejemplos de algunos de los servicios de comunidades y grupos que se
han desarrollado en Internet durante los últimos años. Este tipo de aplicaciones
tienen un enorme potencial y su desarrollo parece que no ha hecho más que
comenzar.
5.2.2 El primer Web: publicación de documentos en la red
La propuesta en 1989 del Web [4] por el investigador británico Tim Berners-Lee
tiene un enorme impacto en la evolución de Internet. Tim Berners-Lee propone el
Web durante su estancia en el CERN, el gran laboratorio europeo de física de
altas energías, para coordinar experimentos científicos en el mundo de la física
de altas energías, aunque su autor era consciente del potencial de su propuesta
en muchos otros ámbitos de Internet.
Tim Berners-Lee concibió el Web como un vehículo de comunicación universal a
través de Internet. La propuesta inicial de Web define un interfaz abierto muy
eficaz para la publicación de documentos en la red, de forma que estén
accesibles instantáneamente para cualquier otro usuario. Cada documento puede
además enlazar otros documentos en la red utilizando hiperenlaces. El Web es el
mejor ejemplo del enorme potencial de los interfaces abiertos, porque las ideas
en que se basa ya se habían desarrollado en entornos cerrados o propietarios,
pero es sólo cuando estos servicios se trasladan a un entorno abierto cuando se
despliegan de forma masiva.
Su creador, Tim Berners-Lee define el Web como un universo de mundos de
información interconectados, donde cada página Web es el centro de uno de esos
mundos. El autor de una página es el dueño y gestor del mundo que describe,
decidiendo qué información quiere compartir con el resto de la red y con qué
páginas quiere enlazar. El Web permite crear a cada usuario de la red el mismo
modelo de relaciones que existe en la vida real, donde existe información
privada, información compartida sólo con ciertos grupos e información pública, y
donde los hiperenlaces definen las relaciones de cada uno de estos ámbitos de
información con el resto del mundo. Web significa en inglés telaraña,
28
29. probablemente porque fue el mejor símil que Tim Berners-Lee encontró para
representar esta enorme malla de enlaces entre páginas de información.
Las características a las que el Web debe probablemente su éxito son:
1. Es un interfaz abierto que permite interconectar a todos los usuarios de
la red.
2. La simplicidad de uso que permite navegar por toda la red haciendo uso
sólo del ratón y ocasionalmente de un teclado.
3. La facilidad de instalación de servidores Web que pueden ser gestionados
incluso por personas sin grandes conocimientos técnicos.
4. La naturaleza descentralizada, donde el autor de cada página decide qué
información publicar y con quién enlazarla.
Desde el punto de vista técnico, el servicio Web tiene la estructura cliente-
servidor típica de los servicios de Internet. El cliente que permite a un
usuario solicitar un documento Web se denomina visor o navegador Web (“browser”
en inglés) y envía peticiones de documentos Web al servidor con el protocolo
HTTP. El servidor contesta enviando el documento Web solicitado en formato HTML,
que el visor presenta al usuario correctamente formateado. La arquitectura de
una aplicación Web se basa en estos tres elementos:
♦ El protocolo HTTP (Hyper Text Transfer Protocol) para transferir
documentos Web del servidor al cliente.
♦ El lenguaje HTML (Hyper Text Mark-up Language) de representación de
documentos Web, que incluye además del texto las reglas de formato y
presentación visual.
♦ El URL (Uniform, Resource Locator) para referenciar unívocamente
documentos Web en la red.
El elemento de mayor complejidad del servicio Web es el cliente, que debe
interpretar y presentar al usuario de forma legible la información que recibe de
los servidores. Pero como el cliente es el mismo para todos los usuarios, el
diseño de un nuevo servicio sólo necesita crear nuevos servidores. Esto
convierte el visor Web en el elemento de mayor importancia estratégica para
controlar el acceso de los usuarios a Internet. Los servidores Web son de mayor
simplicidad que los clientes ya que su función consiste en devolver páginas Web
(ficheros) a los clientes que las solicitan.
El gran interés despertado por el Web en el mundo empresarial y la rápida
popularidad alcanzada, llevó en octubre de 1994 a la creación del WWW Consortium
[12], conocido abreviadamente como W3C. Su objetivo fue, y sigue siendo,
garantizar el desarrollo del Web como un vehículo de comunicación universal.
Tanto Tim Berners-Lee, como una gran comunidad de miembros, velan por el
mantenimiento del W3C como una organización neutra e independiente de los
fabricantes, que trata de producir las normas que rigen el Web al ritmo que
demanda la evolución de la tecnología actual. La estructura y forma de
funcionamiento es diferente de ISOC, porque sólo pueden acceder organizaciones
que deben afiliarse y pagar una cuota, pero su funcionamiento es muy abierto y
ágil. El enorme impacto del Web ha hecho del W3C un foro de gran importancia,
siendo junto con IETF, las asociaciones que mayor influencia ejercen en la
evolución de Internet.
5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones
El servicio Web ha evolucionado desde sus comienzos, habiéndose transformado en
un servicio de acceso remoto a aplicaciones que se ejecutan en servidores
accesibles a través de Internet. Esta forma de acceso se popularizó muy
rápidamente, porque permitió dar acceso a través de una Intranet corporativa o a
29
30. través de la Internet pública a las aplicaciones corporativas propietarias que
existían antes de la popularización de Internet.
El acceso a documentos Web es sólo uno de los usos posibles del Web actual. Los
nuevos servicios Web se denominan interactivos y permiten crear tiendas
electrónicas, servicios de acceso a bases de datos y repositorios de
información, buscadores de información, de soporte a la educación, de
administración electrónica, etc.
La simplicidad de uso del Web unido a su capacidad de interacción con
aplicaciones remotas ha llevado a utilizarlo para unificar el acceso a muchos
otros servicios, utilizando pasarelas de Web a correo electrónico, a grupos de
discusión y de noticias, a soporte a flujos de trabajo, transferencia de
ficheros, etc. Hoy en día el acceso Web se ha convertido en parte de la
arquitectura de Internet, debido a que es utilizado por la mayoría de las
aplicaciones, aunque sólo sea como interfaz de acceso.
Gran parte de los desarrollos de nuevos lenguajes de programación o de nuevos
entornos de desarrollo de aplicaciones aparecidos durante los noventa han tenido
como objetivo facilitar la programación de servicios Web interactivos, por
ejemplo Java, Javascript, PHP, Perl, Pyton, Exchange, .COM, .NET, C#, etc.
Como el navegador es el punto de acceso a la mayoría de los servicios de
Internet, su control se convirtió desde el principio en uno de los objetivos más
codiciados por las empresas de Internet. La primera gran batalla por el control
del acceso a Internet se centró en el control del navegador de acceso a Web.
Netscape fue la primera empresa que vislumbró la importancia del Web y
desarrolló a principios de los noventa el primer visor de calidad, a partir del
navegador "Mosaic", que fue el primero en incorporar gráficos. El nuevo
navegador pasó a denominarse Netscape Navigator, luego Netscape Communicator,
diseminándose masivamente entre los usuarios de Internet. Alcanzó cifras de
penetración del 80 y 90 por ciento. El control del visor aseguraba a Netscape el
control del acceso a Internet, convirtiéndose en una de las empresas que mayor
interés despertó a mediados de los noventa.
Durante algunos años se pensó que nadie sería capaz de desplazar a Netscape de
su posición de dominio. Microsoft tardó bastante en descubrir la importancia que
Internet, y especialmente el Web, iban a tener en el mundo de las aplicaciones.
Pero cuando comprendió la importancia estratégica que suponía controlar el
acceso a Web, concentró grandes recursos en el desarrollo de su navegador
"Explorer", entablándose una fortísima batalla entre ambas empresas [11].
Finalmente Microsoft consiguió imponer "Explorer" a la mayoría de los usuarios
de Internet hacia finales de los noventa, gracias a su distribución gratuita
junto con el sistema operativo Windows.
En este momento, el Web se halla en proceso de redefinición dentro del W3C. HTML
es un lenguaje que ha cumplido muy bien su función como lenguaje de publicación
de documentos en la red, pero no sirve como formato unificado de representación
de datos en Internet, ni soporta adecuadamente la creación de los nuevos
servicios que la red esta demandando. El proceso de redefinición empezó a
finales de los noventa y se va realizando de forma incremental en el marco del
W3C. La nueva arquitectura Web se construye sobre XML (eXtensible Markup
Language) [12], que gracias a su extensibilidad permite ir creando paso a paso
todos los componentes de la nueva arquitectura. El objetivo perseguido por el
nuevo Web es seguir soportando la publicación de documentos y aplicaciones, pero
permitiendo también la cooperación entre aplicaciones a través de Internet, que
ahora no es posible. Además deberá incorporar capacidades multimedia y calidad
tipográfica en la información publicada, junto con meta-datos semánticos que
permitan buscar y clasificar la información en la red de una forma mucho más
efectiva, tal y como se describe en el próximo capitulo.
30
31. 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red
La sencillez de instalación de los servidores Web, así como la naturaleza
descentralizada del servicio, produjo desde el primer momento un crecimiento
enorme de la información disponible en la red, cuya catalogación es imposible
siguiendo métodos tradicionales. La búsqueda de información y datos, o incluso
el aprovechamiento de todo el conocimiento que existe en la red se ha convertido
en uno de los objetivos principales de los desarrolladores de nuevas
aplicaciones, que tratan de adaptar a Internet técnicas de minería de datos,
búsqueda de información o gestión del conocimiento.
El máximo avance en este área se ha dado con los robots buscadores de
información encargados de catalogar toda la información disponible en la red.
Los buscadores recorren continuamente la red catalogando en una base de datos
todas las páginas encontradas. La base de datos puede ser consultada por
cualquier usuario, permitiéndole encontrar en pocos segundos informaciones
imposibles de encontrar por otros procedimientos. Yahoo [19] fue el primer
buscador. Rápidamente fue seguido por otros tales como, Altavista, Lycos,
Excite, etc. Pero ha sido “Google” [13], el último en aparecer, el que ha
revolucionado la búsqueda de información en Internet debido a su extraordinaria
eficacia. Google ha desplazado a los demás buscadores y se ha convertido en el
buscador preferido de los usuarios.
La eficacia de Google es tal que está creando una auténtica revolución en la
gestión y almacenamiento de la información. Hay expertos que empiezan a
considerar que la información sólo hay que producirla y ponerla disponible
públicamente en el Web o en alguna red privada. Un buscador de la eficacia de
Google localizará casi de forma instantánea cualquier información que
necesitemos. Las enciclopedias tradicionales no pueden competir con la
información en la red debido a la lentitud que su actualización conlleva. La
búsqueda y producción de información y conocimiento es una tarea de capital
importancia en la sociedad de la información, por lo que la publicación en la
red y la búsqueda automatizada sustituyen cada vez más a los métodos
tradicionales.
El éxito de Google se debe en gran medida a su política de centrarse en la
eficacia del proceso de búsqueda sin ningún tipo de condicionamiento basado en
acuerdos económicos con los potenciales beneficiarios. Pero, este éxito ha
situado a Google en una situación enormemente delicada porque sus algoritmos de
búsqueda deciden el éxito o el fracaso de muchas empresas, que dependen de la
forma en que Google ordene las informaciones que presenta a los usuarios.
La mayor parte de la información que existe en la red sólo está accesible en
formato HTML, siendo su análisis y catalogación muy difícil. Google sólo permite
encontrar la información, pero el análisis o la integración automática de la
información HTML encontrada no es posible. El uso eficiente de toda la
información y el conocimiento que existe en la red, probablemente no sea posible
hasta que el Web semántico se desarrolle y sea posible procesar la información
existente en la red utilizando algoritmos que puedan analizar la información
encontrada.
También empieza a despuntar otra tendencia, denominada “open content” (contenido
libre o abierto), que pretende dar una alternativa a la producción de contenidos
tradicional basada en los derechos de autor. La producción de información,
contenidos y conocimientos podría acelerarse mucho si se hiciese de forma libre
y en colaboración a través de la red. El proceso sería muy similar al ocurrido
en el mundo del software, donde la producción basada en derechos de propiedad
con licencias de uso no ha podido competir en muchos casos con desarrollos
basados en grupos de desarrolladores que colaboran a través de Internet en un
proyecto de producción de software libre.
31
32. 5.2.5 Voz y Vídeo sobre IP.
Durante la década de los noventa maduran también las tecnologías de codificación
digital. Primero la codificación de audio y hacia el final de la década la
codificación de vídeo, integrándose los codificadores digitales de audio y video
como periféricos habituales, incluso en PCs de bajo coste. En paralelo IETF
desarrolla la arquitectura de servicios multimedia de Internet, que utiliza los
protocolos RTP/RTCP [2] para enviar flujos de audio y de vídeo a través de
Internet utilizando el protocolo de transporte UDP.
Esto lleva al desarrollo de aplicaciones de telefonía y de videoconferencia IP
que permiten realizar llamadas a un coste inferior al de la red telefónica,
aunque con una calidad que depende del estado de congestión de la red. Por
ejemplo aplicaciones como NetMeeting de Microsoft u otros videotelefónos
permiten realizar llamadas de larga distancia, que tienen una calidad excelente
cuando la red no está congestionada.
Aunque la tecnología básica para envío de voz y vídeo en formato digital a
través de Internet ha alcanzado una madurez notable, a finales de los noventa
todavía hay carencias y factores que frenan el uso de Internet para la
transmisión de voz y vídeo. Los mas importantes son:
♦ La incapacidad de garantizar una calidad de servicio en la transmisión, de
forma que la voz y el vídeo lleguen sin cortes ni interrupciones en
condiciones de congestión de la red.
♦ La dificultad de aplicar los modelos de negocio de telefonía de voz, al no
ser fácil diferenciar las llamadas locales de las interurbanas o de larga
distancia.
♦ La falta de mecanismos de señalización que permitan reproducir en Internet
los servicios actuales de la red telefónica, tales como: red inteligente,
Centrex, PABX, etc.
♦ La falta de conectividad extremo a extremo debida a la falta de
direcciones IP.
♦ El mayor coste de los terminales telefónicos con conexión directa a
Internet.
♦ La incapacidad de realizar una difusión eficaz de señales de audio y video
a grandes audiencias, debido a la falta de protocolos de multicast en las
redes comerciales.
La desviación del tráfico de voz de la red telefónica actual hacia Internet
reduciría la facturación de los operadores de telefonía muy significativamente,
desincentivando el desarrollo de servicios de voz a través de Internet en dichas
operadoras. Por ejemplo un acceso ADSL o cable con tarifa plana permitiría hacer
llamadas de duración ilimitada a cualquier parte del mundo, sin coste adicional
para el usuario.
Hoy en día sólo se han desarrollado de forma significativa, aunque no masiva,
los servicios de “streaming” (flujos), que permiten difundir audio y vídeo a
través de Internet. La radio por Internet es hoy una realidad existiendo
bastantes emisoras que realizan emisiones de radio a través de la red. También
se realizan de forma más esporádica emisiones de vídeo, aunque necesitan un
mayor ancho de banda, especialmente para vídeos de buena calidad. También han
aparecido servidores de video “streaming” que permiten servir a múltiples
usuarios video bajo demanda. Las técnicas de “streaming” sirven para la difusión
de señales porque los protocolos utilizados para garantizar calidad de audio y
vídeo recibido introducen retardos muy altos. Los fuertes retardos introducidos
no permiten conversaciones telefónicas o videoconferencias interactivas.
32