SlideShare une entreprise Scribd logo
1  sur  64
Télécharger pour lire hors ligne
Cátedra Telefónica en la UPM
       Internet de Nueva Generación




Hacia una Internet de Nueva
        Generación
                      (Versión 6, 2 de Enero de 2004)




                            Juan Quemada
               Catedrático de la ETSI Telecomunicación - UPM y
Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación




                                     1
2
PRESENTACION
                  INTERNET DE NUEVA GENERACION, UNA CÁTEDRA PIONERA

Este libro ve la luz en un momento crucial para el desarrollo de la Sociedad de la Información en España. Si
en años anteriores la crisis con la que comenzó el siglo XXI amenazaba el crecimiento de las Tecnologías de
la Información y las Telecomunicaciones (TIC), en este momento los indicadores de referencia dejan ver la
luz al final del túnel. El número de internautas, lejos de estancarse, sorprende con un fuerte tirón al alza
gracias a la irrupción de la banda ancha, lo que convierte a España en uno de los países punteros de Europa
en penetración de ADSL. La conjunción de la tecnología de Internet y la de las comunicaciones móviles
augura un cambio trascendental tanto en los medios de producción como en los de ocio en cualquier entorno,
sentando las bases de una nueva revolución tecnológica que cambia nuestra forma de relacionarnos, de
trabajar, adquirir conocimientos y tratar con las Administraciones Públicas.

De igual forma que el desarrollo del ferrocarril o el automóvil han supuesto hitos mesurables en la evolución
de las naciones en el pasado siglo, así la inversión en TIC supone una vía segura y eficiente para aumentar el
potencial de crecimiento de la economía. El ejemplo más cercano lo tenemos en EE.UU. en donde la apuesta
por las TIC guarda un inseparable efecto multiplicador sobre el crecimiento de su economía y el bienestar de
sus ciudadanos.

En el hogar, la empresa o los centros educativos los usuarios pueden acceder al potencial de información que
ponen a su disposición las nuevas tecnologías de la comunicación. La banda ancha no sólo permite navegar
por Internet en un ejercicio que era hasta ahora casi privativo del ámbito científico o del mero
entretenimiento. La irrupción de la oferta de servicios como la teleasistencia, domótica, educación virtual,
vídeo bajo demanda, teleseguridad, telemedicina, etc., señalan ya el futuro del hogar, la escuela o el hospital
digital. En un ámbito universitario como en el que nace este libro huelga comentar las ventajas que ofrece
Internet para docentes y estudiantes, desde el acceso prácticamente universal a las fuentes del conocimiento
a la revolución en los métodos de estudio tanto presenciales como on-line, cambiando el concepto de aulas
de informática por el de informática en todas las aulas.

Sin embargo, a pesar de que Internet ha irrumpido en las vidas cotidianas de cientos de millones de usuarios,
es todavía un arcano para muchos, y lo es aún más la Internet del futuro, la Internet de Nueva Generación.
En este libro, el profesor Juan Quemada contribuye a despejar este misterio que rodea a Internet con rigor
técnico y claridad expositiva. Se trata de una obra muy útil tanto para el profano que tenga interés por
conocer mejor el origen y el funcionamiento de Internet como para los ingenieros y científicos, presentes y
futuros, que necesiten un libro de referencia sobre las últimas novedades en IPv6.

A través del programa de Cátedras Telefónica del que es pionera la Cátedra de Estudios de Internet de
Nueva Generación de la Universidad Politécnica de Madrid, bajo la dirección del profesor Juan Quemada,
se fomenta el efecto palanca de la innovación tecnológica apoyando la generación y difusión del
conocimiento mediante cursos de postgrado, convocatoria de becas y premios, participación en foros,
edición de publicaciones, etc., potenciando en definitiva las relaciones entre la Universidad y la Empresa. La
génesis de este libro en el ámbito del programa de Cátedras Telefónica refuerza el compromiso del líder
español en telecomunicaciones apoyando la difusión del conocimiento, incentivando la investigación, el
desarrollo y la innovación (I+D+I). En el marco de este esfuerzo, este año Telefónica ha favorecido la
concesión de mil cien becas, al tiempo que incrementó su actividad como vehículo catalizador del
conocimiento en el ámbito universitario a través del portal de la Fundación Telefónica CampusRed.net con
más de un millón de visitas y doce millones de páginas vistas.

José Maria Sanz-Magallón
Subdirector General Relaciones Institucionales y Gestión de Conocimiento de Telefónica S.A.




                                                      3
4
PRÓLOGO
Con gusto escribo unas líneas para prologar este libro, que bajo el título de Hacia una Internet de Nueva
Generación recoge los antecedentes históricos de la creación de la red de redes, su evolución y las
tendencias futuras. Aunque en la segunda mitad del siglo XX, se han producido numerosas innovaciones
científicas y tecnológicas que han transformado nuestra sociedad, incidiendo directamente en la vida de las
personas, entre ellas el desarrollo y despliegue de Internet, la multiplicación de sus aplicaciones, la
generalización de su uso, al menos en los países del primer mundo, es, sin duda alguna, causa de una de las
transformaciones mas importantes que ha permitido el desarrollo de la denominada Sociedad de la
Información.

Se ha escrito mucho sobre este fenómeno, sobre sus bases tecnológicas, sobre los servicios construidos sobre
la red, sobre el ascenso y caída de las .com y el periodo de recuperación, que estamos viviendo en estos
momentos, de algunas de las empresas supervivientes de la crisis de finales del siglo pasado. Sin embargo,
nos encontramos con una tecnología y unos modelos de negocio en su explotación que están cambiando
continuamente, en una fase en que no resulta fácil anticipar el futuro, ni si quiera a corto plazo.

Por todas las razones apuntadas, este libro es oportuno y contribuye a clarificar la situación actual y algunas
de las previsibles tendencias de futuro. El libro aborda los problemas y soluciones técnicas pasadas,
presentes y futuras, y combina de forma equilibrada una visión profesional profunda y detallada con un
lenguaje sencillo que permite su lectura a los no especialistas. Esta acertada orientación, unida al hecho de
estar escrito en castellano hace de él una referencia obligada.

Por otra parte, debo resaltar que el libro es el resultado del trabajo desarrollado por el Prof. Juan Quemada
en el marco de la Cátedra Telefónica en la Universidad Politécnica de Madrid sobre Internet de Nueva
Generación que tiene la vocación y así viene desarrollándose desde su creación, de convertirse en un foro
donde se contribuya con diferentes iniciativas a la discusión promoción y desarrollo de la tecnología y
aplicaciones de las versiones más avanzadas de Internet. Desde la universidad estamos muy satisfechos de
esta fórmula de colaboración con la empresa en general y, de forma muy especial, con Telefónica.

Para concluir, unirme a las palabras del autor, en el sentido de que Internet como red se comporta como un
organismo en constante evolución y lo que en estos momentos recibe adecuadamente el calificativo de
Nueva Generación, no será sino un escalón más en esa dinámica de cambio, en la que el éxito y la
aceptación de los servicios desplegados, así como la seguridad en su uso, serán sin duda, elementos de
referencia para poder explorar su futuro. Enhorabuena a su autor por la obra y sea bienvenida.



Javier Uceda Antolín
Vicerrector de Investigación y Relaciones Institucionales de la UPM




                                                      5
6
Hacia una Internet de Nueva Generación


                                                                  Índice:
1. Introducción.....................................................................................................................................9
2. Las Redes de Comunicación............................................................................................................9
3. Las Redes de Datos........................................................................................................................11
   3.1 Conmutación de circuitos y de paquetes .................................................................................12
4. La Primera Internet ........................................................................................................................14
   4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP .........15
      4.1.1 Creación de aplicaciones en la primera Internet...............................................................16
        4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor............................17
      4.1.2 La evolución de las tecnologías de red .............................................................................19
      4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet ...............................................20
5. Los Noventa: Internet entra en la Encrucijada ..............................................................................22
   5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet .......................................23
   5.2 La explosión de las aplicaciones..............................................................................................26
      5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. ............26
      5.2.2 El primer Web: publicación de documentos en la red......................................................28
      5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones...............................................29
      5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red ..............................31
      5.2.5 Voz y Vídeo sobre IP........................................................................................................32
   5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red.............................33
   5.4 Los modelos de negocio de Internet. .......................................................................................35
6. El nuevo Milenio: Hacia una Internet de Nueva Generación ........................................................36
   6.1 Los nuevos terminales y el acceso a Internet...........................................................................38
      6.1.1 Banda Ancha.....................................................................................................................39
      6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local ............................................40
      6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil ..............................................40
      6.1.4 El crecimiento de Internet.................................................................................................42
   6.2 Aplicaciones y servicios ..........................................................................................................42
      6.2.1 La nueva arquitectura del Web .........................................................................................43
        6.2.1.1 Web Services y el Web Semántico ............................................................................45
      6.2.2 Completando la arquitectura de servicios multimedia: la señalización............................46
      6.2.3 Otras aplicaciones.............................................................................................................47
   6.3 Un nuevo marco de seguridad .................................................................................................48
      6.3.1 La identidad digital ...........................................................................................................49
      6.3.2 Los protocolos de seguridad .............................................................................................50
   6.4 La evolución de la red y de la arquitectura TCP/IP.................................................................51
      6.4.1 La transición de IPv4 a IPv6.............................................................................................52
      6.4.2 La calidad del servicio TCP/IP .........................................................................................54
      6.4.3 Difusión y comunicación de grupo: multi-envío (multicast)............................................55


                                                                         7
6.4.4 Redes móviles...................................................................................................................56
        6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc.......................................57
     6.4.5 Movilidad personal y de terminal .....................................................................................57
     6.4.6 La evolución de la conmutación y la transmisión ............................................................59
7. Concluyendo ..................................................................................................................................59
8. Agradecimientos ............................................................................................................................62
9. Bibliografía y Referencias .............................................................................................................62




                                                                        8
1. Introducción
La información tiene un papel tan esencial en la sociedad actual, que hemos
pasado a denominarla “La Sociedad de la Información”. Todas las áreas
relacionadas con la creación, almacenamiento, control, transporte y difusión de
la información tienen una enorme importancia estratégica y son uno de los
sectores económicos clave en los países más desarrollados.

Un transporte rápido, seguro y fiable de información es vital en una sociedad
basada en la información y por ello durante las últimas décadas ha habido un
intenso proceso de mejora de las redes de telecomunicación, que parece haberse
acelerado últimamente con el desarrollo espectacular de la telefonía móvil y de
Internet.

La evolución de las tecnologías de telecomunicación de las redes de datos y de
Internet en particular, ha seguido unas pautas difícilmente predecibles, que
vamos a tratar de analizar aquí desde diversas perspectivas, que tratan de
abstraer las tendencias, decisiones y hechos más significativos de la historia
de Internet. El libro trata de anticipar a partir de estas pautas cómo será la
evolución de una Internet en los próximos años.

El objetivo de este libro es tratar de ayudar a entender a las personas
interesadas en el fenómeno Internet, los factores técnicos que han marcado su
historia y que pueden condicionar su futuro. Para ello se da una panorámica que
cubre desde los comienzos de la conmutación de paquetes hasta hoy, tratando
siempre de simplificar las descripciones lo suficiente como para hacerlas
comprensibles sin necesidad de conocimientos técnicos especializados.

El primer capítulo sitúa las redes de datos en el contexto del conjunto de redes
de telecomunicación, para entrar en el segundo capítulo en una breve descripción
de las redes de datos y su evolución histórica. El tercer capítulo describe la
primera Internet, su relación con otras propuestas que competían con ella y
trata de identificar los factores que permitieron que Internet desbancara al
resto de las redes de datos existentes en aquel momento. En el capítulo cuarto
se describe la transformación que Internet sufrió durante los años noventa, que
permitió satisfacer la enorme demanda de uso y servicios a que se vio sometida.
El quinto capítulo describe las transformaciones y tendencias que está sufriendo
la Internet actual. Además intenta definir y acotar la Internet de Nueva
Generación que se está gestando en estos momentos. El libro termina con las
conclusiones y los agradecimientos a todos los que han contribuido a su
realización de una u otra forma.




2. Las Redes de Comunicación
Los servicios ofrecidos por las redes actuales son mucho más avanzados que en el
pasado. Además se encuentran en un proceso continuo de innovación. Sin embargo,
actualmente seguimos teniendo los tres tipos de redes troncales en que se ha
basado el transporte de información durante las últimas décadas:

  ♦   Las redes telefónicas
  ♦   Las redes de difusión de radio y televisión
  ♦   Las redes de datos

También existen otras redes más especializadas o de menor tamaño que ocupan
nichos de mercado específicos.



                                       9
La red telefónica, especializada en el transporte de voz, ha sido
tradicionalmente una de las redes de mayor peso. Esta red está formada por la
red fija y la red de telefonía móvil, que ha crecido espectacularmente en los
últimos años, debido al avance que supone disponer del servicio telefónico
móvil.

Las redes de difusión de audio o de vídeo, es decir la radio y la televisión,
forman otra de las grandes troncales de comunicación. Estas redes de difusión
utilizan normalmente comunicaciones radio, ya sea a través de antenas terrestres
o satélites. En algunos países un porcentaje alto de la difusión se realiza
también a través de cable.

La tercera troncal son las redes de datos, especializadas en transportar
paquetes de datos entre ordenadores. Las redes de datos han tenido un desarrollo
vertiginoso desde la aparición de Internet [1].

La gran expansión de Internet nunca hubiera sido posible sin la enorme
convulsión tecnológica que supuso el desarrollo de la electrónica de estado
sólido, que a su vez hizo posible el      microprocesador y luego el ordenador
personal. Después, la aparición de Internet permitió interconectar los
ordenadores en red, convirtiendo el ordenador personal en un eficaz instrumento
de ocio, de trabajo y de comunicación interpersonal.

Desde hace bastantes años los procesadores permiten digitalizar señales de voz,
vídeo o gráficos a un coste muy bajo. Esto hace tecnológicamente viable la
unificación tanto de la representación de la información, como de las redes que
transportan dicha información. Esta unificación se conoce por el nombre de
multimedia.

La unificación de la representación de la información multimedia en formato
digital ha tenido un fuerte impacto, habiendo provocado la convergencia entre
diversos sectores de la economía tales como el sector de los medios de
comunicación, la industria cinematográfica, el sector de las telecomunicaciones
o el sector informático.

La aparición de la información multimedia también permite la unificación del
transporte de información a través de una Internet de gran capacidad, aunque
este proceso no se ha producido de momento. Es difícil asegurar si en algún
momento llegaremos a tener una gran red unificada o no, pero lo que sí parece
claro es que Internet ofrece cada vez más y mejores servicios multimedia, que el
tráfico de voz y vídeo crece en Internet a medida que pasa el tiempo, y que es
muy probable que este tráfico supere al que se cursa por la red telefónica en un
futuro no muy lejano.

Por otro lado, Internet se basa en un diseño arquitectónico realizado en los
años 70 y posee algunas limitaciones que parece necesario eliminar antes de
poder extraer todo el potencial que posee. La IETF (Internet Engineering Task
Force) [5] y el W3C [12], las organizaciones con mayor influencia en Internet,
así como el mundo investigador están trabajando intensamente en el desarrollo de
una nueva arquitectura para Internet conocida como Internet de Nueva Generación.
Estos desarrollos afectan tanto a la arquitectura de la red, como a las
aplicaciones, y una vez desarrollada es muy probable que permita crear una red
que mejore muy substancialmente tanto la capacidad de transporte de información
de la actual Internet, como los servicios que conocemos. La Internet de Nueva
Generación quizá permita crear también la gran red unificada.

La nueva Internet aparecerá como evolución de la actual, por lo que es difícil
entender el futuro de Internet sin conocer su pasado. Por lo tanto, vamos a
revisar la historia de las redes de datos y de Internet para tratar de
extrapolar a continuación su evolución futura.



                                       10
3. Las Redes de Datos
Las redes de datos pueden considerarse desde el punto de vista técnico como una
evolución de las redes telegráficas. En un primer momento los protocolos
telegráficos se adaptaron para la transmisión de bloques de información digital,
desde los terminales hasta los grandes ordenadores de las primeras generaciones,
para pasar a comunicar posteriormente ordenadores entre sí, tal y como ocurre
actualmente.

En el mundo de las comunicaciones se denomina protocolo al algoritmo que guía y
ordena la comunicación entre dispositivos remotos. El nombre de protocolo se
debe a que poseen una función similar a la de los protocolos sociales, ordenar
las interacciones entre partes. En la sociedad ordenan la interacción entre
personas y en las redes de datos ordenan la interacción entre ordenadores.
Cuando se diseña una red de datos el primer paso consiste en definir los
protocolos que deben seguir los ordenadores para comunicarse entre si,
denominándose arquitectura de la red al conjunto de protocolos que utiliza.

La comunicación de datos utilizaba inicialmente las redes existentes,
fundamentalmente la red telefónica, hasta que durante los sesenta se propone una
nueva técnica, denominada “Conmutación de Paquetes” [6] [10]. La conmutación de
paquetes es significativamente más eficiente que la conmutación de circuitos
para la mayoría de los servicios de telecomunicación actuales, por lo que su
aparición inicia un proceso que ha cambiado profundamente el mundo de las
telecomunicaciones.

A finales de los sesenta y durante los setenta aparecen diferentes propuestas de
arquitecturas de redes basadas en conmutación de paquetes, que aunque se
utilizaban en entornos muy diferentes, también competían entre sí. Por ejemplo:

   ♦   Aparece ARPANET en 1968, promovida por el Departamento de Defensa de EEUU.
       En 1983 ARPANET cambia su arquitectura y se transforma en Internet al
       incorporar la arquitectura TCP/IP, empezando la expansión imparable que
       todos conocemos.
   ♦   Los operadores de telecomunicación empiezan a ofrecer servicios de
       conmutación de paquetes que venden a las grandes empresas, por ejemplo las
       del mundo financiero en España. Telefónica ofrece en 1972 uno de los
       primeros servicios de conmutación de paquetes comerciales a nivel mundial,
       denominado RSAN, que posteriormente pasó a llamarse IBERPAC al adoptar la
       norma X.25.
   ♦   En 1979 se crea USENET, la red de usuarios del sistema operativo UNIX
       basada en el programa UUCP (UNIX to UNIX Copy Program). En el marco de
       esta red se desarrollan también ideas y servicios de gran interés, como el
       servicio de news. En Europa USENET se denominó EUNET. USENET converge
       hacia Internet de forma natural, debido a que compartían muchos objetivos
       comunes con el grupo que desarrolló Internet, además de compartir el
       sistema operativo UNIX en sus desarrollos.
   ♦   Las operadoras de telecomunicación, especialmente las europeas, empiezan a
       ofrecer servicios de conmutación de paquetes basados en la norma X.25
       publicada por el CCITT en 1976. X.25 evoluciona posteriormente hacia SMDS,
       FRAME-RELAY, ATM, etc.
   ♦   Los grandes fabricantes de ordenadores proponen arquitecturas de red que
       incluyen servicios de usuarios, tales como IBM (red SNA para aplicaciones
       corporativas o red BITNET para el mundo investigador), Digital Equipment
       (red DECNET), etc.
   ♦   El servicio MINITEL que fue enormemente exitoso en Francia.



                                        11
Además, hay muchas otras iniciativas que no vamos a comentar aquí.

Durante los 80 y principios de los 90 la industria realiza un enorme esfuerzo
para definir un modelo de referencia que unifique la arquitectura de las redes
de datos. Este modelo es conocido como el modelo OSI (Open Systems
Interconnection) de la Organización ISO (International Organization for
Stardardization). Casi nadie dudaba entonces sobre el éxito de dicha norma, que
de haber triunfado hubiese ocupado el puesto de la Internet actual.

Tanto es así que la mayoría de las organizaciones y empresas, incluido el DOD
que había financiado el desarrollo de Internet, realizaron planes de
implantación del modelo ISO – OSI a finales de la década de        los ochenta.
Durante ese periodo, Internet, que ya está operativa, se va introduciendo en el
mundo universitario e investigador. A principios de los noventa la definición
del   modelo  ISO   -  OSI   está  incompleta  e   Internet  en   cambio  crece
vertiginosamente, por lo que las empresas y organizaciones más innovadoras
empiezan a introducir Internet.

A finales de los años ochenta en algunos países, fundamentalmente europeos,
existen ya servicios comerciales de redes de datos basados en la norma X.25, que
se utilizaban fundamentalmente en el ámbito corporativo y financiero. Pero el
éxito de Internet lleva a la creación de servicios comerciales basados en
TCP/IP, conocidos como ISPs (Internet Service Providers). A partir de entonces
Internet empieza a introducirse a un ritmo imparable tanto en las empresas como
en los hogares. El DOD vuelve a alinear sus redes y desarrollos con Internet a
principios de los 90.


3.1 Conmutación de circuitos y de paquetes
Antes de la conmutación de paquetes, la mayoría de las redes se basaban en la
“Conmutación de Circuitos”. En estas redes el intercambio de información sólo se
puede realizar cuando se ha establecido el circuito. El funcionamiento del
teléfono ilustra muy bien como funciona la conmutación de circuitos. Primero hay
que establecer el circuito con una llamada. Sólo se puede intercambiar
información, es decir hablar con nuestro interlocutor, cuando el circuito está
establecido y nuestro interlocutor está en el otro extremo.




                       Figura 2.1. Conmutación de Circuitos

En cambio, la conmutación de paquetes funciona de un modo similar al correo
postal. En este tipo de comunicación la información puede enviarse en cualquier
momento sin necesidad de esperar a que el destinatario esté preparado para
recibirla, tal y como se hace con el correo postal. Para enviar un bloque de
información digital simplemente hay que introducirlo en un “Paquete” y enviarlo.

Un “Paquete” es similar a una carta. Lleva una cabecera con información sobre el
destinatario y el remitente. El paquete envuelve y delimita el bloque de
información, como si fuese el sobre en un envío postal. Un paquete se denomina


                                       12
también “Datagrama”, probablemente porque sus diseñadores lo consideraron una
variante del telegrama, debido a la velocidad con que se transmiten los paquetes
de datos.

El paquete, la carta electrónica, también hay que enviarlo a una estafeta de
correos digital, que en el caso de Internet es el “Router” o “Encaminador de
Paquetes”. El router tiene como función clasificar los paquetes recibidos y
enviar cada uno a la siguiente estafeta digital del camino hacia su destino,
exactamente igual que en el servicio postal. Por lo tanto para enviar un mensaje
de un ordenador a otro simplemente se empaqueta en uno o varios paquetes, que se
envían al router más próximo para que este lo reenvíe hacia su destino.




                       Figura 2.2. Conmutación de Paquetes

La función básica de un router es almacenar y reenviar paquetes. Los paquetes
llegan por las conexiones entrantes, para ser almacenados en la lista de espera
de la conexión de salida por la que debe continuar. El paquete continúa cuando
le llega su turno de reenvío, después de que los paquetes anteriores de la lista
de espera hayan sido enviados. Por eso, la “conmutación de paquetes” recibe
también el nombre de “almacenamiento y envío”.




                    Figura 2.3. Router o Conmutador de Paquetes

La conmutación de paquetes es mucho mas eficiente que la conmutación de
circuitos en el envío de datos esporádicos dispersos en el tiempo, tal y como
requieren la mayoría de los servicios de datos. Permite incluso un
aprovechamiento más eficaz del ancho de banda en comunicaciones de voz
utilizando técnicas de detección de silencios y codificadores de gran
eficiencia.

El modelo de conmutación de paquetes descrito anteriormente es el utilizado por
el protocolo IP de Internet y corresponde a un servicio de conmutación de
paquetes de tipo datagrama (sin conexión). También existe otro servicio de
conmutación de paquetes, denominado orientado a conexión, que permite crear
circuitos virtuales, combinando elementos de la conmutación de circuitos y de
paquetes. El servicio orientado a conexión es más complejo, por lo que no vamos
a describirlo aquí, aunque es utilizado por muchos otros protocolos como por
ejemplo, X.25, FRAME RELAY, ATM, MPLS, en conmutación óptica, TCP, etc.


                                        13
4. La Primera Internet
Internet nace, financiada por DARPA (Defense Advanced Research Project Agency),
durante la guerra fría. DARPA fue creada por el ejército norteamericano en 1957,
a raíz del lanzamiento ruso del Sputnik, para asegurar la supremacía de EEUU en
tecnologías de uso militar. Los gestores de DARPA trataron de involucrar a la
comunidad investigadora de EEUU de forma abierta, en contraposición al
secretismo imperante en la mayoría de los proyectos militares de la Unión
Soviética y lo consiguieron plenamente.

El modelo de gestión de proyectos utilizado por DARPA y por otros programas del
DoD (Department of Defense) de EEUU ha tenido un enorme éxito a largo plazo,
porque no sólo lleva al desarrollo de ARPAnet o de Internet, sino de muchas
otras tecnologías clave para la sociedad de la información, tales como gran
parte de la tecnología electrónica de estado sólido, del sistema operativo BSD
UNIX (que tanta influencia ha ejercido en el mundo de la informática), etc.
Todos estos proyectos han tenido una enorme influencia en el mundo de la
tecnología y es muy probable que sin ellos el panorama actual fuese muy
diferente. Los gestores de los programas y fondos de investigación deberían
estudiar el modelo de financiación y gestión utilizado por DARPA, porque la
eficacia de aquellos proyectos, así como el impacto conseguido, no han sido
igualados por ningún otro programa de desarrollo tecnológico.

El proyecto inicial [6] tuvo como objetivo el desarrollo de una red tolerante a
fallos de sus nodos, que se denominó ARPAnet. Para conseguir este objetivo la
red debía tener un control descentralizado y redundancia en rutas y nodos. En
términos militares la nueva red debía ser capaz de sobrevivir a un ataque
nuclear, un objetivo de capital importancia durante la guerra fría. Es curioso
constatar como un requisito de carácter militar, la tolerancia a fallos en sus
nodos, ha sido probablemente la principal razón de su éxito a largo plazo. Este
requisito llevó a sus diseñadores a desarrollar técnicas de conmutación de
paquetes con encaminamiento adaptativo, de forma que las redes resultantes
fuesen capaces de reconfigurarse si algún nodo dejaba de operar. La arquitectura
resultante, además de ser adaptativa, reduce el coste del transporte de
información porque utiliza los recursos de la red más eficientemente que la
conmutación de circuitos tradicional, especialmente cuando se envían bloques
sueltos de información.

En la década de los 70, estando ARPAnet y otras redes ya en uso, surgió la
necesidad de interconectar las redes existentes entre sí. Es en este momento
cuando comienza el desarrollo, de lo que hoy conocemos como Internet, por un
grupo de investigadores liderados por Vinton Cerf y Robert Kahn [3, 10]. Su
objetivo fue desarrollar una arquitectura y unos protocolos que permitiesen
interconectar varias redes heterogéneas, transformándolas en una única red. Este
proyecto lleva la desarrollo de la arquitectura TCP/IP en la que se basa
Internet.

En la base de esta arquitectura está el protocolo IP, abreviatura de “Internet
Protocol”, que en castellano significa “protocolo entre redes”. La nueva red
pasa a denominarse Internet debido al papel fundamental que este protocolo tiene
en la nueva arquitectura. Los routers son los dispositivos encargados de
encaminar paquetes entre redes y su comportamiento se rige por las reglas que
marca el protocolo IP.

Aunque la gestación de Internet empieza en los setenta,     el nacimiento real de
Internet se produce el 1 de Enero de 1983. Ese día           muchas de las redes
relacionadas fundamentalmente con ARPANET instalan en sus    routers y ordenadores
la arquitectura TCP/IP y “La Red” comienza a funcionar.     A partir de entonces,
Internet crece imparablemente.




                                       14
Durante una década su crecimiento se centra en el mundo investigador, hasta que
a finales de la década de los 80 Tim Berners-Lee propone un nuevo servicio: “The
World Wide Web” [4]. La facilidad de uso del nuevo servicio dispara la
introducción masiva de Internet en empresas y hogares, desbancando del mercado a
las demás redes.


4.1 La primera arquitectura de Internet: aplicaciones “extremo a
extremo” sobre TCP/IP
La arquitectura IP tiene tres protocolos como componentes fundamentales: IP, TCP
y UDP (figura 3.1). El protocolo IP da un servicio de datagramas y tiene como
función principal encaminar paquetes desde su origen hasta su destino, a través
de todas las redes que componen Internet. Para poder realizar esta función cada
ordenador conectado a la red se identifica por una dirección única en la red,
conocida como dirección IP. La dirección IP del destinatario va en todos los
paquetes y sirve para que los routers puedan encaminar el paquete correctamente
hasta su destino. Todo paquete incluye también la dirección del remitente que es
utilizada para el envío de paquetes de respuesta.

El protocolo IP se diseñó utilizando direcciones de 32 bits, que permiten
identificar hasta unos 4.000.000.000 ordenadores diferentes. En los 70 parecía
imposible que el mundo llegase a tener tal cantidad de ordenadores.

La asignación de direcciones únicas es una tarea administrativa de vital
importancia para el funcionamiento de Internet. Esta tarea fue realizada en un
principio por ICCB (Internet Configuration Control Board), creada en 1979. A
medida   que  crecía   su  importancia  se  fueron   creando  estructuras  más
representativas para su administración como IANA (Internet Assignment Number
Authority) y finalmente ICANN (Internet Corporation for Assigned Names and
Numbers)[18] que delega la asignación de direcciones IP en organizaciones de
tipo regional y local.

Las organizaciones que solicitaban direcciones recibían bloques de direcciones
IP. Se asignaban 3 tipos de bloques de direcciones dependiendo del tamaño de la
organización solicitante:

  1. Asignación de Clase A: Bloque de unas 16.000.000 direcciones para grandes
     organizaciones.
  2. Asignación de Clase B: Bloque de unas 65.000 direcciones para
     organizaciones medianas.
  3. Asignación de Clase C: Bloque de 256 direcciones para organizaciones
     pequeñas.

Los usuarios que recibían un bloque de direcciones se comprometían a seguir unas
normas de buen comportamiento en el uso de Internet, denominadas “Internet Code
of Conduct” [30]. En caso de no seguir dichas normas, la asignación de
direcciones podía ser retirada por el organismo administrador.

Muchos de los males de la Internet actual se deben a la forma en que se
asignaron las primeras direcciones. No se utilizó un plan jerárquico y además
las asignaciones fueron muy generosas hasta principios de los noventa. Una gran
cantidad de direcciones asignadas entonces nunca se han utilizado. En este
momento se ha asignado aproximadamente la mitad del espacio de direcciones de IP
y se están utilizando menos del 10% de las direcciones asignadas.

Los diseñadores de Internet añadieron sobre el protocolo IP, el protocolo TCP
(Transmission Control Protocol) encargado de garantizar la entrega íntegra de
los mensajes en su destino. Además de TCP, también se añadió el protocolo UDP
(User Datagram Protocol) para comunicaciones no fiables. Sobre estos dos
protocolos se instalan las aplicaciones.



                                       15
Internet necesita para su funcionamiento y gestión otros protocolos tales como
ICMP (Internet Control Message Protocol), ARP (Address Resolution Protocol),
etc. Pero son TCP e IP los que realmente la caracterizan, por lo que la
arquitectura de Internet se conoce también como arquitectura TCP/IP [2].

Los protocolos TCP, UDP e IP forman la capa intermedia de la red tal y como se
muestra en la Figura 3.1. Estos protocolos fueron diseñados para poder conectar,
tanto con una gran variedad de tecnologías de red, como con una gran variedad de
aplicaciones. Es decir, normalizan sólo lo estrictamente necesario para
desacoplar las tecnologías de red, de las aplicaciones. IP hace de interfaz con
las redes que se interconectan a Internet y se especializa en encaminar paquetes
entre redes. TCP y UDP hacen de interfaz con las aplicaciones dando un interfaz
de acceso normalizado.




       Figura 3.1. Arquitectura “extremo a extremo” de las aplicaciones sobre TCP/IP

Las claves del éxito de Internet parecen ser tres:

   ♦   La facilidad de diseño y programación de nuevas aplicaciones que utilizan
       los protocolos TCP y UDP a través del interfaz de “socket”.
   ♦   La enorme capacidad de los órganos de gestión de Internet para innovar,
       adaptarse a situaciones cambiantes o de reaccionar frente a problemas.
   ♦   La capacidad de IP para incorporar nuevas tecnologías de red de forma
       incremental, sin afectar el funcionamiento de sus aplicaciones.

Pasemos a analizar los factores que han dado a Internet su gran capacidad para
incorporar nuevas tecnologías de red, para soportar eficazmente el diseño de
aplicaciones, así como para innovar y adaptarse a nuevas situaciones.


4.1.1 Creación de aplicaciones en la primera Internet
Una de las razones principales del éxito de Internet fue su capacidad para
soportar eficazmente el diseño de aplicaciones. La existencia del interfaz de
“socket”, que permite programar aplicaciones con gran facilidad, es uno de los
factores que facilitó el desarrollo de nuevas aplicaciones. El interfaz de
“socket” TCP es muy similar al interfaz de comunicación entre procesos de UNIX
basado en tuberías (pipes en inglés), por lo que el porte o la adaptación de
aplicaciones UNIX a Internet fue bastante sencilla, al estar la mayoría de los
programas en código abierto. Esto permitió que Internet dispusiese de
aplicaciones operativas casi desde el primer momento, dándole una ventaja muy
significativa sobre otras redes que tardaron mucho más en disponer de
aplicaciones.




                                            16
Otro factor factor importante fue la decisión de diseñar IP para ofrecer un
servicio de datagrama y de añadir un nivel de transporte que ofrece a las
aplicaciones tanto un servicio de datagramas, como un servicio orientado a
conexión:

    ♦   El protocolo TCP ofrece un servicio orientado a conexión
    ♦   El protocolo UDP ofrece un servicio de datagramas

La utilización de un protocolo de red orientado a conexión, tal y como proponía
X.25, no hubiese permitido ofrecer un servicio de datagramas eficaz a nivel de
transporte. Su implementación hubiese sido muy ineficaz, porque obliga a
establecer un circuito por cada datagrama a enviar.

También contribuyó al éxito de Internet la naturaleza extremo a extremo      de las
aplicaciones de Internet, que residen solamente en los ordenadores          de los
extremos. Esto facilita y abarata el desarrollo y la puesta a punto de       nuevas
aplicaciones. La mayoría de las aplicaciones se pudieron desarrollar y       probar
con uno o dos ordenadores conectados a la red.

Internet difiere radicalmente de la red telefónica en lo que a despliegue de
nuevas aplicaciones se refiere. Las aplicaciones de la red telefónica se
instalan normalmente dentro de la red, necesitando un costoso proceso de puesta
a punto e instalación que involucra fundamentalmente a los operadores de la red.
Esto facilita el despliegue de nuevos servicios y aplicaciones, porque evita que
los usuarios deban realizar las instalaciones, ahorrándoles una gran cantidad de
trabajo.

Los primeros usuarios de Internet eran en su mayoría expertos informáticos que
instalaban las nuevas aplicaciones y servicios sin problemas porque era parte de
su actividad investigadora. El crecimiento de Internet ha incorporado una
mayoría de usuarios que no tienen conocimientos informáticos, por lo que la
facilidad de instalación de una aplicación ha pasado a ser hoy un factor
crítico, habiendo aparecido el concepto de “conectar y usar” (Plug & Play en
ingles).

Todos estos factores convirtieron a Internet en un entorno excelente para
experimentar con nuevas aplicaciones y servicios desde el primer momento. Cuando
alguna aplicación se hacía popular, se desplegaba rápidamente a toda la red,
debido a la facilidad con que los usuarios podían instalarlas.


4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor
Las aplicaciones de Internet utilizan los protocolos TCP, UDP e IP a través de
un interfaz de programación de aplicaciones que recibe el nombre de interfaz de
“socket”. “Socket” significa enchufe en inglés y probablemente fue escogido por
la similitud con la función que tiene un enchufe para la conexión de aparatos
eléctricos a la red. El “socket” normaliza el acceso de las aplicaciones a la
red, simplificando enormemente la realización de aplicaciones. TCP y UDP
proporcionan servicios de transporte de datos radicalmente diferentes, teniendo
cada uno su interfaz de “socket” propio.

El protocolo TCP proporciona a la aplicación un servicio de transporte de datos
orientado a conexión y fiable. Es un servicio que permite crear circuitos
virtuales a través de los cuales dos aplicaciones en dos ordenadores diferentes
pueden intercambiar datos entre sí. Los sockets TCP son el mecanismo de
comunicación básico del modelo cliente-servidor, utilizado en la mayoría de las
aplicaciones de Internet:

    1. El cliente permite al usuario acceder a servicios de Internet. Los
       clientes acceden a los servicios estableciendo un circuito virtual con el



                                         17
servidor que provee dicho servicio. A través de dicha conexión solicitan
      páginas Web, ficheros, ejecución de aplicaciones en otras maquinas, envío
      de mensajes, etc.
   2. El servidor suministra el servicio a los clientes. Los servidores de
      aplicaciones poseen una dirección IP y un puerto conocidos a través de
      los cuales pueden dar servicio a muchos clientes simultáneamente.

Un último factor a resaltar de TCP, es su diseño como un protocolo capaz de
adaptarse a situaciones de congestión de forma que tratase de evitar el colapso
de la red. TCP introduce algoritmos de colaboración grupal, de forma que cuando
detecta situaciones de congestión reduce progresivamente su cadencia de
transferencia para ayudar a descongestionar la situación. Este algoritmo
consigue que las aplicaciones basadas en TCP sigan funcionando en situaciones de
congestión, aunque su tiempo de respuesta se ralentice. Esta característica ha
permitido que Internet pudiese dar un servicio lento pero aceptable durante los
primeros años en que la red estuvo muy congestionada.

El protocolo UDP proporciona a una aplicación un servicio no fiable de envío de
datagramas o bloques de datos. Es un servicio que inicialmente se utilizó menos
en las aplicaciones debido a que no garantiza la entrega de los datos enviados.
Su uso está aumentando actualmente, porque es más adecuado para el envío de
señales de audio y vídeo.

Como ya hemos comentado, las primeras aplicaciones fueron en muchos casos
versiones adaptadas de aplicaciones o servicios que ya existían en los sistemas
operativos UNIX, tales como, enviar correos electrónicos de un usuario a otro,
copiar ficheros de un directorio a otro, acceso remoto desde terminales, etc.
También se desarrollaron algunas aplicaciones que utilizaban las nuevas
posibilidades que permitía la red. Así aparecieron servicios tales como:

  ♦   El servicio DNS (Domain Name System), que permite asignar nombres
      simbólicos a los ordenadores conectados a Internet y crear los
      identificadores/localizadores uniformes de servicios o URI/URL (Uniform
      Resource Identifiers/Locators).
  ♦   El correo electrónico, conocido como e-mail, soportado por múltiples
      protocolos tales como, SMTP, POP, IMAP, etc.
  ♦   La transferencia remota de ficheros, conocida por el nombre del protocolo
      (FTP - File Transfer Protocol), que se normalizó a tal efecto.
  ♦   El acceso remoto a un ordenador, que permitía trabajar como un usuario
      local desde otro ordenador situado en cualquier parte del mundo, conocido
      también por el nombre del protocolo (TELNET).
  ♦   El servicio de News que soportaba foros y grupos de discusión abiertos a
      todas las personas conectadas a la red.

El motor de la expansión de la primera Internet fue fundamentalmente el correo
electrónico y también en menor grado la transferencia de ficheros. El correo
electrónico facilitó enormemente la comunicación y la colaboración entre
personas conectadas a la red. Aunque los primeros correos electrónicos sólo
permitían enviar mensajes de texto, pronto se generalizaron para poder adjuntar
ficheros, con lo que su utilidad aumentó muy significativamente.

El desarrollo de nuevos servicios fue una prioridad desde el primer momento en
Internet. La arquitectura extremo a extremo posibilitó la experimentación con
nuevas ideas y servicios que maduraron en la década de los noventa. Los nuevos
servicios abordaban temas tales como:

  ♦   Publicación electrónica de información en la red.
  ♦   Creación de comunidades y grupos de interés en la red.
  ♦   Automatización de procesos y flujos de trabajo.
  ♦   Realización de transacciones comerciales a través de la red.



                                       18
♦   Búsqueda y localización de información en la red.
  ♦   Comunicación síncrona, tal como Chats, IRCs o voz y vídeo sobre IP.
  ♦   ...


4.1.2 La evolución de las tecnologías de red
Otra clave del éxito de Internet parece estar en la capacidad de IP para
incorporar nuevas tecnologías de red de forma incremental, permitiendo al mismo
tiempo que las aplicaciones existentes sigan funcionando. Esta capacidad de
evolución incremental ha permitido la convivencia en un único marco operativo de
todo tipo de tecnologías de red. Así Internet empezó utilizando modems punto a
punto de entre 1200 b/s y 19200 b/s. Luego incorporó modems más rápidos,
diversas redes locales (Ethernet, token bus, Fast Ethernet, Gigabit Ethernet,
etc.), enlaces SDH, redes ATM, acceso ADSL o xDSL, etc. IP permite ir añadiendo
todas estas nuevas tecnologías de red.

Los diseñadores de la arquitectura TCP-UDP/IP tomaron la decisión de diseñar IP
para un servicio de datagramas con la misión exclusiva de encaminar paquetes
entre los extremos, dejando el control de la comunicación extremo a extremo a
los protocolos TCP y UDP. Esta decisión de diseño libera al router de tener que
controlar elementos de las aplicaciones. El router sólo debe conmutar paquetes
en función de sus tablas de direccionamiento, cuyo tamaño no depende de las
aplicaciones de usuario, sino de parámetros dependientes de la topología de la
red y de la asignación de direcciones realizada. Las conexiones de usuario se
controlan sólo en los extremos, liberando a la red de esta función. Por lo tanto
la capacidad de conmutación de un router no depende del número de aplicaciones o
comunicaciones de usuario que soporta, sino de su capacidad genérica de
conmutación de paquetes.

Otras redes, tales como la red telefónica o la red X.25, están o estaban basadas
en protocolos orientados a conexión y necesitan controlar el estado de cada
conexión en cada uno de los nodos por donde pasa la conexión. Un servicio
orientado a conexión necesita establecer la conexión antes de intercambiar
datos, pudiendo realizar una reserva previa de recursos que permite una gestión
más eficaz, pero que consume recursos en los nodos o conmutadores, haciéndolos
más complejos y costosos. Por ejemplo, la central telefónica necesita controlar
individualmente el estado de cada una de las conexiones de voz establecidas,
además de controlar la conmutación de la voz.

Muchas tecnologías de red usadas actualmente en Internet son orientadas a
conexión y no de tipo datagrama. Por ejemplo, la conmutación óptica se hace con
técnicas de conmutación de circuitos, asimismo ATM (Asynchronous Transfer Mode)
o MPLS (Multi Protocol Label Switching), utilizan protocolos orientados a
conexión. La reserva de recursos realizada permite optimizar algunas funciones
de los protocolos en un entorno donde no existen los problemas de escalabilidad
que aparecen en el nivel de red IP.

Durante mucho tiempo los expertos estuvieron fuertemente divididos sobre la
conveniencia de utilizar servicios de datagrama (sin conexión) o servicios
orientados a conexión. La evolución tecnológica parece haber dado la razón a
ambos, habiendo seleccionado en cada parte de la red el protocolo que mejor se
adapta a las condiciones específicas de cada función.

Un protocolo orientado a conexión parece más eficaz para grandes capacidades de
conmutación entre grupos de usuarios de tamaño limitado, donde los circuitos
virtuales quedan establecidos durante largos periodos de tiempo. En cambio, un
protocolo de datagramas parece escalar mejor a grandes poblaciones de usuarios y
aplicaciones, debido a que los nodos (routers) no deben controlar el estado de
cada una de las conexiones establecidas, siendo su única función enrutar la
información de acuerdo a la tabla de encaminamiento.



                                       19
El protocolo IP y la arquitectura de Internet también fueron capaces de crear
una estructura jerárquica cuando la red creció y hubo que dar cabida a todas las
subredes que iban apareciendo. La nueva estructura jerárquica se basa en la
partición de Internet en Sistemas Autónomos (AS – Autonomous Systems) a los que
se asigna una nueva dirección de AS. El encaminamiento de paquetes entre
sistemas autónomos se realiza con un protocolo de encaminamiento, BGP (Border
Gateway Protocol), diferente del utilizado para encaminar paquetes dentro de un
sistema autónomo.

La Figura 3.2 describe la arquitectura actual de Internet compuesta por sistemas
autónomos (AS) y puntos neutros (NAP – Network Access Point). En el primer nivel
(Tier 1) están los proveedores de larga distancia, en el segundo nivel (Tier 2)
los proveedores nacionales, etc. La asignación de direcciones inicial no tuvo en
cuenta esta jerarquía porque todavía no existía. Los routers del núcleo de la
red necesitan unas tablas de direccionamiento de gran tamaño para encaminar
paquetes IP, debido a que las tablas deben contener todos los rangos de
direcciones IP existentes dentro de cada sistema autónomo, que suelen ser muchos
y estar dispersos. Si hubiese existido una asignación jerárquica, cada sistema
autónomo tendría asignado un único prefijo y el tamaño de las tablas de
encaminamiento se reduciría muy significativamente.




                    Figura 3.2. Jerarquía de Sistemas Autónomos


4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet
El desarrollo de Internet nos permite obtener enseñanzas de gran interés sobre
la forma en que se desarrollan actualmente las tecnologías de la información y
de las comunicaciones. Probablemente su éxito se deba en gran medida a los
métodos de trabajo utilizados por sus desarrolladores, que difieren muy
significativamente de los métodos utilizados por los organismos de normalización
tradicionales, como por ejemplo, ISO (International Standards Organisation), ITU
(Internacional Telecomunication Union), IEEE, etc.

El desarrollo de Internet siguió desde sus comienzos unos métodos de trabajo muy
participativos, que se recogen en las reglas de funcionamiento de ISOC (Internet
Society) [18] cuando se crea en 1986 para coordinar el desarrollo de Internet.




                                        20
ISOC se gobierna por dos comités, IAB e IESG, cuyos miembros son elegidos por
las personas afiliadas a ISOC. La asignación de direcciones IP adquiere una
importancia muy grande y se delega en otras organizaciones, como ya hemos
comentado anteriormente.

El trabajo técnico lo realiza la IETF (Internet Engineering Task Force) [5] bajo
la supervisión de IAB y IESG. IETF se estructura en grupos de trabajo (WGs), que
se rigen por las siguientes normas de funcionamiento:

   ♦   Libertad de proponer soluciones: los grupos (WGs) se pueden proponer
       libremente por cualquier miembro. El trabajo de un WG debe abordar
       problemas técnicos pendientes de solución. La creación de nuevos grupos
       necesita el visto bueno del IESG.
   ♦   Funcionamiento abierto y democrático: cualquiera puede participar en los
       WGs y toda la información manejada por un WG es pública. Los miembros de
       la todos los comités, IAB, IESG, …, son elegidos por los miembros de ISOC.
   ♦   Soluciones consensuadas y validadas: las propuestas consensuadas por un WG
       se publican en RFCs (Requests for Comments). Un RFC debe ser validado en
       implementaciones reales antes de progresar como norma. Sólo se puede hacer
       una propuesta de norma (DS – Draft Standard) con un mínimo de dos
       implementaciones de referencia, realizadas por grupos diferentes y que
       interoperen.
   ♦   Competencia y necesidad: las RFCs pueden competir entre sí, dejando a los
       usuarios la labor de decidir entre propuestas competitivas.
  ♦    Uso de la red: aunque los grupos de trabajo se reúnen varias veces al año,
       utilizan la red como herramienta de comunicación permanente. Cada grupo
       tiene al menos una lista de distribución por donde deben circulan todos
       los mensajes relacionados con el trabajo del grupo y un repositorio de
       ficheros donde deben estar todos los documentos que maneja el grupo de
       trabajo.

Los desarrolladores de Internet también utilizaron algunas prácticas        menos
explícitas, pero que también contribuyeron significativamente a su éxito:

  ♦    Software libre: El uso de “software libre”, que aunque no fue un
       requisito, fue muy utilizado en los desarrollos de software relacionados
       con Internet. El uso de software libre permitió aglutinar rápidamente
       grandes grupos de usuarios que realizaban pruebas exhaustivas y proponían
       mejoras, acelerando los desarrollos.
  ♦    Uso del formato ASCII: El uso intensivo de texto ASCII, tanto en RFCs,
       como en las cabeceras y mensajes de la mayoría de los protocolos. Esto
       facilitaba la portabilidad entre máquinas, así como la depuración y el
       análisis de protocolos y aplicaciones, evitando costosos equipos de
       prueba.
  ♦    Uso del TELNET: El uso de texto ASCII en la mayoría de los formatos de
       mensaje de los protocolos de Internet permite probar y analizar estos
       protocolos y aplicaciones utilizando TELNET, el protocolo de emulación de
       terminal remoto. Los costosos analizadores y emuladores de protocolos que
       utilizan otras redes no fueron necesarios, abaratándose el desarrollo de
       nuevos servicios y aplicaciones.
  ♦    Conectividad extremo a extremo: La naturaleza “extremo a extremo” de las
       aplicaciones también es otro factor que contribuyó a abaratar el
       desarrollo y la puesta a punto de aplicaciones, sobre todo desde la
       aparición del PC. Uno o dos PCs conectados a Internet son suficientes para
       desarrollar y probar la mayoría de las aplicaciones.

Estas normas de funcionamiento hacen de Internet un sistema en evolución cuyas
reglas crearon desde el principio una gran comunidad de usuarios que no sólo se
benefició del uso de la red, sino que participó en la selección y prueba de los
mejores protocolos y aplicaciones. Esta capacidad de evolución, adaptación e



                                       21
innovación ha sido probablemente decisiva en el éxito de Internet frente a otras
propuestas de redes de datos.

Hoy en día los intereses comerciales ejercen una enorme presión sobre Internet y
han transformado muy significativamente el espíritu inicial. Pero Internet es
todavía uno de los entornos más abiertos, manteniendo una enorme vitalidad y
capacidad de innovación. IETF sigue siendo un foro abierto donde cualquier
investigador puede acudir, aunque le sea difícil competir con los enormes
recursos que las grandes empresas de Internet dedican a IETF, mientras que el
resto de organizaciones de normalización siguen restringiendo el acceso a
representantes de países o empresas que deben desembolsar grandes cantidades de
dinero para poder participar.

No parece previsible que las reglas que han permitido evolucionar a Internet de
una forma tan exitosa vayan a cambiar significativamente en un futuro próximo,
por lo que es muy probable que la gran comunidad de empresas, usuarios e
investigadores que han creado Internet siga haciendo evolucionar la red en los
años futuros y desarrolle el potencial que todavía queda por desarrollar.

Estas reglas de funcionamiento también se han utilizado en otros desarrollos de
software libre, como por ejemplo en el sistema operativo Linux, que también ha
entrado últimamente en una fase similar a Internet debido al interés que ha
despertado en los últimos años como alternativa a Windows.




5. Los Noventa: Internet entra en la Encrucijada
La década de los noventa se caracteriza por la enorme demanda de conexión de
nuevos sistemas, que obligan a Internet a crecer muy por encima del tamaño para
el que la red había sido diseñada. Durante esta década Internet deja de ser un
servicio para el mundo investigador, transformándose en un servicio comercial
para el que tampoco había sido diseñada. Los usuarios de Internet no solo crecen
en número, sino también en diversidad, conectándose muchos usuarios sin
conocimientos informáticos que demandan una instalación y un uso más sencillo de
los nuevos servicios y aplicaciones.

Internet se gestó en los años 70 cuando sólo existían ordenadores grandes
(Mainframes) y medianos (Minis). Nadie pudo imaginar entonces, la enorme
proliferación de ordenadores que iba a provocar la aparición del ordenador
personal. Internet pudo crecer por encima de los límites para los que había sido
diseñada y salir de esta encrucijada, pero a costa de romper uno de sus
principios básicos, la arquitectura extremo a extremo de las aplicaciones.

A principios de los noventa se empieza a detectar el agotamiento de las clases A
y B, llevando a IANA a introducir un nuevo procedimiento de asignación de
direcciones jerárquico y mucho más restrictivo. IETF trabaja en paralelo en la
búsqueda de soluciones. La propuesta que realmente ahorra direcciones IP y se
impone mayoritariamente, está basada en un nuevo tipo de dispositivo, denominado
NAT (Network Address Translators). NAT permite conectar redes enteras a Internet
a través de una única dirección IP, utilizando direcciones privadas en el
interior. Esta solución permite satisfacer la enorme demanda de conectividad,
pero rompe la conectividad extremo a extremo de las aplicaciones.

La gran contribución de esta década son las múltiples aplicaciones que aparecen,
que no solo crean nuevos servicios, sino que simplifican enormemente el uso de
la red. Las nuevas aplicaciones dan un enorme valor añadido y son el auténtico
motor del crecimiento. La estrella indiscutible es “The World Wide Web” [4]
(abreviadamente Web o WWW), propuesto en 1989 por el investigador británico Tim
Berners Lee y considerado el motor principal de la expansión de Internet en los



                                       22
90. De hecho, los tres elementos que componen el Web, URLs, el protocolo HTTP y
el lenguaje HTML, se consideran parte integrante de la arquitectura de Internet.

Durante este periodo aparecen también otras aplicaciones muy significativas como
las aplicaciones multimedia que permiten enviar voz y vídeo sobre IP,
aplicaciones de mensajería instantánea, los buscadores de información o incluso
aplicaciones que se basan en nuevos paradigmas como el paradigma de comunicación
“igual a igual” (P2P - Peer to Peer) o la computación en malla (GRID computing).
Son todas estas aplicaciones las que dan a la red su enorme potencial y
atractivo.

El fuerte crecimiento de Internet, así como la demanda de nuevos servicios y
aplicaciones también ha creado nuevos retos y tensiones, por ejemplo:

   ♦   El control de la seguridad en la arquitectura TCP/IP con conectividad
       extremo a extremo entre todos los ordenadores de la red, donde cada
       usuario debe gestionar su propia seguridad.
   ♦   La dificultad en el cobro del acceso a Internet y sus contenidos por parte
       de los proveedores de acceso a la red.
   ♦   La dificultad de conseguir un acceso eficaz al enorme repositorio de
       información distribuida que empieza a estar accesible en la red, cuya
       catalogación es imposible por métodos tradicionales.
   ♦   La escasez de ancho de banda y el control de la congestión que no permiten
       un acceso ágil a Internet debido a la congestión que produce el enorme
       crecimiento de la demanda de transferencia de información. La naturaleza
       del protocolo IP (best-effort) no permite al usuario el control de la
       calidad del servicio, limitando las prestaciones de ciertas aplicaciones
       de tiempo real.

Pasemos a analizar todos estos factores, así como su impacto en la evolución de
Internet.


5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet
El protocolo IP se diseñó imponiendo un límite, que entonces parecía
inalcanzable, de aproximadamente 4000 millones de ordenadores en la red. A
finales de los ochenta se dispararon las alarmas, porque el tamaño de la red se
duplicaba cada año. Las direcciones IP se hubiesen agotado antes de acabar la
década si no se hubiesen tomado medidas.

La perspectiva de una escasez de direcciones IP que colapsase Internet, creó una
gran preocupación y provocó la modificación de los procedimientos de asignación
de direcciones, basada hasta entonces en la asignación de bloques de clase A, B
y C. La asignación de bloques A, B o C era muy ineficaz. En los comienzos de
Internet muchas organizaciones recibieron bloques de clase A o B, que han tenido
una utilización real muy baja, en algunos casos menor del 1%.

A partir de entonces se introduce CIDR (Classless Inter Domain Routing), también
conocido como supernetting. En CIDR se puede asignar un bloque de cualquier
tamaño. La asignación de direcciones empieza a realizarse de forma jerárquica,
asignándose direcciones solamente a los proveedores de servicios Internet
(ISPs), que a su vez deben reasignarlas a los niveles inferiores. La creciente
escasez de direcciones provoca fuertes restricciones en las asignaciones de los
usuarios finales que no pueden disponer de direcciones IP. También se controla
el uso real de las direcciones asignadas, retirando la asignación en caso de no
ser usadas en un plazo de tiempo razonable.

Además aparecen nuevas técnicas de asignación de direcciones que se extienden
rápidamente y que han distorsionado muy significativamente la arquitectura de
Internet.



                                        23
La primera técnica es el ya mencionado NAT (Network Address Translator). NAT
sólo utiliza una dirección pública IP para conectar una red que puede tener
miles de ordenadores y por eso consigue un enorme ahorro de direcciones IP. Un
dispositivo NAT recibe las conexiones TCP o los paquetes IP que vienen de la red
privada y los reencamina hacia la Internet pública como si fuesen suyos. Los
paquetes de respuesta los recibe el dispositivo NAT, que los reencamina hacia el
otro extremo de la comunicación dentro la red privada utilizando una tabla de
encaminamiento donde figuran todas las comunicaciones en curso.

La introducción de NAT obliga a renunciar al paradigma extremo a extremo de las
aplicaciones de Internet, que pasan a tener un dispositivo intermediador entre
los extremos. Desde dentro de una red privada, es decir desde detrás de un NAT,
sólo se puede acceder como cliente a algunos servicios de la Internet pública,
como Web o correo electrónico. Los servidores dan servicio a través de una
dirección IP y de un puerto, que deben ser públicos. La instalación de
servidores detrás de un NAT no es posible, salvo que el dispositivo NAT permita
hacer traducciones permanentes de direcciones y puertos públicos a las que
realmente posee el servidor en el dominio privado. Muchas de las aplicaciones
que se desarrollan durante esta década no pueden desplegarse de forma
generalizada debido a las dificultades que crean los dispositivos NAT.




       Figura 4.1. Dispositivos NAT crean dominios de direccionamiento privado

Además de NAT, aparecen protocolos de asignación dinámica de direcciones, que
aunque en menor medida que NAT, también han permitido ahorrar direcciones. Los
dos protocolos de asignación dinámica de direcciones más utilizados son: el
protocolo DHCP (Dynamic Host Configuration Protocol) que asigna direcciones
temporales a un ordenador en entornos de red de área local y el protocolo PPP
(Point to Point Protocol) muy utilizado en el acceso a Internet a través de
MODEM telefónico que también realiza asignación dinámica de direcciones.

En paralelo con la introducción de las soluciones anteriores, que sólo paliaban
el problema, se formaron grupos de trabajo en la IETF con el objetivo de buscar
soluciones más duraderas, basadas en buscar alternativas al protocolo IP. Estos
grupos convergieron en una única propuesta publicada en 1998, que se conoce como
IPv6 (IP versión 6) [14], para diferenciarla de la versión de IP actual,
conocida como IPv4 (IP versión 4).

La aplicación de todas estas técnicas, especialmente de CIDR y de NAT, ha
reducido muy significativamente las necesidades de direcciones IP. El coste



                                         24
pagado ha sido la introducción masiva de dispositivos NAT en Internet, tal y
como se muestra en la Figura 4.2. La Internet actual se compone de muchas redes
con direcciones privadas, desde donde es posible acceder a los servicios
internos de la red privada y a los servidores de la Internet pública. Los
dispositivos NAT realizan una función de intermediación que rompe el principio
“extremo a extremo” (Figura 4.2) con el que surgió Internet, por lo que los
ordenadores que están dentro de la una red privada no son accesibles desde el
exterior. Esta rotura del principio “extremo a extremo” está dificultando el
despliegue de nuevas aplicaciones y servicios, tales como IPsec, Voz sobre IP,
P2P o GRID que no pueden operar a través de NAT o necesitan una mayor
complejidad arquitectónica para poder hacerlo.




    Figura 4.2. Impacto de un dispositivo NAT en la conectividad “extremo a extremo”

Solo las organizaciones que recibieron asignaciones antes de la introducción de
CIDR tienen direcciones públicas en abundancia y las utilizan profusamente. Las
demás organizaciones tienen escasez de direcciones públicas y suelen utilizar
direcciones privadas a través de dispositivos NAT.

Un problema significativo de la Internet actual es la enorme dispersión del
espacio de direcciones que provoca un crecimiento constante del tamaño de las
tablas de encaminamiento de los routers troncales de Internet. En el año 2000
estos routers necesitaron aumentar su capacidad de proceso en más de un 50%.

Los nuevos servicios también pueden ser un motor importante para el despliegue
de IPv6. Por ejemplo, los servicios multimedia en UMTS que deben usar IPv6 de
acuerdo a las actuales recomendaciones.

Por último, debemos resaltar que las reglas de asignación actuales imposibilitan
el despliegue de Internet en el tercer mundo. Actualmente hay muchos países que
tienen muy pocas direcciones públicas asignadas y nunca van a conseguir las
suficientes. Países como China o la India tienen menos direcciones asignadas que
algunas universidades norteamericanas.

Un caso muy ilustrativo de la situación actual es la iniciativa de la
Universidad de Stanford [25] en California para liberar las direcciones no
utilizadas. Stanford decidió devolver su bloque de direcciones “Clase A” hacia
finales de los noventa para ayudar a solucionar el problema de la escasez de
direcciones. Un bloque “Clase A” tiene 16 millones de direcciones, de las cuales
la universidad sólo utilizaba unas 56000, es decir, el 0,4% de las direcciones
asignadas. La universidad tardó 2 años de trabajo intensivo en reconfigurar toda
su red. Otras universidades norteamericanas también poseen asignaciones de
“Clase A”, pero después de ver el enorme esfuerzo que supuso la reconfiguración
en Stanford decidieron esperar a que se realice la transición a IPv6 para
reorganizar sus direcciones.




                                          25
Los datos facilitados por Brian Carpenter, presidente de IAB (Internet
Architectural Board de ISOC) y responsable del programa de IBM sobre normas y
tecnología de red, también son muy ilustrativos. Según sus palabras [25]
actualmente hay 2000 millones de direcciones asignadas (la mitad del espacio
disponible), pero sólo se están utilizando realmente unos 69 millones. Carpenter
estima que IPv4 sólo permitirá llegar a un máximo de unos 160 millones de
interfaces IP realmente conectados a Internet. Racionalizar el uso del espacio
de direcciones es muy costoso y cada vez más organizaciones están analizando las
implicaciones de migrar a IPv6.

IPv6 está considerado actualmente de forma prácticamente unánime como la única
forma de solucionar los problemas de crecimiento a largo plazo de Internet y la
discusión se centra actualmente en cuándo se debe hacer la transición. Desde el
punto de vista de productos, IPv6 es ya una realidad comercial. Prácticamente
todos los fabricantes de routers, así como los de sistemas operativos, soportan
IPv6. Incluso los proveedores de Internet (ISPs), que han sido los más
reticentes, están empezando a dar servicios precomerciales.

5.2 La explosión de las aplicaciones
Las aplicaciones son las grandes protagonistas de la década de los noventa. Las
nuevas aplicaciones simplifican enormemente el uso de los servicios y facilitan
el acceso a Internet de usuarios sin conocimientos informáticos. La gran
estrella de las aplicaciones debido a su simplicidad de uso es el Web. Pero
existen muchas otras que no alcanzan el mismo impacto, pero que también juegan
un papel importante.

Tratar de catalogar todas las aplicaciones existentes es prácticamente
imposible, por lo que se ha optado por incluir sólo las aplicaciones o grupos de
aplicaciones más representativas. Por ejemplo, no se han incluido las
aplicaciones de uso restringido en entornos corporativos o privados.

En primer lugar se han incluido las aplicaciones de soporte a la colaboración,
grupos y comunidades porque fueron las primeras que aparecieron y soportan uno
de los objetivos fundamentales de Internet: facilitar la colaboración de grupos
dispersos geográficamente. Después se analiza el Web, diferenciándose el primer
Web que permite publicar información en la red, del Web interactivo que permite
acceso remoto a aplicaciones y bases de datos. También se analiza el problema
que plantea la gestión de toda la información y el conocimiento que se está
acumulando en la red. Por último se incluye la arquitectura de servicios
multimedia de Internet, diseñada para soportar una nueva generación de servicios
de audio y video.


5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P,
GRID, etc.
Internet es una herramienta de comunicación muy eficaz, que se utilizó desde el
primer momento para soportar la comunicación en grupos de personas dispersas
geográficamente. La primera Internet fue ya una formidable herramienta de
colaboración que aceleró muy notablemente el trabajo en equipo.

El desarrollo de los protocolos de Internet a través de los grupos de trabajo de
IETF es uno de los mejores ejemplos de colaboración a través de la red. La
coordinación de los comités y de los grupos de trabajo se ha soportado desde los
primeros momentos con dos herramientas de gran eficacia, que todavía se utilizan
hoy profusamente:

  •   La lista de distribución de correo electrónico de un grupo, que permite
      distribuir correos electrónicos a todos los miembros del grupo.




                                       26
•   El repositorio de documentos del grupo, donde se almacenan todos los
      documentos de trabajo. Este repositorio ha sido tradicionalmente un
      servidor FTP donde los miembros pueden cargar y descargar documentos
      electrónicos a través de la red. Hoy en día los servidores FTP tienden a
      ser sustituidos por aplicaciones interactivas Web que dan soporte
      integrado a las necesidades de colaboración y comunicación.

Otro servicio que tuvo un enorme auge en los primeros años de Internet fue un
servicio de foros y grupos de discusión denominado News. Las News eran un
servicio global donde cualquiera podía participar, que funcionó muy bien
mientras los grupos de usuarios eran pequeños y homogéneos. Cuando Internet
creció el servicio se hizo inmanejable y cayó en desuso. En su lugar aparecieron
servicios de creación de comunidades más cerrados que permiten comunicarse a
grupos de personas con un interés común. Hoy en día se han incluido funciones
similares en muchos portales de Internet, pero donde los gestores de los grupos
pueden decidir quién puede acceder y quién no. Por ejemplo, está el servicio de
grupos de YAHOO o los servicios que ofrece el Messenger de Microsoft asociados a
MSN.

El trabajo y la colaboración a través de la red ha creado un nuevo tipo de
tecnologías destinadas a soportar la colaboración que reciben el nombre de
“groupware”. Estas tecnologías automatizan de forma eficaz actividades tales
como: uso de repositorios de documentos compartidos, gestión de flujos de
trabajo e información, notificaciones al grupo, foros de discusión diferidos e
interactivos, votaciones electrónicas, reuniones a través de la red con
videoconferencia, gestión de agendas compartidas, etc. Hoy en día la mayoría de
los portales, tanto corporativos como públicos, soportan la creación de
servicios para grupos y comunidades.

También debemos mencionar los servicios interactivos o síncronos, que permiten
colaborar a un grupo de personas en tiempo real a través de la red. El servicio
más antiguo de este tipo es el chat, que permite intercambiar mensajes de texto
de forma interactiva a un grupo de personas. Una variante más actual es la
mensajería instantánea, que enriquece el chat con detección de presencia que
indica cuando un usuario está accesible en la red. La mensajería instantánea
ofrece habitualmente la posibilidad de intercambio de gráficos y ficheros en
tiempo real. También podemos incluir dentro de este apartado las aplicaciones de
colaboración multipunto, que como la aplicación Isabel [37], permiten que los
usuarios conectados interaccionen como si estuviesen reunidos, pudiendo hablar
entre sí, verse, además de compartir aplicaciones, presentaciones u otras
informaciones. La transmisión de audio y vídeo utiliza la arquitectura de
servicios multimedia de Internet que veremos más adelante [23].

Últimamente han surgido dos modelos de aplicación alternativos a la estructura
cliente-servidor tradicional, que despiertan un gran interés. Son el modelo de
“igual a igual” (P2P - Peer to Peer) y la computación en red, también conocida
como GRID. Ambos modelos son de reciente aparición y tienen gran parte de su
potencial por desarrollar. Se han incluido en este apartado por su enorme
capacidad para crear grupos y comunidades.

Las aplicaciones P2P han surgido para dar soporte a comunidades de usuarios que
comparten ficheros a través de la red. El primero fue NAPSTER [29]. NAPSTER
mostró el potencial del modelo P2P, aglutinando rápidamente una gran comunidad
de usuarios que intercambiaban libremente música y canciones en formato MP3. La
dudosa legalidad de los intercambios ha llevado a NAPSTER a juicio con las casas
discográficas. Su éxito ha llevado al desarrollo de nuevos servicios y
aplicaciones [28] tales como Freenet, Gnutella, Kazaa, Groove, eDonkey, etc.

P2P explota las ventajas económicas del almacenamiento distribuido. Hoy en día
los discos duros de los PCs son muy baratos y tienen una gran capacidad de
almacenamiento. Crear un gran repositorio distribuido utilizando P2P es mucho



                                       27
más barato y fácil de gestionar, que centralizar todo el almacenamiento en un
gran servidor.

En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”.
Los “iguales” (peers) pueden actuar como clientes o como servidores, según
requiera la aplicación. Los servicios P2P existentes suelen incluir algún tipo
de servidor central, que actúa como punto de acceso al servicio y pone en
contacto entre sí a los “iguales”, debido a la falta de conectividad “extremo a
extremo”.

“GRID computing” [35], que podríamos traducir como computación en malla, es
también otro paradigma grupal. Las aplicaciones GRID utilizan la red como el bus
de un gran multi-computador de ámbito planetario donde ordenadores conectados a
través de Internet se distribuyan tareas de gran complejidad de cálculo. GRID ha
explotado hasta ahora las ventajas económicas del cálculo distribuido. Un gran
supercomputador es mucho más caro que un grupo de PCs de potencia equivalente.
Hoy en día los microprocesadores son muy baratos y tienen una enorme potencia,
además están la mayor parte de su tiempo en estado de espera. GRID utiliza la
potencia de cálculo no aprovechada de los PCs existentes para resolver problemas
de gran complejidad.

SETI@home [26] es quizá el ejemplo más exitoso y conocido, habiendo conseguido
unir 3,3 millones de PCs, con una capacidad de cálculo equivalente a 31
Teraflops/s, que tratan de descifrar señales extraterrestres. La computación
GRID está considerada como uno de los grandes retos para el futuro de la red y
la comunidad investigadora se ha integrado actualmente en torno al Global GRID
Forum [27].

Estos son ejemplos de algunos de los servicios de comunidades y grupos que se
han desarrollado en Internet durante los últimos años. Este tipo de aplicaciones
tienen un enorme potencial y su desarrollo parece que no ha hecho más que
comenzar.


5.2.2 El primer Web: publicación de documentos en la red
La propuesta en 1989 del Web [4] por el investigador británico Tim Berners-Lee
tiene un enorme impacto en la evolución de Internet. Tim Berners-Lee propone el
Web durante su estancia en el CERN, el gran laboratorio europeo de física de
altas energías, para coordinar experimentos científicos en el mundo de la física
de altas energías, aunque su autor era consciente del potencial de su propuesta
en muchos otros ámbitos de Internet.

Tim Berners-Lee concibió el Web como un vehículo de comunicación universal a
través de Internet. La propuesta inicial de Web define un interfaz abierto muy
eficaz para la publicación de documentos en la red, de forma que estén
accesibles instantáneamente para cualquier otro usuario. Cada documento puede
además enlazar otros documentos en la red utilizando hiperenlaces. El Web es el
mejor ejemplo del enorme potencial de los interfaces abiertos, porque las ideas
en que se basa ya se habían desarrollado en entornos cerrados o propietarios,
pero es sólo cuando estos servicios se trasladan a un entorno abierto cuando se
despliegan de forma masiva.

Su creador, Tim Berners-Lee define el Web como un universo de mundos de
información interconectados, donde cada página Web es el centro de uno de esos
mundos. El autor de una página es el dueño y gestor del mundo que describe,
decidiendo qué información quiere compartir con el resto de la red y con qué
páginas quiere enlazar. El Web permite crear a cada usuario de la red el mismo
modelo de relaciones que existe en la vida real, donde existe información
privada, información compartida sólo con ciertos grupos e información pública, y
donde los hiperenlaces definen las relaciones de cada uno de estos ámbitos de
información con el resto del mundo. Web significa en inglés telaraña,


                                       28
probablemente porque fue el mejor símil que Tim Berners-Lee encontró       para
representar esta enorme malla de enlaces entre páginas de información.

Las características a las que el Web debe probablemente su éxito son:

    1. Es un interfaz abierto que permite interconectar a todos los usuarios de
       la red.
    2. La simplicidad de uso que permite navegar por toda la red haciendo uso
       sólo del ratón y ocasionalmente de un teclado.
    3. La facilidad de instalación de servidores Web que pueden ser gestionados
       incluso por personas sin grandes conocimientos técnicos.
    4. La naturaleza descentralizada, donde el autor de cada página decide qué
       información publicar y con quién enlazarla.

Desde el punto de vista técnico, el servicio Web tiene la estructura cliente-
servidor típica de los servicios de Internet. El cliente que permite a un
usuario solicitar un documento Web se denomina visor o navegador Web (“browser”
en inglés) y envía peticiones de documentos Web al servidor con el protocolo
HTTP. El servidor contesta enviando el documento Web solicitado en formato HTML,
que el visor presenta al usuario correctamente formateado. La arquitectura de
una aplicación Web se basa en estos tres elementos:

   ♦   El protocolo HTTP (Hyper Text Transfer Protocol) para transferir
       documentos Web del servidor al cliente.
   ♦   El lenguaje HTML (Hyper Text Mark-up Language) de representación de
       documentos Web, que incluye además del texto las reglas de formato y
       presentación visual.
   ♦   El URL (Uniform, Resource Locator) para referenciar unívocamente
       documentos Web en la red.

El elemento de mayor complejidad del servicio Web es el cliente, que debe
interpretar y presentar al usuario de forma legible la información que recibe de
los servidores. Pero como el cliente es el mismo para todos los usuarios, el
diseño de un nuevo servicio sólo necesita crear nuevos servidores. Esto
convierte el visor Web en el elemento de mayor importancia estratégica para
controlar el acceso de los usuarios a Internet. Los servidores Web son de mayor
simplicidad que los clientes ya que su función consiste en devolver páginas Web
(ficheros) a los clientes que las solicitan.

El gran interés despertado por el Web en el mundo empresarial y la rápida
popularidad alcanzada, llevó en octubre de 1994 a la creación del WWW Consortium
[12], conocido abreviadamente como W3C. Su objetivo fue, y sigue siendo,
garantizar el desarrollo del Web como un vehículo de comunicación universal.
Tanto Tim Berners-Lee, como una gran comunidad de miembros, velan por el
mantenimiento del W3C como una organización neutra e independiente de los
fabricantes, que trata de producir las normas que rigen el Web al ritmo que
demanda la evolución de la tecnología actual. La estructura y forma de
funcionamiento es diferente de ISOC, porque sólo pueden acceder organizaciones
que deben afiliarse y pagar una cuota, pero su funcionamiento es muy abierto y
ágil. El enorme impacto del Web ha hecho del W3C un foro de gran importancia,
siendo junto con IETF, las asociaciones que mayor influencia ejercen en la
evolución de Internet.


5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones
El servicio Web ha evolucionado desde sus comienzos, habiéndose transformado en
un servicio de acceso remoto a aplicaciones que se ejecutan en servidores
accesibles a través de Internet. Esta forma de acceso se popularizó muy
rápidamente, porque permitió dar acceso a través de una Intranet corporativa o a




                                       29
través de la Internet pública a las aplicaciones corporativas propietarias que
existían antes de la popularización de Internet.

El acceso a documentos Web es sólo uno de los usos posibles del Web actual. Los
nuevos servicios Web se denominan interactivos y permiten crear tiendas
electrónicas, servicios de acceso a bases de datos y repositorios de
información, buscadores de información, de soporte a la educación, de
administración electrónica, etc.

La simplicidad de uso del Web unido a su capacidad de interacción con
aplicaciones remotas ha llevado a utilizarlo para unificar el acceso a muchos
otros servicios, utilizando pasarelas de Web a correo electrónico, a grupos de
discusión y de noticias, a soporte a flujos de trabajo, transferencia de
ficheros, etc. Hoy en día el acceso Web se ha convertido en parte de la
arquitectura de Internet, debido a que es utilizado por la mayoría de las
aplicaciones, aunque sólo sea como interfaz de acceso.

Gran parte de los desarrollos de nuevos lenguajes de programación o de nuevos
entornos de desarrollo de aplicaciones aparecidos durante los noventa han tenido
como objetivo facilitar la programación de servicios Web interactivos, por
ejemplo Java, Javascript, PHP, Perl, Pyton, Exchange, .COM, .NET, C#, etc.

Como el navegador es el punto de acceso a la mayoría de los servicios de
Internet, su control se convirtió desde el principio en uno de los objetivos más
codiciados por las empresas de Internet. La primera gran batalla por el control
del acceso a Internet se centró en el control del navegador de acceso a Web.

Netscape fue la primera empresa que vislumbró la importancia del Web y
desarrolló a principios de los noventa el primer visor de calidad, a partir del
navegador "Mosaic", que fue el primero en incorporar gráficos. El nuevo
navegador pasó a denominarse Netscape Navigator, luego Netscape Communicator,
diseminándose masivamente entre los usuarios de Internet. Alcanzó cifras de
penetración del 80 y 90 por ciento. El control del visor aseguraba a Netscape el
control del acceso a Internet, convirtiéndose en una de las empresas que mayor
interés despertó a mediados de los noventa.

Durante algunos años se pensó que nadie sería capaz de desplazar a Netscape de
su posición de dominio. Microsoft tardó bastante en descubrir la importancia que
Internet, y especialmente el Web, iban a tener en el mundo de las aplicaciones.
Pero cuando comprendió la importancia estratégica que suponía controlar el
acceso a Web, concentró grandes recursos en el desarrollo de su navegador
"Explorer", entablándose una fortísima batalla entre ambas empresas [11].
Finalmente Microsoft consiguió imponer "Explorer" a la mayoría de los usuarios
de Internet hacia finales de los noventa, gracias a su distribución gratuita
junto con el sistema operativo Windows.

En este momento, el Web se halla en proceso de redefinición dentro del W3C. HTML
es un lenguaje que ha cumplido muy bien su función como lenguaje de publicación
de documentos en la red, pero no sirve como formato unificado de representación
de datos en Internet, ni soporta adecuadamente la creación de los nuevos
servicios que la red esta demandando. El proceso de redefinición empezó a
finales de los noventa y se va realizando de forma incremental en el marco del
W3C.   La nueva arquitectura Web se construye sobre XML (eXtensible Markup
Language) [12], que gracias a su extensibilidad permite ir creando paso a paso
todos los componentes de la nueva arquitectura. El objetivo perseguido por el
nuevo Web es seguir soportando la publicación de documentos y aplicaciones, pero
permitiendo también la cooperación entre aplicaciones a través de Internet, que
ahora no es posible. Además deberá incorporar capacidades multimedia y calidad
tipográfica en la información publicada, junto con meta-datos semánticos que
permitan buscar y clasificar la información en la red de una forma mucho más
efectiva, tal y como se describe en el próximo capitulo.



                                       30
5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red
La sencillez de instalación de los servidores Web, así como la naturaleza
descentralizada del servicio, produjo desde el primer momento un crecimiento
enorme de la información disponible en la red, cuya catalogación es imposible
siguiendo métodos tradicionales. La búsqueda de información y datos, o incluso
el aprovechamiento de todo el conocimiento que existe en la red se ha convertido
en uno de los objetivos principales de los desarrolladores de nuevas
aplicaciones, que tratan de adaptar a Internet técnicas de minería de datos,
búsqueda de información o gestión del conocimiento.

El máximo avance en este área se ha dado con los robots buscadores de
información encargados de catalogar toda la información disponible en la red.
Los buscadores recorren continuamente la red catalogando en una base de datos
todas las páginas encontradas. La base de datos puede ser consultada por
cualquier usuario, permitiéndole encontrar en pocos segundos informaciones
imposibles de encontrar por otros procedimientos. Yahoo [19] fue el primer
buscador. Rápidamente fue seguido por otros tales como, Altavista, Lycos,
Excite, etc. Pero ha sido “Google” [13], el último en aparecer, el que ha
revolucionado la búsqueda de información en Internet debido a su extraordinaria
eficacia. Google ha desplazado a los demás buscadores y se ha convertido en el
buscador preferido de los usuarios.

La eficacia de Google es tal que está creando una auténtica revolución en la
gestión y almacenamiento de la información. Hay expertos que empiezan a
considerar que la información sólo hay que producirla y ponerla disponible
públicamente en el Web o en alguna red privada. Un buscador de la eficacia de
Google localizará casi de forma instantánea cualquier información que
necesitemos. Las enciclopedias tradicionales no pueden competir con la
información en la red debido a la lentitud que su actualización conlleva. La
búsqueda y producción de información y conocimiento es una tarea de capital
importancia en la sociedad de la información, por lo que la publicación en la
red y la búsqueda automatizada sustituyen cada vez más a los métodos
tradicionales.

El éxito de Google se debe en gran medida a su política de centrarse en        la
eficacia del proceso de búsqueda sin ningún tipo de condicionamiento basado    en
acuerdos económicos con los potenciales beneficiarios. Pero, este éxito        ha
situado a Google en una situación enormemente delicada porque sus algoritmos   de
búsqueda deciden el éxito o el fracaso de muchas empresas, que dependen de     la
forma en que Google ordene las informaciones que presenta a los usuarios.

La mayor parte de la información que existe en la red sólo está accesible en
formato HTML, siendo su análisis y catalogación muy difícil. Google sólo permite
encontrar la información, pero el análisis o la integración automática de la
información HTML encontrada no es posible. El uso eficiente de toda la
información y el conocimiento que existe en la red, probablemente no sea posible
hasta que el Web semántico se desarrolle y sea posible procesar la información
existente en la red utilizando algoritmos que puedan analizar la información
encontrada.

También empieza a despuntar otra tendencia, denominada “open content” (contenido
libre o abierto), que pretende dar una alternativa a la producción de contenidos
tradicional basada en los derechos de autor. La producción de información,
contenidos y conocimientos podría acelerarse mucho si se hiciese de forma libre
y en colaboración a través de la red. El proceso sería muy similar al ocurrido
en el mundo del software, donde la producción basada en derechos de propiedad
con licencias de uso no ha podido competir en muchos casos con desarrollos
basados en grupos de desarrolladores que colaboran a través de Internet en un
proyecto de producción de software libre.


                                       31
5.2.5 Voz y Vídeo sobre IP.
Durante la década de los noventa maduran también las tecnologías de codificación
digital. Primero la codificación de audio y hacia el final de la década la
codificación de vídeo, integrándose los codificadores digitales de audio y video
como periféricos habituales, incluso en PCs de bajo coste. En paralelo IETF
desarrolla la arquitectura de servicios multimedia de Internet, que utiliza los
protocolos RTP/RTCP [2] para enviar flujos de audio y de vídeo a través de
Internet utilizando el protocolo de transporte UDP.

Esto lleva al desarrollo de aplicaciones de telefonía y de videoconferencia IP
que permiten realizar llamadas a un coste inferior al de la red telefónica,
aunque con una calidad que depende del estado de congestión de la red. Por
ejemplo aplicaciones como NetMeeting de Microsoft u otros videotelefónos
permiten realizar llamadas de larga distancia, que tienen una calidad excelente
cuando la red no está congestionada.

Aunque la tecnología básica para envío de voz y vídeo en formato digital a
través de Internet ha alcanzado una madurez notable, a finales de los noventa
todavía hay carencias y factores que frenan el uso de Internet para la
transmisión de voz y vídeo. Los mas importantes son:

  ♦   La incapacidad de garantizar una calidad de servicio en la transmisión, de
      forma que la voz y el vídeo lleguen sin cortes ni interrupciones en
      condiciones de congestión de la red.
  ♦   La dificultad de aplicar los modelos de negocio de telefonía de voz, al no
      ser fácil diferenciar las llamadas locales de las interurbanas o de larga
      distancia.
  ♦   La falta de mecanismos de señalización que permitan reproducir en Internet
      los servicios actuales de la red telefónica, tales como: red inteligente,
      Centrex, PABX, etc.
  ♦   La falta de conectividad extremo a extremo debida a la falta de
      direcciones IP.
  ♦   El mayor coste de los terminales telefónicos con conexión directa a
      Internet.
  ♦   La incapacidad de realizar una difusión eficaz de señales de audio y video
      a grandes audiencias, debido a la falta de protocolos de multicast en las
      redes comerciales.

La desviación del tráfico de voz de la red telefónica actual hacia Internet
reduciría la facturación de los operadores de telefonía muy significativamente,
desincentivando el desarrollo de servicios de voz a través de Internet en dichas
operadoras. Por ejemplo un acceso ADSL o cable con tarifa plana permitiría hacer
llamadas de duración ilimitada a cualquier parte del mundo, sin coste adicional
para el usuario.

Hoy en día sólo se han desarrollado de forma significativa, aunque no masiva,
los servicios de “streaming” (flujos), que permiten difundir audio y vídeo a
través de Internet. La radio por Internet es hoy una realidad existiendo
bastantes emisoras que realizan emisiones de radio a través de la red. También
se realizan de forma más esporádica emisiones de vídeo, aunque necesitan un
mayor ancho de banda, especialmente para vídeos de buena calidad. También han
aparecido servidores de video “streaming” que permiten servir a múltiples
usuarios video bajo demanda. Las técnicas de “streaming” sirven para la difusión
de señales porque los protocolos utilizados para garantizar calidad de audio y
vídeo recibido introducen retardos muy altos. Los fuertes retardos introducidos
no permiten conversaciones telefónicas o videoconferencias interactivas.




                                       32
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación
Hacia un Internet de Nueva Generación

Contenu connexe

Tendances

Nuevas TecnologíAs Y La ComunicacióN
Nuevas TecnologíAs Y La ComunicacióNNuevas TecnologíAs Y La ComunicacióN
Nuevas TecnologíAs Y La ComunicacióNNata Events
 
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)UNIVERSIDAD DE LOS LLANOS
 
Nuevas Tecnologias
Nuevas TecnologiasNuevas Tecnologias
Nuevas Tecnologiasanacris611
 
Evolución Nuevas Tecnologías
Evolución Nuevas TecnologíasEvolución Nuevas Tecnologías
Evolución Nuevas Tecnologíasagustin
 
LizmerysHernandez_Ensayo
LizmerysHernandez_EnsayoLizmerysHernandez_Ensayo
LizmerysHernandez_Ensayolizzyhtorres
 
avanses tecnlogicos en los ultimos años
avanses tecnlogicos en los ultimos años avanses tecnlogicos en los ultimos años
avanses tecnlogicos en los ultimos años 0988160000
 
Importancia De Las Nuevas TecnologíAs
Importancia De Las Nuevas TecnologíAsImportancia De Las Nuevas TecnologíAs
Importancia De Las Nuevas TecnologíAsLennah
 
Semestral pamela pereda campana
Semestral pamela pereda campanaSemestral pamela pereda campana
Semestral pamela pereda campanaPamela Pereda
 
Semestral pamela pereda campana
Semestral pamela pereda campanaSemestral pamela pereda campana
Semestral pamela pereda campanaPamela Pereda
 
Nuevas tecnologias en educacion
Nuevas tecnologias en educacionNuevas tecnologias en educacion
Nuevas tecnologias en educacionVIVIANASABINO
 
Tecnologias de la informacion
Tecnologias de la informacionTecnologias de la informacion
Tecnologias de la informacioncarolina1124
 

Tendances (19)

Nuevas TecnologíAs Y La ComunicacióN
Nuevas TecnologíAs Y La ComunicacióNNuevas TecnologíAs Y La ComunicacióN
Nuevas TecnologíAs Y La ComunicacióN
 
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)
MATERIAL DE APOYO GESTIÓN TECNOLÓGICA - SOFIA PLUS (TICS)
 
Nuevas Tecnologias
Nuevas TecnologiasNuevas Tecnologias
Nuevas Tecnologias
 
Doc apoyo sofia
Doc apoyo sofiaDoc apoyo sofia
Doc apoyo sofia
 
Tic v2
Tic v2Tic v2
Tic v2
 
Tics tller[1]
Tics tller[1]Tics tller[1]
Tics tller[1]
 
Evolución Nuevas Tecnologías
Evolución Nuevas TecnologíasEvolución Nuevas Tecnologías
Evolución Nuevas Tecnologías
 
Introduccion diplomado tic
Introduccion diplomado ticIntroduccion diplomado tic
Introduccion diplomado tic
 
RA24020150012 TICS
RA24020150012 TICSRA24020150012 TICS
RA24020150012 TICS
 
tic
tictic
tic
 
Tmp750101.1 2
Tmp750101.1 2Tmp750101.1 2
Tmp750101.1 2
 
LizmerysHernandez_Ensayo
LizmerysHernandez_EnsayoLizmerysHernandez_Ensayo
LizmerysHernandez_Ensayo
 
Tics
TicsTics
Tics
 
avanses tecnlogicos en los ultimos años
avanses tecnlogicos en los ultimos años avanses tecnlogicos en los ultimos años
avanses tecnlogicos en los ultimos años
 
Importancia De Las Nuevas TecnologíAs
Importancia De Las Nuevas TecnologíAsImportancia De Las Nuevas TecnologíAs
Importancia De Las Nuevas TecnologíAs
 
Semestral pamela pereda campana
Semestral pamela pereda campanaSemestral pamela pereda campana
Semestral pamela pereda campana
 
Semestral pamela pereda campana
Semestral pamela pereda campanaSemestral pamela pereda campana
Semestral pamela pereda campana
 
Nuevas tecnologias en educacion
Nuevas tecnologias en educacionNuevas tecnologias en educacion
Nuevas tecnologias en educacion
 
Tecnologias de la informacion
Tecnologias de la informacionTecnologias de la informacion
Tecnologias de la informacion
 

En vedette

Plan De GestióN Tic Santa LucíA
Plan De GestióN Tic Santa LucíAPlan De GestióN Tic Santa LucíA
Plan De GestióN Tic Santa LucíAalgodonal
 
A.Palmares
A.PalmaresA.Palmares
A.PalmaresPriVidal
 
Ponencia sobre UdE CEP Motilla
Ponencia sobre UdE CEP MotillaPonencia sobre UdE CEP Motilla
Ponencia sobre UdE CEP MotillaDomingo Terencio
 
Software maliciós i fraus en linea
Software maliciós i fraus en lineaSoftware maliciós i fraus en linea
Software maliciós i fraus en lineaquedamosenmicama
 
BOTONES DE ACCION
BOTONES DE ACCIONBOTONES DE ACCION
BOTONES DE ACCIONMariel
 
Art I Educacio Compromesa
Art I Educacio CompromesaArt I Educacio Compromesa
Art I Educacio Compromesalvallve
 
Proyecto
ProyectoProyecto
ProyectoXinlei
 
Aplicaciones de las TIC en la educacion - Tendencias
Aplicaciones de las TIC en la educacion - TendenciasAplicaciones de las TIC en la educacion - Tendencias
Aplicaciones de las TIC en la educacion - TendenciasInternetNG DIT UPM
 
Diapositivasverificacion
DiapositivasverificacionDiapositivasverificacion
Diapositivasverificacionalex013
 
Presentacion Dhcpydns
Presentacion DhcpydnsPresentacion Dhcpydns
Presentacion Dhcpydnsuptc
 
Evaluacion tutoria 2_terminada
Evaluacion tutoria 2_terminadaEvaluacion tutoria 2_terminada
Evaluacion tutoria 2_terminadaalex013
 
C:\Fakepath\PresentacióN1
C:\Fakepath\PresentacióN1C:\Fakepath\PresentacióN1
C:\Fakepath\PresentacióN1clase4diana
 
++ Novetats de setembre de 2013
++ Novetats de setembre de 2013++ Novetats de setembre de 2013
++ Novetats de setembre de 2013Purabiblioteca
 
USO DE LA IMAGEN EN UNA PUBLICACIÓN
USO DE LA IMAGEN EN UNA PUBLICACIÓNUSO DE LA IMAGEN EN UNA PUBLICACIÓN
USO DE LA IMAGEN EN UNA PUBLICACIÓNguestd475b2
 
Guía Clinica Reumatologia
Guía Clinica ReumatologiaGuía Clinica Reumatologia
Guía Clinica Reumatologiaguest16e1fa
 
Diapositivas Web2.0
Diapositivas Web2.0Diapositivas Web2.0
Diapositivas Web2.0David Vargas
 

En vedette (20)

Plan De GestióN Tic Santa LucíA
Plan De GestióN Tic Santa LucíAPlan De GestióN Tic Santa LucíA
Plan De GestióN Tic Santa LucíA
 
A.Palmares
A.PalmaresA.Palmares
A.Palmares
 
Ponencia sobre UdE CEP Motilla
Ponencia sobre UdE CEP MotillaPonencia sobre UdE CEP Motilla
Ponencia sobre UdE CEP Motilla
 
Software maliciós i fraus en linea
Software maliciós i fraus en lineaSoftware maliciós i fraus en linea
Software maliciós i fraus en linea
 
Pacie - Bloque 0
Pacie - Bloque 0Pacie - Bloque 0
Pacie - Bloque 0
 
Los Grupos de Discusión (Focus Group)
Los Grupos de Discusión (Focus Group)Los Grupos de Discusión (Focus Group)
Los Grupos de Discusión (Focus Group)
 
Base datos CINAHL
Base datos CINAHLBase datos CINAHL
Base datos CINAHL
 
BOTONES DE ACCION
BOTONES DE ACCIONBOTONES DE ACCION
BOTONES DE ACCION
 
Ines mòbils
Ines mòbilsInes mòbils
Ines mòbils
 
Art I Educacio Compromesa
Art I Educacio CompromesaArt I Educacio Compromesa
Art I Educacio Compromesa
 
Proyecto
ProyectoProyecto
Proyecto
 
Aplicaciones de las TIC en la educacion - Tendencias
Aplicaciones de las TIC en la educacion - TendenciasAplicaciones de las TIC en la educacion - Tendencias
Aplicaciones de las TIC en la educacion - Tendencias
 
Diapositivasverificacion
DiapositivasverificacionDiapositivasverificacion
Diapositivasverificacion
 
Presentacion Dhcpydns
Presentacion DhcpydnsPresentacion Dhcpydns
Presentacion Dhcpydns
 
Evaluacion tutoria 2_terminada
Evaluacion tutoria 2_terminadaEvaluacion tutoria 2_terminada
Evaluacion tutoria 2_terminada
 
C:\Fakepath\PresentacióN1
C:\Fakepath\PresentacióN1C:\Fakepath\PresentacióN1
C:\Fakepath\PresentacióN1
 
++ Novetats de setembre de 2013
++ Novetats de setembre de 2013++ Novetats de setembre de 2013
++ Novetats de setembre de 2013
 
USO DE LA IMAGEN EN UNA PUBLICACIÓN
USO DE LA IMAGEN EN UNA PUBLICACIÓNUSO DE LA IMAGEN EN UNA PUBLICACIÓN
USO DE LA IMAGEN EN UNA PUBLICACIÓN
 
Guía Clinica Reumatologia
Guía Clinica ReumatologiaGuía Clinica Reumatologia
Guía Clinica Reumatologia
 
Diapositivas Web2.0
Diapositivas Web2.0Diapositivas Web2.0
Diapositivas Web2.0
 

Similaire à Hacia un Internet de Nueva Generación

La Sociedad en Red. Informa anual 2015
La Sociedad en Red. Informa anual 2015La Sociedad en Red. Informa anual 2015
La Sociedad en Red. Informa anual 2015Alfredo Vela Zancada
 
Informe Anual La Sociedad en Red 2015 (edición 2016)
Informe Anual La Sociedad en Red 2015 (edición 2016)Informe Anual La Sociedad en Red 2015 (edición 2016)
Informe Anual La Sociedad en Red 2015 (edición 2016)OptimediaSpain
 
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsiLeticia Lafuente López
 
Las tecnologías de la información y la comunicación
Las tecnologías de la información y la comunicaciónLas tecnologías de la información y la comunicación
Las tecnologías de la información y la comunicaciónTeresapm
 
Proyecto final
Proyecto finalProyecto final
Proyecto finalraulyedgar
 
Tendencia de la informática y sus incidencias
Tendencia de la informática y sus incidenciasTendencia de la informática y sus incidencias
Tendencia de la informática y sus incidenciasjey1312
 
TRABAJO INFORMATICA ricaurte
TRABAJO INFORMATICA ricaurteTRABAJO INFORMATICA ricaurte
TRABAJO INFORMATICA ricaurteAleja Ricaurte
 
Ensayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoEnsayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoValentin Manzano
 
Ensayo telecomunicaciones valentin_manzano_crisanto
Ensayo telecomunicaciones valentin_manzano_crisantoEnsayo telecomunicaciones valentin_manzano_crisanto
Ensayo telecomunicaciones valentin_manzano_crisantoValentin Manzano
 
Ensayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoEnsayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoValentin Manzano
 
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...Algunas cuestiones sobre el uso de internet para los próximos años - María Te...
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...rubn07
 
Intitucion educativa distrital inocencio chinca
Intitucion educativa distrital inocencio chincaIntitucion educativa distrital inocencio chinca
Intitucion educativa distrital inocencio chincaAleja Ricaurte
 

Similaire à Hacia un Internet de Nueva Generación (20)

La Sociedad en Red. Informa anual 2015
La Sociedad en Red. Informa anual 2015La Sociedad en Red. Informa anual 2015
La Sociedad en Red. Informa anual 2015
 
Informe Anual La Sociedad en Red 2015 (edición 2016)
Informe Anual La Sociedad en Red 2015 (edición 2016)Informe Anual La Sociedad en Red 2015 (edición 2016)
Informe Anual La Sociedad en Red 2015 (edición 2016)
 
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi
20160927 informe-anual-la-sociedad-en-red-2015-edicion-2016-ontsi
 
Las tecnologías de la información y la comunicación
Las tecnologías de la información y la comunicaciónLas tecnologías de la información y la comunicación
Las tecnologías de la información y la comunicación
 
Las tic’s
Las tic’sLas tic’s
Las tic’s
 
Proyecto final
Proyecto finalProyecto final
Proyecto final
 
Tendencia de la informática y sus incidencias
Tendencia de la informática y sus incidenciasTendencia de la informática y sus incidencias
Tendencia de la informática y sus incidencias
 
TRABAJO INFORMATICA ricaurte
TRABAJO INFORMATICA ricaurteTRABAJO INFORMATICA ricaurte
TRABAJO INFORMATICA ricaurte
 
Las tic
Las ticLas tic
Las tic
 
Las tic
Las ticLas tic
Las tic
 
Actividade de Aprendizaje 1.1.
Actividade de Aprendizaje 1.1.Actividade de Aprendizaje 1.1.
Actividade de Aprendizaje 1.1.
 
Ensayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoEnsayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benito
 
EL LIBRO ELECTRÓNICO
EL LIBRO ELECTRÓNICO EL LIBRO ELECTRÓNICO
EL LIBRO ELECTRÓNICO
 
El Libro Electronico
El Libro ElectronicoEl Libro Electronico
El Libro Electronico
 
Libro Electrónico
Libro Electrónico Libro Electrónico
Libro Electrónico
 
Informe Tic N1
Informe Tic N1Informe Tic N1
Informe Tic N1
 
Ensayo telecomunicaciones valentin_manzano_crisanto
Ensayo telecomunicaciones valentin_manzano_crisantoEnsayo telecomunicaciones valentin_manzano_crisanto
Ensayo telecomunicaciones valentin_manzano_crisanto
 
Ensayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benitoEnsayo telecomunicaciones samuel_ballesteros_benito
Ensayo telecomunicaciones samuel_ballesteros_benito
 
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...Algunas cuestiones sobre el uso de internet para los próximos años - María Te...
Algunas cuestiones sobre el uso de internet para los próximos años - María Te...
 
Intitucion educativa distrital inocencio chinca
Intitucion educativa distrital inocencio chincaIntitucion educativa distrital inocencio chinca
Intitucion educativa distrital inocencio chinca
 

Plus de InternetNG DIT UPM

Cloud Computing: Ulises frente a Polifemo
Cloud Computing:  Ulises frente a PolifemoCloud Computing:  Ulises frente a Polifemo
Cloud Computing: Ulises frente a PolifemoInternetNG DIT UPM
 
La Aplicación ISABEL: Actividades Educativas interactivas a través de Internet
La Aplicación ISABEL:  Actividades Educativas interactivas a través de InternetLa Aplicación ISABEL:  Actividades Educativas interactivas a través de Internet
La Aplicación ISABEL: Actividades Educativas interactivas a través de InternetInternetNG DIT UPM
 
Redes Sociales e Internet de las Cosas en la Internet del Futur
Redes Sociales e Internet de las Cosas en la Internet del FuturRedes Sociales e Internet de las Cosas en la Internet del Futur
Redes Sociales e Internet de las Cosas en la Internet del FuturInternetNG DIT UPM
 
Pasado, Presente y Futuro de Internet
Pasado, Presente y Futuro de InternetPasado, Presente y Futuro de Internet
Pasado, Presente y Futuro de InternetInternetNG DIT UPM
 
Los crecientes riesgos de la privacidad en Internet
Los crecientes riesgos de la privacidad en InternetLos crecientes riesgos de la privacidad en Internet
Los crecientes riesgos de la privacidad en InternetInternetNG DIT UPM
 
Las TIC en la Educación ­‐ Escenarios de uso intensivo
Las TIC en la Educación ­‐ Escenarios de uso intensivoLas TIC en la Educación ­‐ Escenarios de uso intensivo
Las TIC en la Educación ­‐ Escenarios de uso intensivoInternetNG DIT UPM
 
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad InternetNG DIT UPM
 
Sentando Catedra Manuel Carpio
Sentando Catedra Manuel CarpioSentando Catedra Manuel Carpio
Sentando Catedra Manuel CarpioInternetNG DIT UPM
 
Sentando Catedra Diego R Lopez
Sentando Catedra Diego R LopezSentando Catedra Diego R Lopez
Sentando Catedra Diego R LopezInternetNG DIT UPM
 
Sentando Catedra Espiritu Santo
Sentando Catedra Espiritu SantoSentando Catedra Espiritu Santo
Sentando Catedra Espiritu SantoInternetNG DIT UPM
 
Sentando Catedra Fernando Summers
Sentando Catedra Fernando SummersSentando Catedra Fernando Summers
Sentando Catedra Fernando SummersInternetNG DIT UPM
 

Plus de InternetNG DIT UPM (20)

Cloud Computing: Ulises frente a Polifemo
Cloud Computing:  Ulises frente a PolifemoCloud Computing:  Ulises frente a Polifemo
Cloud Computing: Ulises frente a Polifemo
 
La Aplicación ISABEL: Actividades Educativas interactivas a través de Internet
La Aplicación ISABEL:  Actividades Educativas interactivas a través de InternetLa Aplicación ISABEL:  Actividades Educativas interactivas a través de Internet
La Aplicación ISABEL: Actividades Educativas interactivas a través de Internet
 
Redes Sociales e Internet de las Cosas en la Internet del Futur
Redes Sociales e Internet de las Cosas en la Internet del FuturRedes Sociales e Internet de las Cosas en la Internet del Futur
Redes Sociales e Internet de las Cosas en la Internet del Futur
 
Internet del Futuro
Internet del FuturoInternet del Futuro
Internet del Futuro
 
Empresa 2.0
Empresa 2.0Empresa 2.0
Empresa 2.0
 
Pasado, Presente y Futuro de Internet
Pasado, Presente y Futuro de InternetPasado, Presente y Futuro de Internet
Pasado, Presente y Futuro de Internet
 
La Web del Futuro
La Web del FuturoLa Web del Futuro
La Web del Futuro
 
Identidad Digital en Internet
Identidad Digital en InternetIdentidad Digital en Internet
Identidad Digital en Internet
 
Los crecientes riesgos de la privacidad en Internet
Los crecientes riesgos de la privacidad en InternetLos crecientes riesgos de la privacidad en Internet
Los crecientes riesgos de la privacidad en Internet
 
Las TIC en la Educación ­‐ Escenarios de uso intensivo
Las TIC en la Educación ­‐ Escenarios de uso intensivoLas TIC en la Educación ­‐ Escenarios de uso intensivo
Las TIC en la Educación ­‐ Escenarios de uso intensivo
 
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad
La Privacidad en la Sociedad de la Infomación: Una taxonomía de la privacidad
 
Sentando catedra josebarbera
Sentando catedra josebarberaSentando catedra josebarbera
Sentando catedra josebarbera
 
Sentando Catedra Manuel Carpio
Sentando Catedra Manuel CarpioSentando Catedra Manuel Carpio
Sentando Catedra Manuel Carpio
 
Sentando Catedra Diego R Lopez
Sentando Catedra Diego R LopezSentando Catedra Diego R Lopez
Sentando Catedra Diego R Lopez
 
Sentando Catedra Marc Vidal
Sentando Catedra Marc VidalSentando Catedra Marc Vidal
Sentando Catedra Marc Vidal
 
Sentando Catedra Espiritu Santo
Sentando Catedra Espiritu SantoSentando Catedra Espiritu Santo
Sentando Catedra Espiritu Santo
 
Sentando Catedra Juan Varela
Sentando Catedra Juan VarelaSentando Catedra Juan Varela
Sentando Catedra Juan Varela
 
Sentando Catedra Juan Varela
Sentando Catedra Juan VarelaSentando Catedra Juan Varela
Sentando Catedra Juan Varela
 
Sentando catedra Pedrocanut
Sentando catedra PedrocanutSentando catedra Pedrocanut
Sentando catedra Pedrocanut
 
Sentando Catedra Fernando Summers
Sentando Catedra Fernando SummersSentando Catedra Fernando Summers
Sentando Catedra Fernando Summers
 

Dernier

CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudianteAndreaHuertas24
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 

Dernier (16)

CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 

Hacia un Internet de Nueva Generación

  • 1. Cátedra Telefónica en la UPM Internet de Nueva Generación Hacia una Internet de Nueva Generación (Versión 6, 2 de Enero de 2004) Juan Quemada Catedrático de la ETSI Telecomunicación - UPM y Director de la Cátedra Telefónica en la UPM para Internet de Nueva Generación 1
  • 2. 2
  • 3. PRESENTACION INTERNET DE NUEVA GENERACION, UNA CÁTEDRA PIONERA Este libro ve la luz en un momento crucial para el desarrollo de la Sociedad de la Información en España. Si en años anteriores la crisis con la que comenzó el siglo XXI amenazaba el crecimiento de las Tecnologías de la Información y las Telecomunicaciones (TIC), en este momento los indicadores de referencia dejan ver la luz al final del túnel. El número de internautas, lejos de estancarse, sorprende con un fuerte tirón al alza gracias a la irrupción de la banda ancha, lo que convierte a España en uno de los países punteros de Europa en penetración de ADSL. La conjunción de la tecnología de Internet y la de las comunicaciones móviles augura un cambio trascendental tanto en los medios de producción como en los de ocio en cualquier entorno, sentando las bases de una nueva revolución tecnológica que cambia nuestra forma de relacionarnos, de trabajar, adquirir conocimientos y tratar con las Administraciones Públicas. De igual forma que el desarrollo del ferrocarril o el automóvil han supuesto hitos mesurables en la evolución de las naciones en el pasado siglo, así la inversión en TIC supone una vía segura y eficiente para aumentar el potencial de crecimiento de la economía. El ejemplo más cercano lo tenemos en EE.UU. en donde la apuesta por las TIC guarda un inseparable efecto multiplicador sobre el crecimiento de su economía y el bienestar de sus ciudadanos. En el hogar, la empresa o los centros educativos los usuarios pueden acceder al potencial de información que ponen a su disposición las nuevas tecnologías de la comunicación. La banda ancha no sólo permite navegar por Internet en un ejercicio que era hasta ahora casi privativo del ámbito científico o del mero entretenimiento. La irrupción de la oferta de servicios como la teleasistencia, domótica, educación virtual, vídeo bajo demanda, teleseguridad, telemedicina, etc., señalan ya el futuro del hogar, la escuela o el hospital digital. En un ámbito universitario como en el que nace este libro huelga comentar las ventajas que ofrece Internet para docentes y estudiantes, desde el acceso prácticamente universal a las fuentes del conocimiento a la revolución en los métodos de estudio tanto presenciales como on-line, cambiando el concepto de aulas de informática por el de informática en todas las aulas. Sin embargo, a pesar de que Internet ha irrumpido en las vidas cotidianas de cientos de millones de usuarios, es todavía un arcano para muchos, y lo es aún más la Internet del futuro, la Internet de Nueva Generación. En este libro, el profesor Juan Quemada contribuye a despejar este misterio que rodea a Internet con rigor técnico y claridad expositiva. Se trata de una obra muy útil tanto para el profano que tenga interés por conocer mejor el origen y el funcionamiento de Internet como para los ingenieros y científicos, presentes y futuros, que necesiten un libro de referencia sobre las últimas novedades en IPv6. A través del programa de Cátedras Telefónica del que es pionera la Cátedra de Estudios de Internet de Nueva Generación de la Universidad Politécnica de Madrid, bajo la dirección del profesor Juan Quemada, se fomenta el efecto palanca de la innovación tecnológica apoyando la generación y difusión del conocimiento mediante cursos de postgrado, convocatoria de becas y premios, participación en foros, edición de publicaciones, etc., potenciando en definitiva las relaciones entre la Universidad y la Empresa. La génesis de este libro en el ámbito del programa de Cátedras Telefónica refuerza el compromiso del líder español en telecomunicaciones apoyando la difusión del conocimiento, incentivando la investigación, el desarrollo y la innovación (I+D+I). En el marco de este esfuerzo, este año Telefónica ha favorecido la concesión de mil cien becas, al tiempo que incrementó su actividad como vehículo catalizador del conocimiento en el ámbito universitario a través del portal de la Fundación Telefónica CampusRed.net con más de un millón de visitas y doce millones de páginas vistas. José Maria Sanz-Magallón Subdirector General Relaciones Institucionales y Gestión de Conocimiento de Telefónica S.A. 3
  • 4. 4
  • 5. PRÓLOGO Con gusto escribo unas líneas para prologar este libro, que bajo el título de Hacia una Internet de Nueva Generación recoge los antecedentes históricos de la creación de la red de redes, su evolución y las tendencias futuras. Aunque en la segunda mitad del siglo XX, se han producido numerosas innovaciones científicas y tecnológicas que han transformado nuestra sociedad, incidiendo directamente en la vida de las personas, entre ellas el desarrollo y despliegue de Internet, la multiplicación de sus aplicaciones, la generalización de su uso, al menos en los países del primer mundo, es, sin duda alguna, causa de una de las transformaciones mas importantes que ha permitido el desarrollo de la denominada Sociedad de la Información. Se ha escrito mucho sobre este fenómeno, sobre sus bases tecnológicas, sobre los servicios construidos sobre la red, sobre el ascenso y caída de las .com y el periodo de recuperación, que estamos viviendo en estos momentos, de algunas de las empresas supervivientes de la crisis de finales del siglo pasado. Sin embargo, nos encontramos con una tecnología y unos modelos de negocio en su explotación que están cambiando continuamente, en una fase en que no resulta fácil anticipar el futuro, ni si quiera a corto plazo. Por todas las razones apuntadas, este libro es oportuno y contribuye a clarificar la situación actual y algunas de las previsibles tendencias de futuro. El libro aborda los problemas y soluciones técnicas pasadas, presentes y futuras, y combina de forma equilibrada una visión profesional profunda y detallada con un lenguaje sencillo que permite su lectura a los no especialistas. Esta acertada orientación, unida al hecho de estar escrito en castellano hace de él una referencia obligada. Por otra parte, debo resaltar que el libro es el resultado del trabajo desarrollado por el Prof. Juan Quemada en el marco de la Cátedra Telefónica en la Universidad Politécnica de Madrid sobre Internet de Nueva Generación que tiene la vocación y así viene desarrollándose desde su creación, de convertirse en un foro donde se contribuya con diferentes iniciativas a la discusión promoción y desarrollo de la tecnología y aplicaciones de las versiones más avanzadas de Internet. Desde la universidad estamos muy satisfechos de esta fórmula de colaboración con la empresa en general y, de forma muy especial, con Telefónica. Para concluir, unirme a las palabras del autor, en el sentido de que Internet como red se comporta como un organismo en constante evolución y lo que en estos momentos recibe adecuadamente el calificativo de Nueva Generación, no será sino un escalón más en esa dinámica de cambio, en la que el éxito y la aceptación de los servicios desplegados, así como la seguridad en su uso, serán sin duda, elementos de referencia para poder explorar su futuro. Enhorabuena a su autor por la obra y sea bienvenida. Javier Uceda Antolín Vicerrector de Investigación y Relaciones Institucionales de la UPM 5
  • 6. 6
  • 7. Hacia una Internet de Nueva Generación Índice: 1. Introducción.....................................................................................................................................9 2. Las Redes de Comunicación............................................................................................................9 3. Las Redes de Datos........................................................................................................................11 3.1 Conmutación de circuitos y de paquetes .................................................................................12 4. La Primera Internet ........................................................................................................................14 4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP .........15 4.1.1 Creación de aplicaciones en la primera Internet...............................................................16 4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor............................17 4.1.2 La evolución de las tecnologías de red .............................................................................19 4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet ...............................................20 5. Los Noventa: Internet entra en la Encrucijada ..............................................................................22 5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet .......................................23 5.2 La explosión de las aplicaciones..............................................................................................26 5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. ............26 5.2.2 El primer Web: publicación de documentos en la red......................................................28 5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones...............................................29 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red ..............................31 5.2.5 Voz y Vídeo sobre IP........................................................................................................32 5.3 El difícil control de la seguridad: Los cortafuegos compartimentan la red.............................33 5.4 Los modelos de negocio de Internet. .......................................................................................35 6. El nuevo Milenio: Hacia una Internet de Nueva Generación ........................................................36 6.1 Los nuevos terminales y el acceso a Internet...........................................................................38 6.1.1 Banda Ancha.....................................................................................................................39 6.1.2 WIFI (IEEE 802.11): acceso móvil inalámbrico a red local ............................................40 6.1.3 Servicios de acceso a Internet a través de Teléfono Móvil ..............................................40 6.1.4 El crecimiento de Internet.................................................................................................42 6.2 Aplicaciones y servicios ..........................................................................................................42 6.2.1 La nueva arquitectura del Web .........................................................................................43 6.2.1.1 Web Services y el Web Semántico ............................................................................45 6.2.2 Completando la arquitectura de servicios multimedia: la señalización............................46 6.2.3 Otras aplicaciones.............................................................................................................47 6.3 Un nuevo marco de seguridad .................................................................................................48 6.3.1 La identidad digital ...........................................................................................................49 6.3.2 Los protocolos de seguridad .............................................................................................50 6.4 La evolución de la red y de la arquitectura TCP/IP.................................................................51 6.4.1 La transición de IPv4 a IPv6.............................................................................................52 6.4.2 La calidad del servicio TCP/IP .........................................................................................54 6.4.3 Difusión y comunicación de grupo: multi-envío (multicast)............................................55 7
  • 8. 6.4.4 Redes móviles...................................................................................................................56 6.4.4.1 Acceso inalámbrico en redes 2G y 3G: GPRS, UMTS, etc.......................................57 6.4.5 Movilidad personal y de terminal .....................................................................................57 6.4.6 La evolución de la conmutación y la transmisión ............................................................59 7. Concluyendo ..................................................................................................................................59 8. Agradecimientos ............................................................................................................................62 9. Bibliografía y Referencias .............................................................................................................62 8
  • 9. 1. Introducción La información tiene un papel tan esencial en la sociedad actual, que hemos pasado a denominarla “La Sociedad de la Información”. Todas las áreas relacionadas con la creación, almacenamiento, control, transporte y difusión de la información tienen una enorme importancia estratégica y son uno de los sectores económicos clave en los países más desarrollados. Un transporte rápido, seguro y fiable de información es vital en una sociedad basada en la información y por ello durante las últimas décadas ha habido un intenso proceso de mejora de las redes de telecomunicación, que parece haberse acelerado últimamente con el desarrollo espectacular de la telefonía móvil y de Internet. La evolución de las tecnologías de telecomunicación de las redes de datos y de Internet en particular, ha seguido unas pautas difícilmente predecibles, que vamos a tratar de analizar aquí desde diversas perspectivas, que tratan de abstraer las tendencias, decisiones y hechos más significativos de la historia de Internet. El libro trata de anticipar a partir de estas pautas cómo será la evolución de una Internet en los próximos años. El objetivo de este libro es tratar de ayudar a entender a las personas interesadas en el fenómeno Internet, los factores técnicos que han marcado su historia y que pueden condicionar su futuro. Para ello se da una panorámica que cubre desde los comienzos de la conmutación de paquetes hasta hoy, tratando siempre de simplificar las descripciones lo suficiente como para hacerlas comprensibles sin necesidad de conocimientos técnicos especializados. El primer capítulo sitúa las redes de datos en el contexto del conjunto de redes de telecomunicación, para entrar en el segundo capítulo en una breve descripción de las redes de datos y su evolución histórica. El tercer capítulo describe la primera Internet, su relación con otras propuestas que competían con ella y trata de identificar los factores que permitieron que Internet desbancara al resto de las redes de datos existentes en aquel momento. En el capítulo cuarto se describe la transformación que Internet sufrió durante los años noventa, que permitió satisfacer la enorme demanda de uso y servicios a que se vio sometida. El quinto capítulo describe las transformaciones y tendencias que está sufriendo la Internet actual. Además intenta definir y acotar la Internet de Nueva Generación que se está gestando en estos momentos. El libro termina con las conclusiones y los agradecimientos a todos los que han contribuido a su realización de una u otra forma. 2. Las Redes de Comunicación Los servicios ofrecidos por las redes actuales son mucho más avanzados que en el pasado. Además se encuentran en un proceso continuo de innovación. Sin embargo, actualmente seguimos teniendo los tres tipos de redes troncales en que se ha basado el transporte de información durante las últimas décadas: ♦ Las redes telefónicas ♦ Las redes de difusión de radio y televisión ♦ Las redes de datos También existen otras redes más especializadas o de menor tamaño que ocupan nichos de mercado específicos. 9
  • 10. La red telefónica, especializada en el transporte de voz, ha sido tradicionalmente una de las redes de mayor peso. Esta red está formada por la red fija y la red de telefonía móvil, que ha crecido espectacularmente en los últimos años, debido al avance que supone disponer del servicio telefónico móvil. Las redes de difusión de audio o de vídeo, es decir la radio y la televisión, forman otra de las grandes troncales de comunicación. Estas redes de difusión utilizan normalmente comunicaciones radio, ya sea a través de antenas terrestres o satélites. En algunos países un porcentaje alto de la difusión se realiza también a través de cable. La tercera troncal son las redes de datos, especializadas en transportar paquetes de datos entre ordenadores. Las redes de datos han tenido un desarrollo vertiginoso desde la aparición de Internet [1]. La gran expansión de Internet nunca hubiera sido posible sin la enorme convulsión tecnológica que supuso el desarrollo de la electrónica de estado sólido, que a su vez hizo posible el microprocesador y luego el ordenador personal. Después, la aparición de Internet permitió interconectar los ordenadores en red, convirtiendo el ordenador personal en un eficaz instrumento de ocio, de trabajo y de comunicación interpersonal. Desde hace bastantes años los procesadores permiten digitalizar señales de voz, vídeo o gráficos a un coste muy bajo. Esto hace tecnológicamente viable la unificación tanto de la representación de la información, como de las redes que transportan dicha información. Esta unificación se conoce por el nombre de multimedia. La unificación de la representación de la información multimedia en formato digital ha tenido un fuerte impacto, habiendo provocado la convergencia entre diversos sectores de la economía tales como el sector de los medios de comunicación, la industria cinematográfica, el sector de las telecomunicaciones o el sector informático. La aparición de la información multimedia también permite la unificación del transporte de información a través de una Internet de gran capacidad, aunque este proceso no se ha producido de momento. Es difícil asegurar si en algún momento llegaremos a tener una gran red unificada o no, pero lo que sí parece claro es que Internet ofrece cada vez más y mejores servicios multimedia, que el tráfico de voz y vídeo crece en Internet a medida que pasa el tiempo, y que es muy probable que este tráfico supere al que se cursa por la red telefónica en un futuro no muy lejano. Por otro lado, Internet se basa en un diseño arquitectónico realizado en los años 70 y posee algunas limitaciones que parece necesario eliminar antes de poder extraer todo el potencial que posee. La IETF (Internet Engineering Task Force) [5] y el W3C [12], las organizaciones con mayor influencia en Internet, así como el mundo investigador están trabajando intensamente en el desarrollo de una nueva arquitectura para Internet conocida como Internet de Nueva Generación. Estos desarrollos afectan tanto a la arquitectura de la red, como a las aplicaciones, y una vez desarrollada es muy probable que permita crear una red que mejore muy substancialmente tanto la capacidad de transporte de información de la actual Internet, como los servicios que conocemos. La Internet de Nueva Generación quizá permita crear también la gran red unificada. La nueva Internet aparecerá como evolución de la actual, por lo que es difícil entender el futuro de Internet sin conocer su pasado. Por lo tanto, vamos a revisar la historia de las redes de datos y de Internet para tratar de extrapolar a continuación su evolución futura. 10
  • 11. 3. Las Redes de Datos Las redes de datos pueden considerarse desde el punto de vista técnico como una evolución de las redes telegráficas. En un primer momento los protocolos telegráficos se adaptaron para la transmisión de bloques de información digital, desde los terminales hasta los grandes ordenadores de las primeras generaciones, para pasar a comunicar posteriormente ordenadores entre sí, tal y como ocurre actualmente. En el mundo de las comunicaciones se denomina protocolo al algoritmo que guía y ordena la comunicación entre dispositivos remotos. El nombre de protocolo se debe a que poseen una función similar a la de los protocolos sociales, ordenar las interacciones entre partes. En la sociedad ordenan la interacción entre personas y en las redes de datos ordenan la interacción entre ordenadores. Cuando se diseña una red de datos el primer paso consiste en definir los protocolos que deben seguir los ordenadores para comunicarse entre si, denominándose arquitectura de la red al conjunto de protocolos que utiliza. La comunicación de datos utilizaba inicialmente las redes existentes, fundamentalmente la red telefónica, hasta que durante los sesenta se propone una nueva técnica, denominada “Conmutación de Paquetes” [6] [10]. La conmutación de paquetes es significativamente más eficiente que la conmutación de circuitos para la mayoría de los servicios de telecomunicación actuales, por lo que su aparición inicia un proceso que ha cambiado profundamente el mundo de las telecomunicaciones. A finales de los sesenta y durante los setenta aparecen diferentes propuestas de arquitecturas de redes basadas en conmutación de paquetes, que aunque se utilizaban en entornos muy diferentes, también competían entre sí. Por ejemplo: ♦ Aparece ARPANET en 1968, promovida por el Departamento de Defensa de EEUU. En 1983 ARPANET cambia su arquitectura y se transforma en Internet al incorporar la arquitectura TCP/IP, empezando la expansión imparable que todos conocemos. ♦ Los operadores de telecomunicación empiezan a ofrecer servicios de conmutación de paquetes que venden a las grandes empresas, por ejemplo las del mundo financiero en España. Telefónica ofrece en 1972 uno de los primeros servicios de conmutación de paquetes comerciales a nivel mundial, denominado RSAN, que posteriormente pasó a llamarse IBERPAC al adoptar la norma X.25. ♦ En 1979 se crea USENET, la red de usuarios del sistema operativo UNIX basada en el programa UUCP (UNIX to UNIX Copy Program). En el marco de esta red se desarrollan también ideas y servicios de gran interés, como el servicio de news. En Europa USENET se denominó EUNET. USENET converge hacia Internet de forma natural, debido a que compartían muchos objetivos comunes con el grupo que desarrolló Internet, además de compartir el sistema operativo UNIX en sus desarrollos. ♦ Las operadoras de telecomunicación, especialmente las europeas, empiezan a ofrecer servicios de conmutación de paquetes basados en la norma X.25 publicada por el CCITT en 1976. X.25 evoluciona posteriormente hacia SMDS, FRAME-RELAY, ATM, etc. ♦ Los grandes fabricantes de ordenadores proponen arquitecturas de red que incluyen servicios de usuarios, tales como IBM (red SNA para aplicaciones corporativas o red BITNET para el mundo investigador), Digital Equipment (red DECNET), etc. ♦ El servicio MINITEL que fue enormemente exitoso en Francia. 11
  • 12. Además, hay muchas otras iniciativas que no vamos a comentar aquí. Durante los 80 y principios de los 90 la industria realiza un enorme esfuerzo para definir un modelo de referencia que unifique la arquitectura de las redes de datos. Este modelo es conocido como el modelo OSI (Open Systems Interconnection) de la Organización ISO (International Organization for Stardardization). Casi nadie dudaba entonces sobre el éxito de dicha norma, que de haber triunfado hubiese ocupado el puesto de la Internet actual. Tanto es así que la mayoría de las organizaciones y empresas, incluido el DOD que había financiado el desarrollo de Internet, realizaron planes de implantación del modelo ISO – OSI a finales de la década de los ochenta. Durante ese periodo, Internet, que ya está operativa, se va introduciendo en el mundo universitario e investigador. A principios de los noventa la definición del modelo ISO - OSI está incompleta e Internet en cambio crece vertiginosamente, por lo que las empresas y organizaciones más innovadoras empiezan a introducir Internet. A finales de los años ochenta en algunos países, fundamentalmente europeos, existen ya servicios comerciales de redes de datos basados en la norma X.25, que se utilizaban fundamentalmente en el ámbito corporativo y financiero. Pero el éxito de Internet lleva a la creación de servicios comerciales basados en TCP/IP, conocidos como ISPs (Internet Service Providers). A partir de entonces Internet empieza a introducirse a un ritmo imparable tanto en las empresas como en los hogares. El DOD vuelve a alinear sus redes y desarrollos con Internet a principios de los 90. 3.1 Conmutación de circuitos y de paquetes Antes de la conmutación de paquetes, la mayoría de las redes se basaban en la “Conmutación de Circuitos”. En estas redes el intercambio de información sólo se puede realizar cuando se ha establecido el circuito. El funcionamiento del teléfono ilustra muy bien como funciona la conmutación de circuitos. Primero hay que establecer el circuito con una llamada. Sólo se puede intercambiar información, es decir hablar con nuestro interlocutor, cuando el circuito está establecido y nuestro interlocutor está en el otro extremo. Figura 2.1. Conmutación de Circuitos En cambio, la conmutación de paquetes funciona de un modo similar al correo postal. En este tipo de comunicación la información puede enviarse en cualquier momento sin necesidad de esperar a que el destinatario esté preparado para recibirla, tal y como se hace con el correo postal. Para enviar un bloque de información digital simplemente hay que introducirlo en un “Paquete” y enviarlo. Un “Paquete” es similar a una carta. Lleva una cabecera con información sobre el destinatario y el remitente. El paquete envuelve y delimita el bloque de información, como si fuese el sobre en un envío postal. Un paquete se denomina 12
  • 13. también “Datagrama”, probablemente porque sus diseñadores lo consideraron una variante del telegrama, debido a la velocidad con que se transmiten los paquetes de datos. El paquete, la carta electrónica, también hay que enviarlo a una estafeta de correos digital, que en el caso de Internet es el “Router” o “Encaminador de Paquetes”. El router tiene como función clasificar los paquetes recibidos y enviar cada uno a la siguiente estafeta digital del camino hacia su destino, exactamente igual que en el servicio postal. Por lo tanto para enviar un mensaje de un ordenador a otro simplemente se empaqueta en uno o varios paquetes, que se envían al router más próximo para que este lo reenvíe hacia su destino. Figura 2.2. Conmutación de Paquetes La función básica de un router es almacenar y reenviar paquetes. Los paquetes llegan por las conexiones entrantes, para ser almacenados en la lista de espera de la conexión de salida por la que debe continuar. El paquete continúa cuando le llega su turno de reenvío, después de que los paquetes anteriores de la lista de espera hayan sido enviados. Por eso, la “conmutación de paquetes” recibe también el nombre de “almacenamiento y envío”. Figura 2.3. Router o Conmutador de Paquetes La conmutación de paquetes es mucho mas eficiente que la conmutación de circuitos en el envío de datos esporádicos dispersos en el tiempo, tal y como requieren la mayoría de los servicios de datos. Permite incluso un aprovechamiento más eficaz del ancho de banda en comunicaciones de voz utilizando técnicas de detección de silencios y codificadores de gran eficiencia. El modelo de conmutación de paquetes descrito anteriormente es el utilizado por el protocolo IP de Internet y corresponde a un servicio de conmutación de paquetes de tipo datagrama (sin conexión). También existe otro servicio de conmutación de paquetes, denominado orientado a conexión, que permite crear circuitos virtuales, combinando elementos de la conmutación de circuitos y de paquetes. El servicio orientado a conexión es más complejo, por lo que no vamos a describirlo aquí, aunque es utilizado por muchos otros protocolos como por ejemplo, X.25, FRAME RELAY, ATM, MPLS, en conmutación óptica, TCP, etc. 13
  • 14. 4. La Primera Internet Internet nace, financiada por DARPA (Defense Advanced Research Project Agency), durante la guerra fría. DARPA fue creada por el ejército norteamericano en 1957, a raíz del lanzamiento ruso del Sputnik, para asegurar la supremacía de EEUU en tecnologías de uso militar. Los gestores de DARPA trataron de involucrar a la comunidad investigadora de EEUU de forma abierta, en contraposición al secretismo imperante en la mayoría de los proyectos militares de la Unión Soviética y lo consiguieron plenamente. El modelo de gestión de proyectos utilizado por DARPA y por otros programas del DoD (Department of Defense) de EEUU ha tenido un enorme éxito a largo plazo, porque no sólo lleva al desarrollo de ARPAnet o de Internet, sino de muchas otras tecnologías clave para la sociedad de la información, tales como gran parte de la tecnología electrónica de estado sólido, del sistema operativo BSD UNIX (que tanta influencia ha ejercido en el mundo de la informática), etc. Todos estos proyectos han tenido una enorme influencia en el mundo de la tecnología y es muy probable que sin ellos el panorama actual fuese muy diferente. Los gestores de los programas y fondos de investigación deberían estudiar el modelo de financiación y gestión utilizado por DARPA, porque la eficacia de aquellos proyectos, así como el impacto conseguido, no han sido igualados por ningún otro programa de desarrollo tecnológico. El proyecto inicial [6] tuvo como objetivo el desarrollo de una red tolerante a fallos de sus nodos, que se denominó ARPAnet. Para conseguir este objetivo la red debía tener un control descentralizado y redundancia en rutas y nodos. En términos militares la nueva red debía ser capaz de sobrevivir a un ataque nuclear, un objetivo de capital importancia durante la guerra fría. Es curioso constatar como un requisito de carácter militar, la tolerancia a fallos en sus nodos, ha sido probablemente la principal razón de su éxito a largo plazo. Este requisito llevó a sus diseñadores a desarrollar técnicas de conmutación de paquetes con encaminamiento adaptativo, de forma que las redes resultantes fuesen capaces de reconfigurarse si algún nodo dejaba de operar. La arquitectura resultante, además de ser adaptativa, reduce el coste del transporte de información porque utiliza los recursos de la red más eficientemente que la conmutación de circuitos tradicional, especialmente cuando se envían bloques sueltos de información. En la década de los 70, estando ARPAnet y otras redes ya en uso, surgió la necesidad de interconectar las redes existentes entre sí. Es en este momento cuando comienza el desarrollo, de lo que hoy conocemos como Internet, por un grupo de investigadores liderados por Vinton Cerf y Robert Kahn [3, 10]. Su objetivo fue desarrollar una arquitectura y unos protocolos que permitiesen interconectar varias redes heterogéneas, transformándolas en una única red. Este proyecto lleva la desarrollo de la arquitectura TCP/IP en la que se basa Internet. En la base de esta arquitectura está el protocolo IP, abreviatura de “Internet Protocol”, que en castellano significa “protocolo entre redes”. La nueva red pasa a denominarse Internet debido al papel fundamental que este protocolo tiene en la nueva arquitectura. Los routers son los dispositivos encargados de encaminar paquetes entre redes y su comportamiento se rige por las reglas que marca el protocolo IP. Aunque la gestación de Internet empieza en los setenta, el nacimiento real de Internet se produce el 1 de Enero de 1983. Ese día muchas de las redes relacionadas fundamentalmente con ARPANET instalan en sus routers y ordenadores la arquitectura TCP/IP y “La Red” comienza a funcionar. A partir de entonces, Internet crece imparablemente. 14
  • 15. Durante una década su crecimiento se centra en el mundo investigador, hasta que a finales de la década de los 80 Tim Berners-Lee propone un nuevo servicio: “The World Wide Web” [4]. La facilidad de uso del nuevo servicio dispara la introducción masiva de Internet en empresas y hogares, desbancando del mercado a las demás redes. 4.1 La primera arquitectura de Internet: aplicaciones “extremo a extremo” sobre TCP/IP La arquitectura IP tiene tres protocolos como componentes fundamentales: IP, TCP y UDP (figura 3.1). El protocolo IP da un servicio de datagramas y tiene como función principal encaminar paquetes desde su origen hasta su destino, a través de todas las redes que componen Internet. Para poder realizar esta función cada ordenador conectado a la red se identifica por una dirección única en la red, conocida como dirección IP. La dirección IP del destinatario va en todos los paquetes y sirve para que los routers puedan encaminar el paquete correctamente hasta su destino. Todo paquete incluye también la dirección del remitente que es utilizada para el envío de paquetes de respuesta. El protocolo IP se diseñó utilizando direcciones de 32 bits, que permiten identificar hasta unos 4.000.000.000 ordenadores diferentes. En los 70 parecía imposible que el mundo llegase a tener tal cantidad de ordenadores. La asignación de direcciones únicas es una tarea administrativa de vital importancia para el funcionamiento de Internet. Esta tarea fue realizada en un principio por ICCB (Internet Configuration Control Board), creada en 1979. A medida que crecía su importancia se fueron creando estructuras más representativas para su administración como IANA (Internet Assignment Number Authority) y finalmente ICANN (Internet Corporation for Assigned Names and Numbers)[18] que delega la asignación de direcciones IP en organizaciones de tipo regional y local. Las organizaciones que solicitaban direcciones recibían bloques de direcciones IP. Se asignaban 3 tipos de bloques de direcciones dependiendo del tamaño de la organización solicitante: 1. Asignación de Clase A: Bloque de unas 16.000.000 direcciones para grandes organizaciones. 2. Asignación de Clase B: Bloque de unas 65.000 direcciones para organizaciones medianas. 3. Asignación de Clase C: Bloque de 256 direcciones para organizaciones pequeñas. Los usuarios que recibían un bloque de direcciones se comprometían a seguir unas normas de buen comportamiento en el uso de Internet, denominadas “Internet Code of Conduct” [30]. En caso de no seguir dichas normas, la asignación de direcciones podía ser retirada por el organismo administrador. Muchos de los males de la Internet actual se deben a la forma en que se asignaron las primeras direcciones. No se utilizó un plan jerárquico y además las asignaciones fueron muy generosas hasta principios de los noventa. Una gran cantidad de direcciones asignadas entonces nunca se han utilizado. En este momento se ha asignado aproximadamente la mitad del espacio de direcciones de IP y se están utilizando menos del 10% de las direcciones asignadas. Los diseñadores de Internet añadieron sobre el protocolo IP, el protocolo TCP (Transmission Control Protocol) encargado de garantizar la entrega íntegra de los mensajes en su destino. Además de TCP, también se añadió el protocolo UDP (User Datagram Protocol) para comunicaciones no fiables. Sobre estos dos protocolos se instalan las aplicaciones. 15
  • 16. Internet necesita para su funcionamiento y gestión otros protocolos tales como ICMP (Internet Control Message Protocol), ARP (Address Resolution Protocol), etc. Pero son TCP e IP los que realmente la caracterizan, por lo que la arquitectura de Internet se conoce también como arquitectura TCP/IP [2]. Los protocolos TCP, UDP e IP forman la capa intermedia de la red tal y como se muestra en la Figura 3.1. Estos protocolos fueron diseñados para poder conectar, tanto con una gran variedad de tecnologías de red, como con una gran variedad de aplicaciones. Es decir, normalizan sólo lo estrictamente necesario para desacoplar las tecnologías de red, de las aplicaciones. IP hace de interfaz con las redes que se interconectan a Internet y se especializa en encaminar paquetes entre redes. TCP y UDP hacen de interfaz con las aplicaciones dando un interfaz de acceso normalizado. Figura 3.1. Arquitectura “extremo a extremo” de las aplicaciones sobre TCP/IP Las claves del éxito de Internet parecen ser tres: ♦ La facilidad de diseño y programación de nuevas aplicaciones que utilizan los protocolos TCP y UDP a través del interfaz de “socket”. ♦ La enorme capacidad de los órganos de gestión de Internet para innovar, adaptarse a situaciones cambiantes o de reaccionar frente a problemas. ♦ La capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, sin afectar el funcionamiento de sus aplicaciones. Pasemos a analizar los factores que han dado a Internet su gran capacidad para incorporar nuevas tecnologías de red, para soportar eficazmente el diseño de aplicaciones, así como para innovar y adaptarse a nuevas situaciones. 4.1.1 Creación de aplicaciones en la primera Internet Una de las razones principales del éxito de Internet fue su capacidad para soportar eficazmente el diseño de aplicaciones. La existencia del interfaz de “socket”, que permite programar aplicaciones con gran facilidad, es uno de los factores que facilitó el desarrollo de nuevas aplicaciones. El interfaz de “socket” TCP es muy similar al interfaz de comunicación entre procesos de UNIX basado en tuberías (pipes en inglés), por lo que el porte o la adaptación de aplicaciones UNIX a Internet fue bastante sencilla, al estar la mayoría de los programas en código abierto. Esto permitió que Internet dispusiese de aplicaciones operativas casi desde el primer momento, dándole una ventaja muy significativa sobre otras redes que tardaron mucho más en disponer de aplicaciones. 16
  • 17. Otro factor factor importante fue la decisión de diseñar IP para ofrecer un servicio de datagrama y de añadir un nivel de transporte que ofrece a las aplicaciones tanto un servicio de datagramas, como un servicio orientado a conexión: ♦ El protocolo TCP ofrece un servicio orientado a conexión ♦ El protocolo UDP ofrece un servicio de datagramas La utilización de un protocolo de red orientado a conexión, tal y como proponía X.25, no hubiese permitido ofrecer un servicio de datagramas eficaz a nivel de transporte. Su implementación hubiese sido muy ineficaz, porque obliga a establecer un circuito por cada datagrama a enviar. También contribuyó al éxito de Internet la naturaleza extremo a extremo de las aplicaciones de Internet, que residen solamente en los ordenadores de los extremos. Esto facilita y abarata el desarrollo y la puesta a punto de nuevas aplicaciones. La mayoría de las aplicaciones se pudieron desarrollar y probar con uno o dos ordenadores conectados a la red. Internet difiere radicalmente de la red telefónica en lo que a despliegue de nuevas aplicaciones se refiere. Las aplicaciones de la red telefónica se instalan normalmente dentro de la red, necesitando un costoso proceso de puesta a punto e instalación que involucra fundamentalmente a los operadores de la red. Esto facilita el despliegue de nuevos servicios y aplicaciones, porque evita que los usuarios deban realizar las instalaciones, ahorrándoles una gran cantidad de trabajo. Los primeros usuarios de Internet eran en su mayoría expertos informáticos que instalaban las nuevas aplicaciones y servicios sin problemas porque era parte de su actividad investigadora. El crecimiento de Internet ha incorporado una mayoría de usuarios que no tienen conocimientos informáticos, por lo que la facilidad de instalación de una aplicación ha pasado a ser hoy un factor crítico, habiendo aparecido el concepto de “conectar y usar” (Plug & Play en ingles). Todos estos factores convirtieron a Internet en un entorno excelente para experimentar con nuevas aplicaciones y servicios desde el primer momento. Cuando alguna aplicación se hacía popular, se desplegaba rápidamente a toda la red, debido a la facilidad con que los usuarios podían instalarlas. 4.1.1.1 Las primeras aplicaciones y servicios: el modelo cliente-servidor Las aplicaciones de Internet utilizan los protocolos TCP, UDP e IP a través de un interfaz de programación de aplicaciones que recibe el nombre de interfaz de “socket”. “Socket” significa enchufe en inglés y probablemente fue escogido por la similitud con la función que tiene un enchufe para la conexión de aparatos eléctricos a la red. El “socket” normaliza el acceso de las aplicaciones a la red, simplificando enormemente la realización de aplicaciones. TCP y UDP proporcionan servicios de transporte de datos radicalmente diferentes, teniendo cada uno su interfaz de “socket” propio. El protocolo TCP proporciona a la aplicación un servicio de transporte de datos orientado a conexión y fiable. Es un servicio que permite crear circuitos virtuales a través de los cuales dos aplicaciones en dos ordenadores diferentes pueden intercambiar datos entre sí. Los sockets TCP son el mecanismo de comunicación básico del modelo cliente-servidor, utilizado en la mayoría de las aplicaciones de Internet: 1. El cliente permite al usuario acceder a servicios de Internet. Los clientes acceden a los servicios estableciendo un circuito virtual con el 17
  • 18. servidor que provee dicho servicio. A través de dicha conexión solicitan páginas Web, ficheros, ejecución de aplicaciones en otras maquinas, envío de mensajes, etc. 2. El servidor suministra el servicio a los clientes. Los servidores de aplicaciones poseen una dirección IP y un puerto conocidos a través de los cuales pueden dar servicio a muchos clientes simultáneamente. Un último factor a resaltar de TCP, es su diseño como un protocolo capaz de adaptarse a situaciones de congestión de forma que tratase de evitar el colapso de la red. TCP introduce algoritmos de colaboración grupal, de forma que cuando detecta situaciones de congestión reduce progresivamente su cadencia de transferencia para ayudar a descongestionar la situación. Este algoritmo consigue que las aplicaciones basadas en TCP sigan funcionando en situaciones de congestión, aunque su tiempo de respuesta se ralentice. Esta característica ha permitido que Internet pudiese dar un servicio lento pero aceptable durante los primeros años en que la red estuvo muy congestionada. El protocolo UDP proporciona a una aplicación un servicio no fiable de envío de datagramas o bloques de datos. Es un servicio que inicialmente se utilizó menos en las aplicaciones debido a que no garantiza la entrega de los datos enviados. Su uso está aumentando actualmente, porque es más adecuado para el envío de señales de audio y vídeo. Como ya hemos comentado, las primeras aplicaciones fueron en muchos casos versiones adaptadas de aplicaciones o servicios que ya existían en los sistemas operativos UNIX, tales como, enviar correos electrónicos de un usuario a otro, copiar ficheros de un directorio a otro, acceso remoto desde terminales, etc. También se desarrollaron algunas aplicaciones que utilizaban las nuevas posibilidades que permitía la red. Así aparecieron servicios tales como: ♦ El servicio DNS (Domain Name System), que permite asignar nombres simbólicos a los ordenadores conectados a Internet y crear los identificadores/localizadores uniformes de servicios o URI/URL (Uniform Resource Identifiers/Locators). ♦ El correo electrónico, conocido como e-mail, soportado por múltiples protocolos tales como, SMTP, POP, IMAP, etc. ♦ La transferencia remota de ficheros, conocida por el nombre del protocolo (FTP - File Transfer Protocol), que se normalizó a tal efecto. ♦ El acceso remoto a un ordenador, que permitía trabajar como un usuario local desde otro ordenador situado en cualquier parte del mundo, conocido también por el nombre del protocolo (TELNET). ♦ El servicio de News que soportaba foros y grupos de discusión abiertos a todas las personas conectadas a la red. El motor de la expansión de la primera Internet fue fundamentalmente el correo electrónico y también en menor grado la transferencia de ficheros. El correo electrónico facilitó enormemente la comunicación y la colaboración entre personas conectadas a la red. Aunque los primeros correos electrónicos sólo permitían enviar mensajes de texto, pronto se generalizaron para poder adjuntar ficheros, con lo que su utilidad aumentó muy significativamente. El desarrollo de nuevos servicios fue una prioridad desde el primer momento en Internet. La arquitectura extremo a extremo posibilitó la experimentación con nuevas ideas y servicios que maduraron en la década de los noventa. Los nuevos servicios abordaban temas tales como: ♦ Publicación electrónica de información en la red. ♦ Creación de comunidades y grupos de interés en la red. ♦ Automatización de procesos y flujos de trabajo. ♦ Realización de transacciones comerciales a través de la red. 18
  • 19. Búsqueda y localización de información en la red. ♦ Comunicación síncrona, tal como Chats, IRCs o voz y vídeo sobre IP. ♦ ... 4.1.2 La evolución de las tecnologías de red Otra clave del éxito de Internet parece estar en la capacidad de IP para incorporar nuevas tecnologías de red de forma incremental, permitiendo al mismo tiempo que las aplicaciones existentes sigan funcionando. Esta capacidad de evolución incremental ha permitido la convivencia en un único marco operativo de todo tipo de tecnologías de red. Así Internet empezó utilizando modems punto a punto de entre 1200 b/s y 19200 b/s. Luego incorporó modems más rápidos, diversas redes locales (Ethernet, token bus, Fast Ethernet, Gigabit Ethernet, etc.), enlaces SDH, redes ATM, acceso ADSL o xDSL, etc. IP permite ir añadiendo todas estas nuevas tecnologías de red. Los diseñadores de la arquitectura TCP-UDP/IP tomaron la decisión de diseñar IP para un servicio de datagramas con la misión exclusiva de encaminar paquetes entre los extremos, dejando el control de la comunicación extremo a extremo a los protocolos TCP y UDP. Esta decisión de diseño libera al router de tener que controlar elementos de las aplicaciones. El router sólo debe conmutar paquetes en función de sus tablas de direccionamiento, cuyo tamaño no depende de las aplicaciones de usuario, sino de parámetros dependientes de la topología de la red y de la asignación de direcciones realizada. Las conexiones de usuario se controlan sólo en los extremos, liberando a la red de esta función. Por lo tanto la capacidad de conmutación de un router no depende del número de aplicaciones o comunicaciones de usuario que soporta, sino de su capacidad genérica de conmutación de paquetes. Otras redes, tales como la red telefónica o la red X.25, están o estaban basadas en protocolos orientados a conexión y necesitan controlar el estado de cada conexión en cada uno de los nodos por donde pasa la conexión. Un servicio orientado a conexión necesita establecer la conexión antes de intercambiar datos, pudiendo realizar una reserva previa de recursos que permite una gestión más eficaz, pero que consume recursos en los nodos o conmutadores, haciéndolos más complejos y costosos. Por ejemplo, la central telefónica necesita controlar individualmente el estado de cada una de las conexiones de voz establecidas, además de controlar la conmutación de la voz. Muchas tecnologías de red usadas actualmente en Internet son orientadas a conexión y no de tipo datagrama. Por ejemplo, la conmutación óptica se hace con técnicas de conmutación de circuitos, asimismo ATM (Asynchronous Transfer Mode) o MPLS (Multi Protocol Label Switching), utilizan protocolos orientados a conexión. La reserva de recursos realizada permite optimizar algunas funciones de los protocolos en un entorno donde no existen los problemas de escalabilidad que aparecen en el nivel de red IP. Durante mucho tiempo los expertos estuvieron fuertemente divididos sobre la conveniencia de utilizar servicios de datagrama (sin conexión) o servicios orientados a conexión. La evolución tecnológica parece haber dado la razón a ambos, habiendo seleccionado en cada parte de la red el protocolo que mejor se adapta a las condiciones específicas de cada función. Un protocolo orientado a conexión parece más eficaz para grandes capacidades de conmutación entre grupos de usuarios de tamaño limitado, donde los circuitos virtuales quedan establecidos durante largos periodos de tiempo. En cambio, un protocolo de datagramas parece escalar mejor a grandes poblaciones de usuarios y aplicaciones, debido a que los nodos (routers) no deben controlar el estado de cada una de las conexiones establecidas, siendo su única función enrutar la información de acuerdo a la tabla de encaminamiento. 19
  • 20. El protocolo IP y la arquitectura de Internet también fueron capaces de crear una estructura jerárquica cuando la red creció y hubo que dar cabida a todas las subredes que iban apareciendo. La nueva estructura jerárquica se basa en la partición de Internet en Sistemas Autónomos (AS – Autonomous Systems) a los que se asigna una nueva dirección de AS. El encaminamiento de paquetes entre sistemas autónomos se realiza con un protocolo de encaminamiento, BGP (Border Gateway Protocol), diferente del utilizado para encaminar paquetes dentro de un sistema autónomo. La Figura 3.2 describe la arquitectura actual de Internet compuesta por sistemas autónomos (AS) y puntos neutros (NAP – Network Access Point). En el primer nivel (Tier 1) están los proveedores de larga distancia, en el segundo nivel (Tier 2) los proveedores nacionales, etc. La asignación de direcciones inicial no tuvo en cuenta esta jerarquía porque todavía no existía. Los routers del núcleo de la red necesitan unas tablas de direccionamiento de gran tamaño para encaminar paquetes IP, debido a que las tablas deben contener todos los rangos de direcciones IP existentes dentro de cada sistema autónomo, que suelen ser muchos y estar dispersos. Si hubiese existido una asignación jerárquica, cada sistema autónomo tendría asignado un único prefijo y el tamaño de las tablas de encaminamiento se reduciría muy significativamente. Figura 3.2. Jerarquía de Sistemas Autónomos 4.1.3 ISOC, IETF y las reglas que sirvieron para crear Internet El desarrollo de Internet nos permite obtener enseñanzas de gran interés sobre la forma en que se desarrollan actualmente las tecnologías de la información y de las comunicaciones. Probablemente su éxito se deba en gran medida a los métodos de trabajo utilizados por sus desarrolladores, que difieren muy significativamente de los métodos utilizados por los organismos de normalización tradicionales, como por ejemplo, ISO (International Standards Organisation), ITU (Internacional Telecomunication Union), IEEE, etc. El desarrollo de Internet siguió desde sus comienzos unos métodos de trabajo muy participativos, que se recogen en las reglas de funcionamiento de ISOC (Internet Society) [18] cuando se crea en 1986 para coordinar el desarrollo de Internet. 20
  • 21. ISOC se gobierna por dos comités, IAB e IESG, cuyos miembros son elegidos por las personas afiliadas a ISOC. La asignación de direcciones IP adquiere una importancia muy grande y se delega en otras organizaciones, como ya hemos comentado anteriormente. El trabajo técnico lo realiza la IETF (Internet Engineering Task Force) [5] bajo la supervisión de IAB y IESG. IETF se estructura en grupos de trabajo (WGs), que se rigen por las siguientes normas de funcionamiento: ♦ Libertad de proponer soluciones: los grupos (WGs) se pueden proponer libremente por cualquier miembro. El trabajo de un WG debe abordar problemas técnicos pendientes de solución. La creación de nuevos grupos necesita el visto bueno del IESG. ♦ Funcionamiento abierto y democrático: cualquiera puede participar en los WGs y toda la información manejada por un WG es pública. Los miembros de la todos los comités, IAB, IESG, …, son elegidos por los miembros de ISOC. ♦ Soluciones consensuadas y validadas: las propuestas consensuadas por un WG se publican en RFCs (Requests for Comments). Un RFC debe ser validado en implementaciones reales antes de progresar como norma. Sólo se puede hacer una propuesta de norma (DS – Draft Standard) con un mínimo de dos implementaciones de referencia, realizadas por grupos diferentes y que interoperen. ♦ Competencia y necesidad: las RFCs pueden competir entre sí, dejando a los usuarios la labor de decidir entre propuestas competitivas. ♦ Uso de la red: aunque los grupos de trabajo se reúnen varias veces al año, utilizan la red como herramienta de comunicación permanente. Cada grupo tiene al menos una lista de distribución por donde deben circulan todos los mensajes relacionados con el trabajo del grupo y un repositorio de ficheros donde deben estar todos los documentos que maneja el grupo de trabajo. Los desarrolladores de Internet también utilizaron algunas prácticas menos explícitas, pero que también contribuyeron significativamente a su éxito: ♦ Software libre: El uso de “software libre”, que aunque no fue un requisito, fue muy utilizado en los desarrollos de software relacionados con Internet. El uso de software libre permitió aglutinar rápidamente grandes grupos de usuarios que realizaban pruebas exhaustivas y proponían mejoras, acelerando los desarrollos. ♦ Uso del formato ASCII: El uso intensivo de texto ASCII, tanto en RFCs, como en las cabeceras y mensajes de la mayoría de los protocolos. Esto facilitaba la portabilidad entre máquinas, así como la depuración y el análisis de protocolos y aplicaciones, evitando costosos equipos de prueba. ♦ Uso del TELNET: El uso de texto ASCII en la mayoría de los formatos de mensaje de los protocolos de Internet permite probar y analizar estos protocolos y aplicaciones utilizando TELNET, el protocolo de emulación de terminal remoto. Los costosos analizadores y emuladores de protocolos que utilizan otras redes no fueron necesarios, abaratándose el desarrollo de nuevos servicios y aplicaciones. ♦ Conectividad extremo a extremo: La naturaleza “extremo a extremo” de las aplicaciones también es otro factor que contribuyó a abaratar el desarrollo y la puesta a punto de aplicaciones, sobre todo desde la aparición del PC. Uno o dos PCs conectados a Internet son suficientes para desarrollar y probar la mayoría de las aplicaciones. Estas normas de funcionamiento hacen de Internet un sistema en evolución cuyas reglas crearon desde el principio una gran comunidad de usuarios que no sólo se benefició del uso de la red, sino que participó en la selección y prueba de los mejores protocolos y aplicaciones. Esta capacidad de evolución, adaptación e 21
  • 22. innovación ha sido probablemente decisiva en el éxito de Internet frente a otras propuestas de redes de datos. Hoy en día los intereses comerciales ejercen una enorme presión sobre Internet y han transformado muy significativamente el espíritu inicial. Pero Internet es todavía uno de los entornos más abiertos, manteniendo una enorme vitalidad y capacidad de innovación. IETF sigue siendo un foro abierto donde cualquier investigador puede acudir, aunque le sea difícil competir con los enormes recursos que las grandes empresas de Internet dedican a IETF, mientras que el resto de organizaciones de normalización siguen restringiendo el acceso a representantes de países o empresas que deben desembolsar grandes cantidades de dinero para poder participar. No parece previsible que las reglas que han permitido evolucionar a Internet de una forma tan exitosa vayan a cambiar significativamente en un futuro próximo, por lo que es muy probable que la gran comunidad de empresas, usuarios e investigadores que han creado Internet siga haciendo evolucionar la red en los años futuros y desarrolle el potencial que todavía queda por desarrollar. Estas reglas de funcionamiento también se han utilizado en otros desarrollos de software libre, como por ejemplo en el sistema operativo Linux, que también ha entrado últimamente en una fase similar a Internet debido al interés que ha despertado en los últimos años como alternativa a Windows. 5. Los Noventa: Internet entra en la Encrucijada La década de los noventa se caracteriza por la enorme demanda de conexión de nuevos sistemas, que obligan a Internet a crecer muy por encima del tamaño para el que la red había sido diseñada. Durante esta década Internet deja de ser un servicio para el mundo investigador, transformándose en un servicio comercial para el que tampoco había sido diseñada. Los usuarios de Internet no solo crecen en número, sino también en diversidad, conectándose muchos usuarios sin conocimientos informáticos que demandan una instalación y un uso más sencillo de los nuevos servicios y aplicaciones. Internet se gestó en los años 70 cuando sólo existían ordenadores grandes (Mainframes) y medianos (Minis). Nadie pudo imaginar entonces, la enorme proliferación de ordenadores que iba a provocar la aparición del ordenador personal. Internet pudo crecer por encima de los límites para los que había sido diseñada y salir de esta encrucijada, pero a costa de romper uno de sus principios básicos, la arquitectura extremo a extremo de las aplicaciones. A principios de los noventa se empieza a detectar el agotamiento de las clases A y B, llevando a IANA a introducir un nuevo procedimiento de asignación de direcciones jerárquico y mucho más restrictivo. IETF trabaja en paralelo en la búsqueda de soluciones. La propuesta que realmente ahorra direcciones IP y se impone mayoritariamente, está basada en un nuevo tipo de dispositivo, denominado NAT (Network Address Translators). NAT permite conectar redes enteras a Internet a través de una única dirección IP, utilizando direcciones privadas en el interior. Esta solución permite satisfacer la enorme demanda de conectividad, pero rompe la conectividad extremo a extremo de las aplicaciones. La gran contribución de esta década son las múltiples aplicaciones que aparecen, que no solo crean nuevos servicios, sino que simplifican enormemente el uso de la red. Las nuevas aplicaciones dan un enorme valor añadido y son el auténtico motor del crecimiento. La estrella indiscutible es “The World Wide Web” [4] (abreviadamente Web o WWW), propuesto en 1989 por el investigador británico Tim Berners Lee y considerado el motor principal de la expansión de Internet en los 22
  • 23. 90. De hecho, los tres elementos que componen el Web, URLs, el protocolo HTTP y el lenguaje HTML, se consideran parte integrante de la arquitectura de Internet. Durante este periodo aparecen también otras aplicaciones muy significativas como las aplicaciones multimedia que permiten enviar voz y vídeo sobre IP, aplicaciones de mensajería instantánea, los buscadores de información o incluso aplicaciones que se basan en nuevos paradigmas como el paradigma de comunicación “igual a igual” (P2P - Peer to Peer) o la computación en malla (GRID computing). Son todas estas aplicaciones las que dan a la red su enorme potencial y atractivo. El fuerte crecimiento de Internet, así como la demanda de nuevos servicios y aplicaciones también ha creado nuevos retos y tensiones, por ejemplo: ♦ El control de la seguridad en la arquitectura TCP/IP con conectividad extremo a extremo entre todos los ordenadores de la red, donde cada usuario debe gestionar su propia seguridad. ♦ La dificultad en el cobro del acceso a Internet y sus contenidos por parte de los proveedores de acceso a la red. ♦ La dificultad de conseguir un acceso eficaz al enorme repositorio de información distribuida que empieza a estar accesible en la red, cuya catalogación es imposible por métodos tradicionales. ♦ La escasez de ancho de banda y el control de la congestión que no permiten un acceso ágil a Internet debido a la congestión que produce el enorme crecimiento de la demanda de transferencia de información. La naturaleza del protocolo IP (best-effort) no permite al usuario el control de la calidad del servicio, limitando las prestaciones de ciertas aplicaciones de tiempo real. Pasemos a analizar todos estos factores, así como su impacto en la evolución de Internet. 5.1 La escasez de direcciones: NAT cambia la arquitectura de Internet El protocolo IP se diseñó imponiendo un límite, que entonces parecía inalcanzable, de aproximadamente 4000 millones de ordenadores en la red. A finales de los ochenta se dispararon las alarmas, porque el tamaño de la red se duplicaba cada año. Las direcciones IP se hubiesen agotado antes de acabar la década si no se hubiesen tomado medidas. La perspectiva de una escasez de direcciones IP que colapsase Internet, creó una gran preocupación y provocó la modificación de los procedimientos de asignación de direcciones, basada hasta entonces en la asignación de bloques de clase A, B y C. La asignación de bloques A, B o C era muy ineficaz. En los comienzos de Internet muchas organizaciones recibieron bloques de clase A o B, que han tenido una utilización real muy baja, en algunos casos menor del 1%. A partir de entonces se introduce CIDR (Classless Inter Domain Routing), también conocido como supernetting. En CIDR se puede asignar un bloque de cualquier tamaño. La asignación de direcciones empieza a realizarse de forma jerárquica, asignándose direcciones solamente a los proveedores de servicios Internet (ISPs), que a su vez deben reasignarlas a los niveles inferiores. La creciente escasez de direcciones provoca fuertes restricciones en las asignaciones de los usuarios finales que no pueden disponer de direcciones IP. También se controla el uso real de las direcciones asignadas, retirando la asignación en caso de no ser usadas en un plazo de tiempo razonable. Además aparecen nuevas técnicas de asignación de direcciones que se extienden rápidamente y que han distorsionado muy significativamente la arquitectura de Internet. 23
  • 24. La primera técnica es el ya mencionado NAT (Network Address Translator). NAT sólo utiliza una dirección pública IP para conectar una red que puede tener miles de ordenadores y por eso consigue un enorme ahorro de direcciones IP. Un dispositivo NAT recibe las conexiones TCP o los paquetes IP que vienen de la red privada y los reencamina hacia la Internet pública como si fuesen suyos. Los paquetes de respuesta los recibe el dispositivo NAT, que los reencamina hacia el otro extremo de la comunicación dentro la red privada utilizando una tabla de encaminamiento donde figuran todas las comunicaciones en curso. La introducción de NAT obliga a renunciar al paradigma extremo a extremo de las aplicaciones de Internet, que pasan a tener un dispositivo intermediador entre los extremos. Desde dentro de una red privada, es decir desde detrás de un NAT, sólo se puede acceder como cliente a algunos servicios de la Internet pública, como Web o correo electrónico. Los servidores dan servicio a través de una dirección IP y de un puerto, que deben ser públicos. La instalación de servidores detrás de un NAT no es posible, salvo que el dispositivo NAT permita hacer traducciones permanentes de direcciones y puertos públicos a las que realmente posee el servidor en el dominio privado. Muchas de las aplicaciones que se desarrollan durante esta década no pueden desplegarse de forma generalizada debido a las dificultades que crean los dispositivos NAT. Figura 4.1. Dispositivos NAT crean dominios de direccionamiento privado Además de NAT, aparecen protocolos de asignación dinámica de direcciones, que aunque en menor medida que NAT, también han permitido ahorrar direcciones. Los dos protocolos de asignación dinámica de direcciones más utilizados son: el protocolo DHCP (Dynamic Host Configuration Protocol) que asigna direcciones temporales a un ordenador en entornos de red de área local y el protocolo PPP (Point to Point Protocol) muy utilizado en el acceso a Internet a través de MODEM telefónico que también realiza asignación dinámica de direcciones. En paralelo con la introducción de las soluciones anteriores, que sólo paliaban el problema, se formaron grupos de trabajo en la IETF con el objetivo de buscar soluciones más duraderas, basadas en buscar alternativas al protocolo IP. Estos grupos convergieron en una única propuesta publicada en 1998, que se conoce como IPv6 (IP versión 6) [14], para diferenciarla de la versión de IP actual, conocida como IPv4 (IP versión 4). La aplicación de todas estas técnicas, especialmente de CIDR y de NAT, ha reducido muy significativamente las necesidades de direcciones IP. El coste 24
  • 25. pagado ha sido la introducción masiva de dispositivos NAT en Internet, tal y como se muestra en la Figura 4.2. La Internet actual se compone de muchas redes con direcciones privadas, desde donde es posible acceder a los servicios internos de la red privada y a los servidores de la Internet pública. Los dispositivos NAT realizan una función de intermediación que rompe el principio “extremo a extremo” (Figura 4.2) con el que surgió Internet, por lo que los ordenadores que están dentro de la una red privada no son accesibles desde el exterior. Esta rotura del principio “extremo a extremo” está dificultando el despliegue de nuevas aplicaciones y servicios, tales como IPsec, Voz sobre IP, P2P o GRID que no pueden operar a través de NAT o necesitan una mayor complejidad arquitectónica para poder hacerlo. Figura 4.2. Impacto de un dispositivo NAT en la conectividad “extremo a extremo” Solo las organizaciones que recibieron asignaciones antes de la introducción de CIDR tienen direcciones públicas en abundancia y las utilizan profusamente. Las demás organizaciones tienen escasez de direcciones públicas y suelen utilizar direcciones privadas a través de dispositivos NAT. Un problema significativo de la Internet actual es la enorme dispersión del espacio de direcciones que provoca un crecimiento constante del tamaño de las tablas de encaminamiento de los routers troncales de Internet. En el año 2000 estos routers necesitaron aumentar su capacidad de proceso en más de un 50%. Los nuevos servicios también pueden ser un motor importante para el despliegue de IPv6. Por ejemplo, los servicios multimedia en UMTS que deben usar IPv6 de acuerdo a las actuales recomendaciones. Por último, debemos resaltar que las reglas de asignación actuales imposibilitan el despliegue de Internet en el tercer mundo. Actualmente hay muchos países que tienen muy pocas direcciones públicas asignadas y nunca van a conseguir las suficientes. Países como China o la India tienen menos direcciones asignadas que algunas universidades norteamericanas. Un caso muy ilustrativo de la situación actual es la iniciativa de la Universidad de Stanford [25] en California para liberar las direcciones no utilizadas. Stanford decidió devolver su bloque de direcciones “Clase A” hacia finales de los noventa para ayudar a solucionar el problema de la escasez de direcciones. Un bloque “Clase A” tiene 16 millones de direcciones, de las cuales la universidad sólo utilizaba unas 56000, es decir, el 0,4% de las direcciones asignadas. La universidad tardó 2 años de trabajo intensivo en reconfigurar toda su red. Otras universidades norteamericanas también poseen asignaciones de “Clase A”, pero después de ver el enorme esfuerzo que supuso la reconfiguración en Stanford decidieron esperar a que se realice la transición a IPv6 para reorganizar sus direcciones. 25
  • 26. Los datos facilitados por Brian Carpenter, presidente de IAB (Internet Architectural Board de ISOC) y responsable del programa de IBM sobre normas y tecnología de red, también son muy ilustrativos. Según sus palabras [25] actualmente hay 2000 millones de direcciones asignadas (la mitad del espacio disponible), pero sólo se están utilizando realmente unos 69 millones. Carpenter estima que IPv4 sólo permitirá llegar a un máximo de unos 160 millones de interfaces IP realmente conectados a Internet. Racionalizar el uso del espacio de direcciones es muy costoso y cada vez más organizaciones están analizando las implicaciones de migrar a IPv6. IPv6 está considerado actualmente de forma prácticamente unánime como la única forma de solucionar los problemas de crecimiento a largo plazo de Internet y la discusión se centra actualmente en cuándo se debe hacer la transición. Desde el punto de vista de productos, IPv6 es ya una realidad comercial. Prácticamente todos los fabricantes de routers, así como los de sistemas operativos, soportan IPv6. Incluso los proveedores de Internet (ISPs), que han sido los más reticentes, están empezando a dar servicios precomerciales. 5.2 La explosión de las aplicaciones Las aplicaciones son las grandes protagonistas de la década de los noventa. Las nuevas aplicaciones simplifican enormemente el uso de los servicios y facilitan el acceso a Internet de usuarios sin conocimientos informáticos. La gran estrella de las aplicaciones debido a su simplicidad de uso es el Web. Pero existen muchas otras que no alcanzan el mismo impacto, pero que también juegan un papel importante. Tratar de catalogar todas las aplicaciones existentes es prácticamente imposible, por lo que se ha optado por incluir sólo las aplicaciones o grupos de aplicaciones más representativas. Por ejemplo, no se han incluido las aplicaciones de uso restringido en entornos corporativos o privados. En primer lugar se han incluido las aplicaciones de soporte a la colaboración, grupos y comunidades porque fueron las primeras que aparecieron y soportan uno de los objetivos fundamentales de Internet: facilitar la colaboración de grupos dispersos geográficamente. Después se analiza el Web, diferenciándose el primer Web que permite publicar información en la red, del Web interactivo que permite acceso remoto a aplicaciones y bases de datos. También se analiza el problema que plantea la gestión de toda la información y el conocimiento que se está acumulando en la red. Por último se incluye la arquitectura de servicios multimedia de Internet, diseñada para soportar una nueva generación de servicios de audio y video. 5.2.1 Colaboración, grupos y comunidades en la red: “Groupware”, P2P, GRID, etc. Internet es una herramienta de comunicación muy eficaz, que se utilizó desde el primer momento para soportar la comunicación en grupos de personas dispersas geográficamente. La primera Internet fue ya una formidable herramienta de colaboración que aceleró muy notablemente el trabajo en equipo. El desarrollo de los protocolos de Internet a través de los grupos de trabajo de IETF es uno de los mejores ejemplos de colaboración a través de la red. La coordinación de los comités y de los grupos de trabajo se ha soportado desde los primeros momentos con dos herramientas de gran eficacia, que todavía se utilizan hoy profusamente: • La lista de distribución de correo electrónico de un grupo, que permite distribuir correos electrónicos a todos los miembros del grupo. 26
  • 27. El repositorio de documentos del grupo, donde se almacenan todos los documentos de trabajo. Este repositorio ha sido tradicionalmente un servidor FTP donde los miembros pueden cargar y descargar documentos electrónicos a través de la red. Hoy en día los servidores FTP tienden a ser sustituidos por aplicaciones interactivas Web que dan soporte integrado a las necesidades de colaboración y comunicación. Otro servicio que tuvo un enorme auge en los primeros años de Internet fue un servicio de foros y grupos de discusión denominado News. Las News eran un servicio global donde cualquiera podía participar, que funcionó muy bien mientras los grupos de usuarios eran pequeños y homogéneos. Cuando Internet creció el servicio se hizo inmanejable y cayó en desuso. En su lugar aparecieron servicios de creación de comunidades más cerrados que permiten comunicarse a grupos de personas con un interés común. Hoy en día se han incluido funciones similares en muchos portales de Internet, pero donde los gestores de los grupos pueden decidir quién puede acceder y quién no. Por ejemplo, está el servicio de grupos de YAHOO o los servicios que ofrece el Messenger de Microsoft asociados a MSN. El trabajo y la colaboración a través de la red ha creado un nuevo tipo de tecnologías destinadas a soportar la colaboración que reciben el nombre de “groupware”. Estas tecnologías automatizan de forma eficaz actividades tales como: uso de repositorios de documentos compartidos, gestión de flujos de trabajo e información, notificaciones al grupo, foros de discusión diferidos e interactivos, votaciones electrónicas, reuniones a través de la red con videoconferencia, gestión de agendas compartidas, etc. Hoy en día la mayoría de los portales, tanto corporativos como públicos, soportan la creación de servicios para grupos y comunidades. También debemos mencionar los servicios interactivos o síncronos, que permiten colaborar a un grupo de personas en tiempo real a través de la red. El servicio más antiguo de este tipo es el chat, que permite intercambiar mensajes de texto de forma interactiva a un grupo de personas. Una variante más actual es la mensajería instantánea, que enriquece el chat con detección de presencia que indica cuando un usuario está accesible en la red. La mensajería instantánea ofrece habitualmente la posibilidad de intercambio de gráficos y ficheros en tiempo real. También podemos incluir dentro de este apartado las aplicaciones de colaboración multipunto, que como la aplicación Isabel [37], permiten que los usuarios conectados interaccionen como si estuviesen reunidos, pudiendo hablar entre sí, verse, además de compartir aplicaciones, presentaciones u otras informaciones. La transmisión de audio y vídeo utiliza la arquitectura de servicios multimedia de Internet que veremos más adelante [23]. Últimamente han surgido dos modelos de aplicación alternativos a la estructura cliente-servidor tradicional, que despiertan un gran interés. Son el modelo de “igual a igual” (P2P - Peer to Peer) y la computación en red, también conocida como GRID. Ambos modelos son de reciente aparición y tienen gran parte de su potencial por desarrollar. Se han incluido en este apartado por su enorme capacidad para crear grupos y comunidades. Las aplicaciones P2P han surgido para dar soporte a comunidades de usuarios que comparten ficheros a través de la red. El primero fue NAPSTER [29]. NAPSTER mostró el potencial del modelo P2P, aglutinando rápidamente una gran comunidad de usuarios que intercambiaban libremente música y canciones en formato MP3. La dudosa legalidad de los intercambios ha llevado a NAPSTER a juicio con las casas discográficas. Su éxito ha llevado al desarrollo de nuevos servicios y aplicaciones [28] tales como Freenet, Gnutella, Kazaa, Groove, eDonkey, etc. P2P explota las ventajas económicas del almacenamiento distribuido. Hoy en día los discos duros de los PCs son muy baratos y tienen una gran capacidad de almacenamiento. Crear un gran repositorio distribuido utilizando P2P es mucho 27
  • 28. más barato y fácil de gestionar, que centralizar todo el almacenamiento en un gran servidor. En el modelo P2P todos los componentes de una aplicación pasan a ser “iguales”. Los “iguales” (peers) pueden actuar como clientes o como servidores, según requiera la aplicación. Los servicios P2P existentes suelen incluir algún tipo de servidor central, que actúa como punto de acceso al servicio y pone en contacto entre sí a los “iguales”, debido a la falta de conectividad “extremo a extremo”. “GRID computing” [35], que podríamos traducir como computación en malla, es también otro paradigma grupal. Las aplicaciones GRID utilizan la red como el bus de un gran multi-computador de ámbito planetario donde ordenadores conectados a través de Internet se distribuyan tareas de gran complejidad de cálculo. GRID ha explotado hasta ahora las ventajas económicas del cálculo distribuido. Un gran supercomputador es mucho más caro que un grupo de PCs de potencia equivalente. Hoy en día los microprocesadores son muy baratos y tienen una enorme potencia, además están la mayor parte de su tiempo en estado de espera. GRID utiliza la potencia de cálculo no aprovechada de los PCs existentes para resolver problemas de gran complejidad. SETI@home [26] es quizá el ejemplo más exitoso y conocido, habiendo conseguido unir 3,3 millones de PCs, con una capacidad de cálculo equivalente a 31 Teraflops/s, que tratan de descifrar señales extraterrestres. La computación GRID está considerada como uno de los grandes retos para el futuro de la red y la comunidad investigadora se ha integrado actualmente en torno al Global GRID Forum [27]. Estos son ejemplos de algunos de los servicios de comunidades y grupos que se han desarrollado en Internet durante los últimos años. Este tipo de aplicaciones tienen un enorme potencial y su desarrollo parece que no ha hecho más que comenzar. 5.2.2 El primer Web: publicación de documentos en la red La propuesta en 1989 del Web [4] por el investigador británico Tim Berners-Lee tiene un enorme impacto en la evolución de Internet. Tim Berners-Lee propone el Web durante su estancia en el CERN, el gran laboratorio europeo de física de altas energías, para coordinar experimentos científicos en el mundo de la física de altas energías, aunque su autor era consciente del potencial de su propuesta en muchos otros ámbitos de Internet. Tim Berners-Lee concibió el Web como un vehículo de comunicación universal a través de Internet. La propuesta inicial de Web define un interfaz abierto muy eficaz para la publicación de documentos en la red, de forma que estén accesibles instantáneamente para cualquier otro usuario. Cada documento puede además enlazar otros documentos en la red utilizando hiperenlaces. El Web es el mejor ejemplo del enorme potencial de los interfaces abiertos, porque las ideas en que se basa ya se habían desarrollado en entornos cerrados o propietarios, pero es sólo cuando estos servicios se trasladan a un entorno abierto cuando se despliegan de forma masiva. Su creador, Tim Berners-Lee define el Web como un universo de mundos de información interconectados, donde cada página Web es el centro de uno de esos mundos. El autor de una página es el dueño y gestor del mundo que describe, decidiendo qué información quiere compartir con el resto de la red y con qué páginas quiere enlazar. El Web permite crear a cada usuario de la red el mismo modelo de relaciones que existe en la vida real, donde existe información privada, información compartida sólo con ciertos grupos e información pública, y donde los hiperenlaces definen las relaciones de cada uno de estos ámbitos de información con el resto del mundo. Web significa en inglés telaraña, 28
  • 29. probablemente porque fue el mejor símil que Tim Berners-Lee encontró para representar esta enorme malla de enlaces entre páginas de información. Las características a las que el Web debe probablemente su éxito son: 1. Es un interfaz abierto que permite interconectar a todos los usuarios de la red. 2. La simplicidad de uso que permite navegar por toda la red haciendo uso sólo del ratón y ocasionalmente de un teclado. 3. La facilidad de instalación de servidores Web que pueden ser gestionados incluso por personas sin grandes conocimientos técnicos. 4. La naturaleza descentralizada, donde el autor de cada página decide qué información publicar y con quién enlazarla. Desde el punto de vista técnico, el servicio Web tiene la estructura cliente- servidor típica de los servicios de Internet. El cliente que permite a un usuario solicitar un documento Web se denomina visor o navegador Web (“browser” en inglés) y envía peticiones de documentos Web al servidor con el protocolo HTTP. El servidor contesta enviando el documento Web solicitado en formato HTML, que el visor presenta al usuario correctamente formateado. La arquitectura de una aplicación Web se basa en estos tres elementos: ♦ El protocolo HTTP (Hyper Text Transfer Protocol) para transferir documentos Web del servidor al cliente. ♦ El lenguaje HTML (Hyper Text Mark-up Language) de representación de documentos Web, que incluye además del texto las reglas de formato y presentación visual. ♦ El URL (Uniform, Resource Locator) para referenciar unívocamente documentos Web en la red. El elemento de mayor complejidad del servicio Web es el cliente, que debe interpretar y presentar al usuario de forma legible la información que recibe de los servidores. Pero como el cliente es el mismo para todos los usuarios, el diseño de un nuevo servicio sólo necesita crear nuevos servidores. Esto convierte el visor Web en el elemento de mayor importancia estratégica para controlar el acceso de los usuarios a Internet. Los servidores Web son de mayor simplicidad que los clientes ya que su función consiste en devolver páginas Web (ficheros) a los clientes que las solicitan. El gran interés despertado por el Web en el mundo empresarial y la rápida popularidad alcanzada, llevó en octubre de 1994 a la creación del WWW Consortium [12], conocido abreviadamente como W3C. Su objetivo fue, y sigue siendo, garantizar el desarrollo del Web como un vehículo de comunicación universal. Tanto Tim Berners-Lee, como una gran comunidad de miembros, velan por el mantenimiento del W3C como una organización neutra e independiente de los fabricantes, que trata de producir las normas que rigen el Web al ritmo que demanda la evolución de la tecnología actual. La estructura y forma de funcionamiento es diferente de ISOC, porque sólo pueden acceder organizaciones que deben afiliarse y pagar una cuota, pero su funcionamiento es muy abierto y ágil. El enorme impacto del Web ha hecho del W3C un foro de gran importancia, siendo junto con IETF, las asociaciones que mayor influencia ejercen en la evolución de Internet. 5.2.3 Servicios Web interactivos: acceso remoto a aplicaciones El servicio Web ha evolucionado desde sus comienzos, habiéndose transformado en un servicio de acceso remoto a aplicaciones que se ejecutan en servidores accesibles a través de Internet. Esta forma de acceso se popularizó muy rápidamente, porque permitió dar acceso a través de una Intranet corporativa o a 29
  • 30. través de la Internet pública a las aplicaciones corporativas propietarias que existían antes de la popularización de Internet. El acceso a documentos Web es sólo uno de los usos posibles del Web actual. Los nuevos servicios Web se denominan interactivos y permiten crear tiendas electrónicas, servicios de acceso a bases de datos y repositorios de información, buscadores de información, de soporte a la educación, de administración electrónica, etc. La simplicidad de uso del Web unido a su capacidad de interacción con aplicaciones remotas ha llevado a utilizarlo para unificar el acceso a muchos otros servicios, utilizando pasarelas de Web a correo electrónico, a grupos de discusión y de noticias, a soporte a flujos de trabajo, transferencia de ficheros, etc. Hoy en día el acceso Web se ha convertido en parte de la arquitectura de Internet, debido a que es utilizado por la mayoría de las aplicaciones, aunque sólo sea como interfaz de acceso. Gran parte de los desarrollos de nuevos lenguajes de programación o de nuevos entornos de desarrollo de aplicaciones aparecidos durante los noventa han tenido como objetivo facilitar la programación de servicios Web interactivos, por ejemplo Java, Javascript, PHP, Perl, Pyton, Exchange, .COM, .NET, C#, etc. Como el navegador es el punto de acceso a la mayoría de los servicios de Internet, su control se convirtió desde el principio en uno de los objetivos más codiciados por las empresas de Internet. La primera gran batalla por el control del acceso a Internet se centró en el control del navegador de acceso a Web. Netscape fue la primera empresa que vislumbró la importancia del Web y desarrolló a principios de los noventa el primer visor de calidad, a partir del navegador "Mosaic", que fue el primero en incorporar gráficos. El nuevo navegador pasó a denominarse Netscape Navigator, luego Netscape Communicator, diseminándose masivamente entre los usuarios de Internet. Alcanzó cifras de penetración del 80 y 90 por ciento. El control del visor aseguraba a Netscape el control del acceso a Internet, convirtiéndose en una de las empresas que mayor interés despertó a mediados de los noventa. Durante algunos años se pensó que nadie sería capaz de desplazar a Netscape de su posición de dominio. Microsoft tardó bastante en descubrir la importancia que Internet, y especialmente el Web, iban a tener en el mundo de las aplicaciones. Pero cuando comprendió la importancia estratégica que suponía controlar el acceso a Web, concentró grandes recursos en el desarrollo de su navegador "Explorer", entablándose una fortísima batalla entre ambas empresas [11]. Finalmente Microsoft consiguió imponer "Explorer" a la mayoría de los usuarios de Internet hacia finales de los noventa, gracias a su distribución gratuita junto con el sistema operativo Windows. En este momento, el Web se halla en proceso de redefinición dentro del W3C. HTML es un lenguaje que ha cumplido muy bien su función como lenguaje de publicación de documentos en la red, pero no sirve como formato unificado de representación de datos en Internet, ni soporta adecuadamente la creación de los nuevos servicios que la red esta demandando. El proceso de redefinición empezó a finales de los noventa y se va realizando de forma incremental en el marco del W3C. La nueva arquitectura Web se construye sobre XML (eXtensible Markup Language) [12], que gracias a su extensibilidad permite ir creando paso a paso todos los componentes de la nueva arquitectura. El objetivo perseguido por el nuevo Web es seguir soportando la publicación de documentos y aplicaciones, pero permitiendo también la cooperación entre aplicaciones a través de Internet, que ahora no es posible. Además deberá incorporar capacidades multimedia y calidad tipográfica en la información publicada, junto con meta-datos semánticos que permitan buscar y clasificar la información en la red de una forma mucho más efectiva, tal y como se describe en el próximo capitulo. 30
  • 31. 5.2.4 Búsqueda de información y conocimiento: la enciclopedia en la red La sencillez de instalación de los servidores Web, así como la naturaleza descentralizada del servicio, produjo desde el primer momento un crecimiento enorme de la información disponible en la red, cuya catalogación es imposible siguiendo métodos tradicionales. La búsqueda de información y datos, o incluso el aprovechamiento de todo el conocimiento que existe en la red se ha convertido en uno de los objetivos principales de los desarrolladores de nuevas aplicaciones, que tratan de adaptar a Internet técnicas de minería de datos, búsqueda de información o gestión del conocimiento. El máximo avance en este área se ha dado con los robots buscadores de información encargados de catalogar toda la información disponible en la red. Los buscadores recorren continuamente la red catalogando en una base de datos todas las páginas encontradas. La base de datos puede ser consultada por cualquier usuario, permitiéndole encontrar en pocos segundos informaciones imposibles de encontrar por otros procedimientos. Yahoo [19] fue el primer buscador. Rápidamente fue seguido por otros tales como, Altavista, Lycos, Excite, etc. Pero ha sido “Google” [13], el último en aparecer, el que ha revolucionado la búsqueda de información en Internet debido a su extraordinaria eficacia. Google ha desplazado a los demás buscadores y se ha convertido en el buscador preferido de los usuarios. La eficacia de Google es tal que está creando una auténtica revolución en la gestión y almacenamiento de la información. Hay expertos que empiezan a considerar que la información sólo hay que producirla y ponerla disponible públicamente en el Web o en alguna red privada. Un buscador de la eficacia de Google localizará casi de forma instantánea cualquier información que necesitemos. Las enciclopedias tradicionales no pueden competir con la información en la red debido a la lentitud que su actualización conlleva. La búsqueda y producción de información y conocimiento es una tarea de capital importancia en la sociedad de la información, por lo que la publicación en la red y la búsqueda automatizada sustituyen cada vez más a los métodos tradicionales. El éxito de Google se debe en gran medida a su política de centrarse en la eficacia del proceso de búsqueda sin ningún tipo de condicionamiento basado en acuerdos económicos con los potenciales beneficiarios. Pero, este éxito ha situado a Google en una situación enormemente delicada porque sus algoritmos de búsqueda deciden el éxito o el fracaso de muchas empresas, que dependen de la forma en que Google ordene las informaciones que presenta a los usuarios. La mayor parte de la información que existe en la red sólo está accesible en formato HTML, siendo su análisis y catalogación muy difícil. Google sólo permite encontrar la información, pero el análisis o la integración automática de la información HTML encontrada no es posible. El uso eficiente de toda la información y el conocimiento que existe en la red, probablemente no sea posible hasta que el Web semántico se desarrolle y sea posible procesar la información existente en la red utilizando algoritmos que puedan analizar la información encontrada. También empieza a despuntar otra tendencia, denominada “open content” (contenido libre o abierto), que pretende dar una alternativa a la producción de contenidos tradicional basada en los derechos de autor. La producción de información, contenidos y conocimientos podría acelerarse mucho si se hiciese de forma libre y en colaboración a través de la red. El proceso sería muy similar al ocurrido en el mundo del software, donde la producción basada en derechos de propiedad con licencias de uso no ha podido competir en muchos casos con desarrollos basados en grupos de desarrolladores que colaboran a través de Internet en un proyecto de producción de software libre. 31
  • 32. 5.2.5 Voz y Vídeo sobre IP. Durante la década de los noventa maduran también las tecnologías de codificación digital. Primero la codificación de audio y hacia el final de la década la codificación de vídeo, integrándose los codificadores digitales de audio y video como periféricos habituales, incluso en PCs de bajo coste. En paralelo IETF desarrolla la arquitectura de servicios multimedia de Internet, que utiliza los protocolos RTP/RTCP [2] para enviar flujos de audio y de vídeo a través de Internet utilizando el protocolo de transporte UDP. Esto lleva al desarrollo de aplicaciones de telefonía y de videoconferencia IP que permiten realizar llamadas a un coste inferior al de la red telefónica, aunque con una calidad que depende del estado de congestión de la red. Por ejemplo aplicaciones como NetMeeting de Microsoft u otros videotelefónos permiten realizar llamadas de larga distancia, que tienen una calidad excelente cuando la red no está congestionada. Aunque la tecnología básica para envío de voz y vídeo en formato digital a través de Internet ha alcanzado una madurez notable, a finales de los noventa todavía hay carencias y factores que frenan el uso de Internet para la transmisión de voz y vídeo. Los mas importantes son: ♦ La incapacidad de garantizar una calidad de servicio en la transmisión, de forma que la voz y el vídeo lleguen sin cortes ni interrupciones en condiciones de congestión de la red. ♦ La dificultad de aplicar los modelos de negocio de telefonía de voz, al no ser fácil diferenciar las llamadas locales de las interurbanas o de larga distancia. ♦ La falta de mecanismos de señalización que permitan reproducir en Internet los servicios actuales de la red telefónica, tales como: red inteligente, Centrex, PABX, etc. ♦ La falta de conectividad extremo a extremo debida a la falta de direcciones IP. ♦ El mayor coste de los terminales telefónicos con conexión directa a Internet. ♦ La incapacidad de realizar una difusión eficaz de señales de audio y video a grandes audiencias, debido a la falta de protocolos de multicast en las redes comerciales. La desviación del tráfico de voz de la red telefónica actual hacia Internet reduciría la facturación de los operadores de telefonía muy significativamente, desincentivando el desarrollo de servicios de voz a través de Internet en dichas operadoras. Por ejemplo un acceso ADSL o cable con tarifa plana permitiría hacer llamadas de duración ilimitada a cualquier parte del mundo, sin coste adicional para el usuario. Hoy en día sólo se han desarrollado de forma significativa, aunque no masiva, los servicios de “streaming” (flujos), que permiten difundir audio y vídeo a través de Internet. La radio por Internet es hoy una realidad existiendo bastantes emisoras que realizan emisiones de radio a través de la red. También se realizan de forma más esporádica emisiones de vídeo, aunque necesitan un mayor ancho de banda, especialmente para vídeos de buena calidad. También han aparecido servidores de video “streaming” que permiten servir a múltiples usuarios video bajo demanda. Las técnicas de “streaming” sirven para la difusión de señales porque los protocolos utilizados para garantizar calidad de audio y vídeo recibido introducen retardos muy altos. Los fuertes retardos introducidos no permiten conversaciones telefónicas o videoconferencias interactivas. 32