Trabajo de informatica historia de internet y mundos virtuales ignacio ureña
1. Introducción. Definición<br />Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.<br />Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. <br />Orígenes de Internet <br />La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachusetts Institute of Technology, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galactic Network (Red Galáctica). <br />El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Ivan Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red. <br />En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. <br />Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. <br />A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964. <br />Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5). <br />En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz). <br />El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6). <br />A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host . <br />El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Information Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ). <br />Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de quot;
storage displaysquot;
( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red. <br />Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy. <br />Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones. <br />En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación quot;
estrellaquot;
: el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación. <br />En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona. <br />3.Redes sociales<br />“Las Redes son formas de interacción social, definida como un intercambio dinámico entre personas, grupos e instituciones en contextos de complejidad. Un sistema abierto y en construcción permanente que involucra.<br />Una sociedad fragmentada en minorías aisladas, discriminadas, que ha desvitalizado sus redes vinculares, con ciudadanos carentes de protagonismo en procesos transformadores, se condena a una democracia restringida. La intervención en red es un intento reflexivo y organizador de esas interacciones e intercambios, donde el sujeto se funda a sí mismo diferenciándose de otros.”<br />No difiere lo dicho sobre una red grupal y lo que sucede a nivel subjetivo en Internet, al menos en las que se dedican a propiciar contactos afectivos nuevos como lo son las redes de búsqueda de pareja, amistad o compartir intereses sin fines de lucro.<br />En las redes sociales en Internet tenemos la posibilidad de interactuar con otras personas aunque no las conozcamos, el sistema es abierto y se va construyendo obviamente con lo que cada suscripto a la red aporta, cada nuevo miembro que ingresa transforma al grupo en otro nuevo. La red no es lo mismo si uno de sus miembros deja de ser parte.<br />Intervenir en una red social empieza por hallar allí otros con quienes compartir nuestros intereses, preocupaciones o necesidades y aunque no sucediera más que eso, eso mismo ya es mucho porque rompe el aislamiento que suele aquejar a la gran mayoría de las personas, lo cual suele manifestarse en retraimiento y otras veces en excesiva vida social sin afectos comprometidos.<br />Las redes sociales en Internet suelen posibilitar que pluralidad y comunidad se conjuguen y allí quizás esté gran parte de toda la energía que le da vida a los grupos humanos que conforman esas redes. Las redes sociales dan al anónimo popularidad, al discriminado integración, al diferente igualdad, al malhumorado educación y así muchas cosas más.<br />La fuerza del grupo permite sobre el individuo cambios que de otra manera podrían ser difíciles y genera nuevos vínculos afectivos y de negocios.<br />Networking Activo: Agrupa a una serie de empresarios y emprendedores complementándose con una revista impresa y distintos eventos presenciales. <br />Neurona: proclama que su objetivo es para ampliar y mejorar la red profesional de contactos, un espacio virtual en el que interactúan diariamente más de medio millón de profesionales presentes en más 50 sectores productivos y más de 100 de comunidades profesionales. Fue adquirida por Xing, aunque aún no ha sido fusionada. <br />Tuenti: De reciente creación y accesible solo por invitación, ha despertado gran interés y un crecimiento muy acelerado para conectar a jóvenes universitarios y de nivel secundario. <br />eConozco: se presenta como una herramienta que te permite contactar con miles de profesionales a través de tus conocidos de confianza y donde puedes accede a nuevas oportunidades para desarrollar tu carrera profesional. Fue también adquirida por Xing , fusionándose recientemente con dicha red. <br />Cielo: parece la red más completa, combina contactos en línea con una comunidad cara a cara donde estos medios se complementan el uno al otro. <br />Dejaboo.net: que es una red social orientada a la cultura, en la que los usuarios pueden compartir sus reseñas y gustos literarios, musicales o de cine, la cual anuncian que sigue en fase de pruebas. <br />Qdamos: se anuncia como el nuevo portal para buscar pareja y amigos en Español. El registro y todos los servicios son gratuitos. <br />Festuc.com: esta es una red social basada en móviles. Festuc te promete que conocerás gente nueva a través de amigos o por cercanía geográfica a través de servicio en el teléfono móvil. <br />Spaniards: se presenta como la Comunidad de Españoles en el Mundo. Indican que la misión de esta red es ayudar y poner en contacto a todos los españoles que viven en el extranjero, bien sea por motivo de estudios, trabajo o placer, además de a todos aquellos que buscan salir de España, temporal o permanentemente. <br />Linkara: enfocado hacia las relaciones de amistad, se presenta como la primera red social para conocer gente a través de aficiones y opiniones. Y en cuanto al funcionamiento lo explican de manera muy simple, diciendo.” Expresa tu opinión, conectate con tus amigos, conoce gente nueva”. <br />Gazzag: es una mixtura entre red social profesional y red social de contactos personales. La apariencia y la usabilidad son bastante buenas y permite la creación de galerías de fotos y blogs, a diferencia de otras redes sociales en español que no lo permiten. <br />Gentenotable: Otra red de encuentros. <br />4.Ventajas y desventajas de las redes sociales<br /> <br />Las redes sociales se han convertido en todo un fenómeno social. Están revolucionando la forma de comunicarse y de interactuar. Ofrecen muchas posibilidades que pueden llegar a ser valiosas para diversos ámbitos de la vida. Para sacarles el máximo partido, es preciso conocer sus ventajas e inconvenientes. A continuación, determinamos los pros y los contras principales de estas plataformas.Las ventajas de las redes sociales son numerosas. Su atractivo esencial radica en la participación e interacción que proporcionan a los internautas. La relación entre los usuarios en estas plataformas pasa de ser vertical a horizontal, posibilitando que todos estén al mismo nivel. Cualquiera puede convertirse en emisor y producir sus propios contenidos.Gracias a las redes sociales, es posible ponerse en contacto con gente a la que en la vida cotidiana no se podría acceder. Permiten establecer relación con personas de diferentes sectores y países. Las redes sociales han alcanzado una especial relevancia en los tiempos de crisis. Las redes de carácter profesional son una buena herramienta para establecer contactos profesionales y encontrar oportunidades laborales. Las empresas hacen cada vez un mayor uso de estas redes a la hora de buscar personal.En el ámbito empresarial las redes sociales también abren muchas nuevas posibilidades. Hay empresas que empiezan a sacarles partido en sus oficinas. Crean grupos privados, que funcionan como una especie de Intranet, para compartir información corporativa. El ejemplo de esta iniciativa es la empresa estadounidense Serena Software que impulsó los “viernes Facebook”. Permite a sus trabajadores dedicar una hora a la semana para actualizar sus perfiles, colaborar con colegas y establecer nuevos contactos. Hay que destacar que esta política sólo empieza a implantarse en empresas y todavía queda mucho potencial por explotar.Las redes sociales son una plataforma idílica para el ocio. Posibilitan desarrollar hobbies y formar parte de diversas comunidades. Permiten acudir a eventos y participar en actos y conferencias. Sirven para mantenerse en contacto con los amigos, especialmente con los que viven lejos. Con la ayuda de estas redes, se diluyen las fronteras geográficas. Otra ventaja de las redes sociales radica en la posibilidad de incrustar todo tipo de contenidos. Es denominado “life streaming” que posibilita tener toda nuestra vida resumida en la red social. El potencial de las redes sociales es enorme. Como cualquier aplicación también tienen sus puntos débiles que se han de conocer. Según el reciente informe de la Agencia Española de Protección de Datos, el 43% de los usuarios tiene configurado su perfil de forma que todo el mundo puede verlo. De esta manera, la privacidad puede verse en peligro. Es especialmente relevante en el caso de los menores. Para tener un mayor control es necesario aprender a configurar las opciones de la privacidad. Otro riesgo al que pueden enfrentarse los usuarios en las redes sociales es relativo a la suplantación de personalidad. La Agencia Española de Protección de Datos ha recibido recientemente la primera denuncia de un ciudadano por la suplantación de personalidad en una red social. A consecuencia de esto, el organismo ha iniciado una inspección de dos redes sociales internacionales y una web española. Hay una cierta falta de control de los datos. Todo lo que publicamos, puede convertirse en propiedad de las redes sociales. Hace poco Facebook anunció que todos los contenidos pasarían a formar parte de su propiedad, aunque después rectificó comunicando que de momento no iba a adoptar esta medida. Las redes sociales pueden devorar todo nuestro tiempo. Hay que saber administrarlo bien para no pasar la vida delante de la pantalla.Para que se pueda sacar el máximo provecho de las redes sociales sin caer en ningún peligro, hay que aprender a navegar y a configurar la herramienta de privacidad. El hecho de conocer las ventajas e inconvenientes ayudará a hacer un buen uso de estas aplicaciones para aprovecharlas en la vida personal, profesional y académica. <br />5.Mundo virtual<br />Mundos virtuales es un campo relacionado con la inteligencia artificial. Se trata de la simulación de mundos o entornos, denominados virtuales, en los que el hombre interacciona con la máquina en entornos artificiales semejantes a la vida real.<br />Aparte de los simuladores de vuelo y otras aplicaciones de este tipo que sirven desde hace años para la enseñanza y la práctica de determinados oficios, existen ya programas que, mediante cámaras de vídeo y software permiten construir «puertas virtuales» que enlazan un despacho u oficina con otro punto cualquiera del edificio (por ejemplo, un pasillo) y permiten a los que pasan por éste, ver y hablar con los que están en el despacho, estableciendo comunicaciones bidireccionales arbitrarias, no previstas por el arquitecto.<br />En la actualidad aparte del desarrollo que están llevando a cabo diferentes universidades en este campo el grueso de la investigación en la generación de entornos virtuales que traten de reproducir la realidad está siendo llevado por las empresas de ocio electrónico, que ven en esta tecnología una salida para sus videojuegos.<br />Mediante una tarjeta aceleradora 3D que se puede adquirir en cualquier tienda de componentes informáticos (por un precio entre 70 a 250€) un ordenador personal adquiere la potencia necesaria para reconstruir en tiempo real verdaderos entornos tridimensionales que reflejen un tipo de paisaje, ya sean ciudades, selvas o el espacio. El grado de realismo conseguido sobrepasa lo imaginado hace una década y año tras año esta tecnología se duplica lo que hace muy factible pensar que en menos de cinco años todos dispongamos de auténticos dispositivos para introducirnos en mundos virtuales en nuestro propio hogar.<br />6. Ventajas e inconvenientes de los mundos virtuales<br />La virtualización más que una moda es una tecnología cuya planeación a mediano y largo plazo puede rendir frutos muy importantes pero que necesita de preparativos y monitoreo para asegurar el cumplimiento de sus objetivos<br />El principal atractivo de los ambientes virtuales es la posibilidad de utilizar todos los recursos de un equipo, que por lo general están entre el 15% y 25% en la operación diaria, lo que ofrece estas ventajas. * Mejor utilización de la infraestructura, al usar entre el 70% y 90% de los recursos de cada anfitrión (host).* Reducción del equipo en los centros de cómputo, al implementar múltiples huéspedes (guests) en un sólo servidor. Adicionalmente, permite el retiro de equipo obsoleto y escalar los servidores de acuerdo a sus características; al tiempo que dreduce los costos por obsolecencia a futuro.* Seguridad al mantener aislado en un ambiente virtual un servicio. En caso de producirse una intrusión en el sistema, difícilmente se puede acceder al otros huéspedes o al propio anfitrión, por lo general el servidor que hospeda a los otros servicios tiene un nivel de acceso muy restringido.* Generación de múltiples imágenes del sistema (snapshots). La mayoría de las aplicaciones que administran sistemas virtuales pueden generar copias de los sistemas, lo que permite recontruir el servicio a un momento determinado en muy poco tiempo.* Computación verde (green computing). Esta tendencia se refiere a la mejor utilización de las TI en lo que respecta a la utilización de energía, no sólo con la reducción del número de equipos, sino también con el consumo responsable de la misma y aprovechamiento de la plataforma instalada.* Reducción de costos de administración al mantener un menor volúmen de equipos en operación.* Ambientes de prueba controlados. Cuando un sistema o servicio todavía no está en producción, esta es una manera muy eficiente de verificar su funcionamiento. A todas luces, estos puntos a favor (que no son los únicos, pero si los más importantes) han justificado a lo ancho del planeta la implementación de la tecnología, pero también tiene puntos en contra que es necesario vigilar. * Un sólo punto de falla. El equipo anfitrión es el talón de Aquiles del conjunto, ya que en caso de una falla masiva del sistema, todos los servicios se ven afectados simultaneamente; por supuesto que en un plan de contingencias es requisito mantener un servidor de las mismas características para implementar las imágenes (snapshots) de cada servicio.* Utilización de equipo con alto poder y reciente. En un ambiente de pruebas puede no ser tan necesario, pero al momento de tener sistemas en producción es posible que nos enfrentemos a la necesidad de adquirir equipos anfitriones con características específicas, con múltiples procesadores, abundante RAM y capacidad de crecimiento de discos duros; no se deben descartar arreglos de discos para ofrecer resistencia a fallas físicas, fuentes de energía redundantes y posiblemente dos o más tarjetas de red, pero esto se determina con el dimensionamiento del servicio.* Instalaciones adecuadas. Por lo general se dan por sentado, pero dos elementos muy importantes serían el suministro de energía ininterrumpido y un sistema de enfriamiento; este último es muy importante ya que al usar el procesador y otros recursos cerca del 90% de su capacidad, el calor que generan es muy superior que aquellos que sólo mantienen sistemas reales. * Mayor requerimiento de espacios para respaldos. Las imágenes de los sistemas contienen tanto el sistema operativo como las aplicaciones e información almacenada, por lo que se necesita definir una estrategia de respaldos adecuada para guardar y retener múltiples copias de cada huésped.* Limitaciones de equipo especiales. Algunos dispositivos o componentes, como son tarjetas de fibra, unidades múltiples por USB o SCSI y algunos otros pueden presentar un problema cuando el servidor anfitrión tenga que distribuir peticiones similares a múltiples huéspedes. Si somos cuidadosos, observaremos que la mayoría de estos puntos pueden ser previstos en buena medida durante la planeación, por lo que si bien son predecibles, seguramente requieren de una inversión en tiempo y esfuerzo, a veces importante; incluso se debe considerar el crecimiento de necesidades a un período de tres años aproximadamente, pero por lo mismo es posible que no debamos de dar un paso apresurado en montar los sistemas en producción en ambientes virtuales, ya que además debemos contemplar un período de estabilización y puesta a punto antes de liberarlo. Ahora bien, en un rubro que por lo general pasamos por alto, consideremos los retos que se enfrenta el área de TI al implementar y administrar sistemas virtuales. Estos son algunos de los más destacados. * Esquemas de alta disponibilidad. Algunos de los administradores más experimentados posiblemente han utilizado alguna forma de clusterización, pero al entrar en sistemas virtuales encontramos que el manejo es diferente, ya que estos sistemas, de acuerdo a la solución implementada, puede generar comunicaciones directas (de máquina virtual a máqina virtual), lo que ofrece una velocidad de comunicación muy superior, pero que posiblemente requiera de adecuar múltiples parámetros para no entorpecer el servicio al usuario.* Almacenamiento masivo. La comunicación para la transferencia de información a sistemas NAS, SAN o iSCSI puede ser una excelente forma de centralizar los repositorios de información pero se necesita implementar flujos, preferentemente a través de una tarjeta de fibra en el equipo anfitrión, hacia los huéspedes, con la consideración que es posible generar cuellos de botella en sistemas de ata demanda.* Administración del servidor anfitrión. Adicionalmente a administrar los sistemas virtuales, es necesario poner especial atención al host, ya que diversos factores pueden entorpecer la operación de los huéspedes sin que necesariamente se detengan los servicios, como el que algun esté usando gran cantidad de memoria, que los sistemas operativos estén descargando/actualizando programas al mismo tiempo, etc. En este punto es especialmente útil cuando la solución que usemos tiene una consola de administración y monitoreo.* Planeación de respuestas a contingencias. Anteriormente ya se había mencionado el aspecto de las imágenes que podemos generar de una instancia de MV, sin embargo este sólo es un aspecto cuando se trata de planear una contingencia, ya que si bien un snapshot ofrece la facilidad de implementar en casi nada de tiempo un huésped, es necesario considerar la movilidad de un archivo que pese al menos 20 GB, la parametrización del sistema, características del equipo anfitrón, etc.* Procesos críticos en medios virtuales. No es lo mismo pensar en un página Web informativa que en mantener nuestras bases de datos o aplicaciones corporativas en estos ambientes, ya que por lo general estos son el sustento de nuestra organización pero si analizamos las ventajas que ofrecen, el esfuerzo de generar las comunicaciones de nuestros usuarios internos y externos con estos bien vale la pena. La virtualización más que una moda es una tecnología cuya planeación a mediano y largo plazo puede rendir frutos muy importantes pero que necesita de preparativos y monitoreo para asegurar el cumplimiento de sus objetivos. En la siguiente entrega veremos las tendencias y tecnologías detrás de la virtualización, de manera que podamos tomar decisiones respecto al esquema que necesitamos<br />