2. Internet Explorer continúa siendo el navegador más utilizado en el mundo. No es el primero ni el mejor, pero
domina el mercado, sobre todo, gracias a que está integrado en el sistema operativo Windows.
Los usuarios que emplean el Explorer coincidirán en que no es la herramienta más segura, porque Microsoft, con
frecuencia, detecta vulnerabilidades que permiten la instalación de programas espías sin el conocimiento de
los cibernautas.
Por eso, los desarrolladores del Internet Explorer 8, la nueva versión del navegador de Microsoft, incluye
innovaciones para proteger mejor al usuario.
Incluye, por ejemplo, un filtro denominado „smartscreen‟, que previene a los cibernautas de posibles ataques
de „phishing‟, un término informático que denomina a un tipo de delito, en el cual el estafador se hace pasar por
una empresa. El fin es solicitar datos confidenciales del usuario para realizar estafas.
Lo que hace la versión 8 del Internet Explorer es bloquear más de 1 millón de visitas a sitios „phishing‟ cada
semana.
La nueva plataforma también incluye un mecanismo „InPrivate‟ que evita que las páginas visitadas se graben en
el historial y un filtro que previene que los sitios web recojan información de navegación del usuario.
Juan José Mena, gerente de los programas de adopción de la firma Microsoft en Ecuador, explica que una de las
ventajas actuales del Explorer es su capacidad para identificar la dirección real del sitio que visita el usuario.
El especialista precisa que, por lo general, los „hackers‟ o piratas informáticos engañan a los
cibernautas, presentándoles portales idénticos a los de una entidad financiera, por ejemplo.
Pocos usuarios se percatan del fraude e ingresan datos sensibles en esta página que, a primera vista, pertenece a
la institución bancaria. Para evitar estos engaños, el navegador Explorer identifica qué dirección visita el usuario y
confirma si realmente pertenece a la entidad.
Si el programa constata que no es una página confiable envía alertas al usuario. “El sistema bloquea la página y
aparece un menú rojo en el centro que advierte que el sitio está reportado con contenido malicioso”.
3. A finales de los años ochenta, la interconexión de miles de redes convirtió a la Internet en la
mayor base de datos de la historia de la humanidad, pero también en la más caótica.
No había un mecanismo unificado que facilitara el acceso a la información almacenada en este
repositorio virtual.
La dificultad de trabajar con los recursos disponibles en formato electrónico hizo que el físico
británico Tim Berners-Lee, desarrollara un modo sencillo de acceder a los datos.
Su intención era diseñar una herramienta para que la comunidad internacional de físicos de
partículas, dispersos por todo el planeta, pudiera compartir sus conocimientos científicos de forma
rápida y fácil.
El mayor reto para Berners-Lee, señala el diario La Jornada de México, era lograr que la
información, que residía en computadoras diferentes todas conectadas a Internet, estén
disponibles para cada investigador desde su propia máquina.
Finalmente, consiguió diseñar la estructura de la World Wide Web, un invento que surgió en la
Organización Europea para la Investigación Nuclear (Cern), organismo para el cual trabajaba Tim
Bernes-Lee.
Según el diario español El País, fue en marzo de 1989 cuando Berners-Lee envió un artículo con la idea
general a su jefe, Mike Sendall, y éste escribió en la tapa del documento “algo vago pero interesante”.
Enseguida autorizó al investigador para que continuara con su desarrollo.
Bernes-Lee, de 53 años, señala que cuando tuvo la idea, las computadoras de numerosas
universidades ya estaban conectadas entre sí para intercambiar información. En una entrevista
publicada en el diario The New York Times, el científico señala que hoy en día trabaja en el desarrollo
de la red semántica.
“Esta irá a buscar la información a diversas bases de datos, tanto en catálogos en línea como en los
sitios meteorológicos o bursátiles, y permitirá que toda esa información sea tratada por las
computadoras”.
4. Los fabricantes de computadoras, televisores, celulares y otros equipos electrónicos compiten hoy por
el título de peso pluma.
Basta echar un vistazo a la portátil Adamo, lanzada en marzo, por la firma Dell, para constatar que
los equipos pierden peso de una forma alarmante.
Adamo tiene apenas 1,65 centímetros de grosor. Está fabricada con una sola pieza de aluminio, lo
cual la hace liviana y resistente. De esta manera supera a la portátil Portégé R505 que la
compañía Toshiba lanzó el año pasado, y cuyo grosor es de escasos 1,95 centímetros.
Ocurre lo mismo con los televisores. Hace menos de un mes, la compañía Samsung lanzó
una pantalla Oled de solo 0,5 milímetros de espesor.
Según la revista Laptop, para alcanzar tan extrema delgadez en el grosor han empleado sustrato de
vidrio y una combinación de materiales orgánicos.
Un informe publicado en el diario The New York Times revela que los fabricantes de portátiles
redujeron casi a la mitad las tapas de las computadoras, donde está el monitor.
Para lograrlo emplearon un sistema de iluminación trasera por medio de diodos emisores de luz
(LED), en lugar de los típicos tubos fluorescentes.
La iluminación con LED resulta ventajosa, porque consume un 60% menos de energía. Pero hay otros
esfuerzos. Compañías como Toshiba redujeron el tamaño de los circuitos de la placa base en un 35%.
Jonny Proaño, ingeniero electrónico, dice que la placa base es la encargada de procesar la
información de una computadora. “El tamaño de estos circuitos en la placa base disminuyó en varios
equipos como en las portátiles Macbook de Apple”.
Pero ¿cuánto más podrán bajar de peso los dispositivos electrónicos? Sobre este aspecto, Proaño
precisa que los fabricantes también se esfuerzan por disminuir el tamaño de los discos duros y cita un
ejemplo.
“La Macbook Air posee el disco duro más pequeño, lo cual aliviana el peso del equipo. Mide apenas
6 centímetros de largo”.
Pero la industria también hace pruebas constantes para reducir el tamaño de la unidad óptica
y, principalmente, de la batería (esta última es considerada el componente más pesado de la
máquina). La tendencia de lo ultradelgado no es solo un mero capricho estético. Al crear equipos
más livianos, los fabricantes de computadoras disminuyen el gasto energético y de paso se suman a
los esfuerzos por combatir el calentamiento global.
5. La herramientas tecnológicas han superado su cualidad de soporte de los procesos de negocio para
pasar a ser la verdadera base de la lógica del negocio.
Esta es la lógica que ha guiado a las entidades bancarias en América Latina, durante varias
décadas. Gracias a la tecnología son posibles hoy nuevas formas de comercio electrónico y de
servicios únicos personalizados y diferenciados del resto.
De estos servicios personalizados y de las tendencias en la adopción de nuevas tecnologías
habló el especialista mexicano Enrique Ramos O‟ Reilly, quien ofreció la semana pasada una
conferencia en Quito.
¿Hacia dónde se orienta el desarrollo de herramientas informáticas para el sector bancario?
En los últimos 10 años, se buscó comprar plataformas informáticas integrales, porque el problema era
mantener distintas herramientas conectadas entre sí. Este modelo constituía un problema, porque
parecía una suerte de espagueti y por eso tenía valor tener una herramienta integrada y completa.
Ahora ya no hace falta ese espagueti; los ingenieros ya no tienen que conectar todas las
aplicaciones entre sí, porque hay herramientas que se conectan a un solo punto y es el que maneja
las interconexiones. Entonces podemos regresar al beneficio de la especialización de las
herramientas. Esa es la tendencia actual.
¿Por qué?
Porque hacen la diferencia a la hora de competir. Hace algunos años, los sistemas informáticos no
permitían realizar modificaciones, porque tenían una tecnología propietaria. Esos sistemas ya están
obsoletos. Ahora se requieren plataformas más dinámicas, donde pueda saber exactamente cómo
funcionan las herramientas, cómo procesan, cómo se ven. Gracias a ello, las tecnologías se adecúan
a las necesidades de una determinada entidad para atender a un rango más complejo de clientes.
6. Los sistemas de vigilancia por medios inalámbricos están reemplazando a los sistemas
analógicos de circuito cerrado que para su operación requieren de varios metros de cable.
Esta solución digital se conoce con el nombre de vigilancia IP. Este último término significa
Internet Protocol, el protocolo de comunicaciones más común entre redes informáticas.
De este modo, una herramienta orientada a la vigilancia IP es capaz de crear secuencias de
video digitalizadas que se transfieren a través de una red que puede ser informática.
Esta característica permite que un usuario pueda monitorear un determinado lugar, como la
visualización de las imágenes, desde cualquier lugar del mundo mediante Internet.
Una de las ventajas de estos sistemas es que son fáciles de desplegar y proporcionan ahorros
en la instalación. En el mercado hay varias plataformas de vigilancia inalámbrica y
todas ofrecen a sus clientes la posibilidad de monitorear su casa u oficina, aun cuando
esté fuera del país.
Lo que hace diferente al sistema, presentado por la empresa de soluciones inalámbricas
Bantecdi, es la autonomía que ofrece la cámara con tecnología de tercera generación
(3G).
A diferencia de otras soluciones informáticas, esta es capaz de funcionar sin la necesidad de
estar conectada a una computadora de escritorio o una portátil, como ocurre con las
cámaras de vigilancia IP convencionales.
Las cámaras tradicionales están conectadas a una computadora que se encarga de
administrar las cámara como un servidor pequeño.
7. El propósito de los científicos de la Universidad de Osaka, en Japón, es estudiar el desarrollo humano para
comprender mejor cómo un niño aprende a hablar, reconoce objetos y se comunica con sus padres.
Cuando intenta caminar, se mueve de forma patosa y le trepidan las piernas como a cualquier bebé que está
dando sus primeros pasos.
Sus ojos, equipados con sofisticadas cámaras tras las pupilas, tienen la mirada curiosa del niño que quiere
descubrir el mundo y su piel de silicona es suave como la de un recién nacido.
CB2, que mide 130 centímetros y pesa 33 kilos, ya es capaz de reconocer el tacto humano, por ejemplo
cuando se le acaricia la cabeza, y de registrar expresiones emocionales con sus cámaras oculares.
Sus grandes ojos, curiosos como los de cualquier niño, se mueven constantemente. No es humano, pero sí
presta mucha atención. Se trata de CB2 (Child-robot with Biomimetic Body por sus siglas en inglés).
Gracias a sus 197 sensores, localizados bajo su suave piel de silicona, este bebé robot es capaz de reconocer el
tacto y las caricias humanas. “Nuestro objetivo es estudiar el desarrollo humano para comprender mejor cómo
un niño aprende a hablar, reconoce objetos y se comunica con sus padres”, explica el profesor Asada. Por este
motivo, el proyecto reúne no solo a ingenieros, sino también a neurólogos, psicólogos y otros expertos.
Los responsables esperan que en los próximos dos años, CB2 sea capaz de aprender a expresarse con
oraciones sencillas, alcanzando la inteligencia de un niño de 2 años.
A juicio del profesor Asada, el sueño de los androides con capacidad de aprendizaje similar a la de los
humanos y otras especies de primates, como los chimpancés, será una realidad en las próximas décadas.
Para 2050, el científico nipón espera conformar un equipo de fútbol robótico, capaz no solo de participar en el
Mundial, sino también de ganar.
Según la revista Science, el campo de la robótica avanzó tanto que los humanoides se desenvuelven sin
dificultades en entornos humanos.
Una muestra de ello es la máquina conocida como Cosmobot que apoya a niños con problemas de
desarrollo, en forma práctica y sencilla, enseñándoles a comunicarse por medio de los tratamientos dados.
Cosmobot fue desarrollado para contestar a los movimientos y la voz. La forma como se comunica el niño es a
través de señas con las cuales aprende a manejar al robot. Los robots ahora se especializan en varias tareas:
desde el cuidado de adultos mayores o con discapacidad hasta funcionar como asistente personal en el
trabajo o ayuda en el hogar, las aplicaciones en la vida real son muchas y variadas.
8. Los astrónomos han localizado, hasta 2007, 900 asteroides. Son objetos de roca
sólida con un diámetro de más de 1 000
metros.
Pero estiman que podría haber hasta 2 000 grandes asteroides y más de 100 000
rocas con un diámetro de 100 metros o más. Como son tantos, las investigaciones
están centradas, sobre todo, en los que representan un riesgo potencial.
La Unión Astronómica Internacional realiza un catastro, porque sabe que en el
espacio hay objetos con el tamaño suficiente para amenazar la totalidad de
nuestro planeta.
Carlos Marín, físico y catedrático de la Universidad San Francisco de Quito, dice que
cada año se hallan más asteroides y no todos son detectados; allí radica el
problema para la ciencia.
Eso ocurrió hace menos de un mes con el asteroide denominado DD45, que pasó
a 78 500 kilómetros de la Tierra, aproximadamente la quinta parte de la distancia
existente entre nuestro planeta y la Luna.
En su página web, la NASA afirmó que muy pocos científicos advirtieron el suceso
cósmico que pudo poner en riesgo a varios lugares terrestres.
Su paso más cercano a la Tierra fue sobre el océano Pacífico cerca de Tahití. El
objeto tenía un diámetro máximo de 47 metros.
Rob McNaught, científico del observatorio australiano Siding Spring, dijo que ningún
objeto de ese tamaño o mayor ha sido observado tan cerca de la Tierra.
Un asteroide de características y tamaño similares al DD45, arrasó en 1908 con 2 000
kilómetros cuadrados del bosque en Tunguska, en Siberia.
Un informe de la revista Astroseti advierte que en ese entonces, la humanidad
tuvo suerte, pues si esta mole aparecía unas horas antes, el epicentro del impacto
pudo haber sido San Petersburgo u otra urbe europea.
9. El programa informático está diseñado para obtener diferentes datos: presión, las
temperaturas interna y externa y la velocidad del fluido. Esta última se refiere a la
velocidad en la que viaja cada barril dentro de la tubería del oleducto.
Para Galo Ayala, actual coordinador del proyecto de simulación por parte de
Petroecuador, esta herramienta permitirá reducir los costos operativos del SOTE. Eso
significa que los operadores del oleoducto podrán visualizar en la
computadora cualquier anomalía.
Rolando Sáenz, matemático y ex director general de la Unidad de Investigación de la
Universidad Central, destaca otro factor: “también hay un ahorro de tiempo, porque
es posible simular un proceso en un máquina en lugar de hacerlo in situ, con todas las
implicaciones que eso tiene”.
Ahora los operadores están en capacidad de advertir en tiempo real (en ese instante)
una posible rotura del oleoducto, porque ven, gráficamente la variación de los
parámetros hidráulicos en la pantalla de la computadora.
También pueden detectar un incidente externo, por ejemplo , una rotura intencional y
uno interno como una sobrepresión.
Antes de entrar en operación, Petroecuador iniciará una fase de capacitación de la
herramienta para15 personas, entre supervisores y operadores A.
Este organismo, que financió el desarrollo de este sistema, tiene previsto instalar un
simulador en cada una de las estaciones. De este modo, los operadores podrán
calcular las presiones al interior del SOTE, entre otras variables.
10. Desarrollaron un vehículo de dos ruedas, con capacidad para dos ocupantes, que es
propulsado por electricidad.
Este transporte supone una solución válida para abrir nuevos horizontes en movilidad
personal, porque se mueve por la ciudad de manera rápida, silenciosa, limpia y a bajo costo.
El pequeño vehículo, que causó sensación en Nueva York, con motivo de su presentación
en el Salón del Automóvil de la ciudad de los rascacielos, responde a las siglas PUMA (Personal
Urban Movility and Accessibility) .
Según el diario The New York Times, la empresa Segway, que participó en este diseño, ya tenía
experiencia en la creación de vehículos personales.
Hace un par de años, esta firma lanzó una patineta eléctrica con dos ruedas paralelas.
El PUMA combina varias tecnologías: propulsión eléctrica, baterías, estabilización dinámica
(equilibrio sobre dos ruedas), aceleración dirección y freno electrónico, comunicaciones
vehículo a vehículo y conducción y aparcamiento autónomos.
Estas tecnologías se unen en el Proyecto PUMA para incrementar la libertad de movimiento.
De este modo, permiten eficiencia energética y ayudan en la reducción de
las emisiones de dióxido de carbono.
Este prototipo también integra una batería de ion-litio, gestión digital inteligente de la
energía, doble motor eléctrico en las ruedas y una interfaz que permite la conectividad fuera
del vehículo.
Además, este vehículo puede circular a velocidades de hasta 56 km/h, con una autonomía
de 56 kilómetros entre recargas, que precisan un tiempo de entre cuatro y cinco horas.
Para Larry Burns, vicepresidente de Investigación de la compañía General Motors, este
proyecto representa una solución única para la movilidad, donde vive más de la mitad de la
población mundial.
Burns traza un perfil del vehículo del futuro y dice: “Imaginen un vehículo que detecta dónde
están el resto de autos y evite colisionar con ellos. Se podría conectar a estos vehículos a
una Web, tipo Internet. Así podrían hallar sitios para estacionarse”.