1. INTELIGENCIA ARTIFICIAL DISTRIBUIDAi
El avance tecnológico en las comunicaciones llevaal planteamiento de nuevos
escenarios en losque es necesaria la compartición y la coordinación y por consiguiente
nuevas metodologías y técnicas y entornos de soporte informático paradesarrollo de
sistemas que incluyan los aspectosde coordinación y distribución.
Afinales de los años setenta aparecen los primerostrabajos en Inteligencia Artificial
Distribuida(aunque la primera reunióntemática fueen 1980). Su objeto es el estudio
de modelosy técnicas para resolución de problemas en losque la distribución, sea
física o funcional, seainherente. La metáfora de la 'inteligencia' utilizadaestá fundada
en diferentes metáforas delas ciencias exactas y sociales, como la biología,la física y la
sociología. Los individuales heterogéneose independientes del sistema son
'inteligentes'si alcanzan un cierto grado de adaptación mutua.
Los sistemas IAD se caracterizanpor una arquitectura formada por
componentesinteligentes y modulares que interactúan deforma coordinada. No existe
una terminologíacompartida en la IAD, ni esquemas de clasificación reconocidos por
la mayoría, aunque nohay discrepancias substanciales en cuanto a lasventajas que
ofrece el enfoque IAD sobre losparadigmas convencionales
Pueden encontrarse diferentes trabajos que presentanel panorama general de la
investigaciónactual en el campo de la Inteligencia Artificialy de los sistemas
multiagente [Bond et al. 88][Parunak 88] [Castillo-Hern 88] [Gasser et al.89] [Shi 91]
[Chaib-Draa 92] [von Martial 92][Gasser 93] [Molin et al. 96]. Últimamente,
hanaparecido másartículos destinados a caracterizaralguna de las muchas corrientes
de investigación [Wooldridge et al. 95] [Chaib-Draa 95][Franklin et al. 96] [Nwana 96]
[Castelfranchi etal. 96] [Wooldridge 98] [Huhns, Stephens 98].
Por ejemplo, se definen áreas de interés paracada agente, en las que se especifican
lastareas de las que el agente es responsable yse definen estructuras de 'autoridad',
para resolver conflictos en caso de que las áreas de interés se solapen.
TEORÍA DEL CAOSii
Desde hace mucho tiempo los científicos han creído que la naturaleza era
determinista, es decir que todos sus componentes seguían unas leyes universales, y
que conociendo dichas leyes podríamos llegar a prever todos los fenómenos.Cuando
Newton creó el Cálculo, se descubrió que estas leyes universales podían describirse
con ecuaciones diferenciales, de esta forma para conocer con exactitud el
comportamiento de un sistema tan solo era necesario conocer la ecuación que lo
caracteriza y los valores iniciales de las variables.
2. Como herramienta paralela al Cálculo se desarrolló la topología, en esta rama de las
matemáticas se trabaja con las ecuaciones diferenciales representándolas como
superficies de n dimensiones. Al observar las superficies generadas por estas
ecuaciones conocidas se descubrió que convergían a unas estructuras especiales que
llamaron atractores. Los atractores más regulares son un punto, una esfera, un toro(es
como una rosquilla), las ecuaciones con estos atractores tenían un comportamiento
muy regular, de forma que si partiendo de unas condiciones iniciales cualquiera, por
ejemplo (1.83, 1.94), se llegaba a un determinado resultado, digamos 2. 22, partiendo
de condiciones cercanas (1.85, 1.92) se obtenía también un resultado cercano, por
ejemplo 2.23. Todo hasta aquí encajaba muy bien con la idea del determinismo.
Sin embargo hace algunos años, utilizando técnicas de computación por ordenador, se
observó que algunas ecuaciones diferenciales tenían atractores muy distintos (el
término es "atractores extraños"). Estudiando las características de estos atractores se
comprobó que era imposible predecir en su totalidad el comportamiento de un
sistema si éste tenía atractores extraños.
Recordemos que para definir un sistema creíamos que bastaba con la ecuación que lo
describe y las condiciones iniciales. Ahora bien las condiciones iniciales no son
absolutas, dependen de la precisión con que las midamos. Por ejemplo si decimos que
X=3 con una precisión de 2 decimales, estamos diciendo que X podría ser 3.001, 3.002,
3.003....., si aumentamos la precisión a 10 tendríamos que X=3.00000000001, o
3.00000000008, para asegurar que X es exactamente 3 necesitaríamos una precisión
infinita, y lamentablemente imposible.
El problema que plantean los atractores extraños es que el resultado que van a dar
depende de todos y cada uno de los decimales de sus condiciones iniciales. Es decir si
tu sistema empezase en 3.001, dará un resultado totalmente distinto a si comenzase
en 3.002. Si conseguimos más precisión resulta que el problema se mantiene. Si
comenzamos en 3.0000-un millón de ceros-001 el resultado será distinto a sí
comenzásemos en 3.0000-un millón de ceros-002. Para que pudiésemos predecir el
comportamiento del sistema necesitaríamos tener infinitos decimales, y lo cual como
ya comentamos antes es del todo imposible.Este tipo de sistemas confirmó que el
universo no es determinista ya que por mucha información que tengas de un sistema
con un atractor extraño nunca podrás predecir su comportamiento. Por tanto se
demostró la existencia del Caos.
A partir de aquí se han descubierto sistemas caóticos en todos los ámbitos, desde los
latidos del corazón, al vuelo de una mosca, la agitación de la superficie del agua, la
evolución de la economía... y se ha conseguido, utilizando modelos basados en
atractores extraños, atacar algunos problemas que antes parecían inabordables.
3. Parece ser que estos sistemas no son totalmente impredecibles pudiendo establecerse
modelos de comportamiento a corto plazo. Además un hecho que ha llamado la
atención sobre estos sistemas es que no son, como se podría esperar, completamente
anárquicos sino que muchos de ellos presentan simetrías muy complejas, de aquí han
salido las famosas figuras fractales, que actualmente son consideradas tanto ciencia
como arte.
SISTEMAS DIFUSOSiii
Su estructura está constituida por tres bloques principales: el de transformación de
los valores numéricos en valores de Lógica difusa; el motor de inferencia que emplea
las reglas; y el bloque de conversión de los valores de la Lógica difusa en valores
numéricos.
En un sistema basado en lógica difusa se transforman los datos o valores numéricos
de la entrada al dominio de las reglas intuitivas y lingüísticas de la LD para realizar el
tratamiento de los mismos y después convertir los resultados en valores numéricos
para darles la representación tradicional.En resumen, puede decirse que un sistema
basado en lógica difusa actúa como lo haría una persona que tuviera que reaccionar
ante términos tan imprecisos como “caluroso” o “rápido”.
Si al sistema se le incluye una regla que diga “Si la temperatura es calurosa se ha de
acelerar el ventilador”, se estará aplicando el principio de If/Then y el sistema
funcionará sin regirse por conceptos matemáticos precisos.
Por ejemplo, si tenemos un paciente con fiebre, podemos plantearnos a partir de qué
temperatura empieza a tener fiebre.Pero es más realista plantear un modelo en el que
la situación de fiebre no se restringe sólo a dos valores (hay fiebre o no hay fiebre),
sino que tenemos todo un rango de temperaturas posible.Por lo tanto, la primera
etapa de tratamiento de un problema para la lógica difusa consiste en modelar cada
una de las entradas del sistema con curvas que den los grados o niveles de
pertenencia a los diferentes estados identificados anteriormente (en nuestro caso,
fiebre).
HOLOGRAFÍA
La holografía ha progresado de una manera impresionante y rápida debido a la gran
cantidad de aplicaciones que se le están encontrando día a día. Los hologramas se
pueden ahora hacer de muy diferentes maneras, pero todos con el mismo principio
básico. Los principales tipos de hologramas son los siguientesiv:
4. a) Hologramas de Fresnel. Éstos son los hologramas más simples, tal cual se acaban de
describir e la sección anterior. También son los hologramas más reales e
impresionantes, pero tienen el problema de que sólo pueden ser observados con la luz
de un láser.
b) Hologramas de reflexión. Los hologramas de reflexión, inventados por Y N.
Denisyuk en la Unión Soviética, se diferencian de los de Fresnel en que el haz de
referencia, a la hora de tomar el holograma, llega por detrás y no por el frente, como
se muestra en la figura 39. La imagen de este tipo de hologramas tiene la enorme
ventaja de que puede ser observada con una lámpara de tungsteno común y corriente.
En cambio, durante la toma del holograma se requiere una gran estabilidad y ausencia
de vibraciones, mucho mayor que con los hologramas de Fresnel. Este tipo de
holograma tiene mucho en común con el método de fotografía a color por medio de
capas de interferencia, inventado en Francia en 1891 por Gabriel Lippmann, y por el
cual obtuvo el premio Nobel en 1908.
c) Hologramas de plano imagen. Un holograma de plano imagen es aquel en el que el
objeto se coloca sobre el plano del holograma. Naturalmente, el objeto no está
físicamente colocado en ese plano, pues esto no sería posible. La imagen real del
objeto, formada a su vez por una lente, espejo u otro holograma, es la que se coloca en
el plano de la placa fotográfica. Al igual que los hologramas de reflexión, éstos también
se pueden observar con una fuente luminosa ordinaria, aunque sí es necesario láser
para su exposición.
d) Hologramas de arco iris. Estos hologramas fueron inventados por Stephen Benton,
de la Polaroid Corporation, en 1969. Con estos hologramas no solamente se reproduce
la imagen del objeto deseado, sino que además se reproduce la imagen real de una
rendija horizontal sobre los ojos del observador. A través de esta imagen de la rendija
que aparece flotando en el aire se observa el objeto holografiado, como se muestra en
la figura 40. Naturalmente, esta rendija hace que se pierda la tridimensionalidad de la
imagen si los ojos se colocan sobre una línea vertical, es decir, si el observador está
acostado. Ésta no es una desventaja, pues generalmente el observador no está en esta
posición durante la observación. Una segunda condición durante la toma de este tipo
de hologramas es que el haz de referencia no esté colocado a un lado, sino abajo del
objeto.
La Holografía fue inventada en el año 1947 por el científico de origen húngaro Dennis
Gabor quien recibió por ello el premio Nobel de Física en el año 1971. Se desarrolló
plenamente a partir de la década del 60´ con la aparición del láser.El medio
holográfico expresa, a través de una tecnología de avanzada, sensibilidad artística y
5. eficiencia comunicativa, el sentido de una cultura de la virtualidad real holográfica de
potencialidades inéditas.
e) Hologramas de color. Si se usan varios láseres de diferentes colores tanto durante la
exposición como durante la observación, se pueden lograr hologramas en color.
Desgraciadamente, las técnicas usadas para llevar a cabo estos hologramas son
complicadas y caras. Además, la fidelidad de los colores no es muy alta.
f) Hologramas prensados. Estos hologramas son generalmente de plano imagen o de
arco iris, a fin de hacerlos observables con luz blanca ordinaria. Sin embargo, el
proceso para obtenerlos es diferente. En lugar de registrarlos sobre una placa
fotográfica, se usa una capa de una resina fotosensible, llamada Fotoresist, depositada
sobre una placa de vidrio. Con la exposición a la luz, la placa fotográfica se ennegrece.
En cambio, la capa de Fotoresist se adelgaza en esos puntos. Este adelgazamiento, sin
embargo, es suficiente para difractar la luz y poder producir la imagen. Dicho de otro
modo, la información en el holograma no queda grabada como un Sistema de franjas
de interferencia obscuras, sino como un sistema de surcos microscópicos
LA HOLOGRAFIADE EXHIBICIÓN
Ésta es la aplicación más frecuente y popular de la holografía. Es muy conocida, por
ejemplo, la exhibición que hizo una famosa joyería de la Quinta Avenida de Nueva
York, donde por medio de un holograma sobre el vidrio de un escaparate se
proyectaba hacia la calle la imagen tridimensional de una mano femenina, mostrando
un collar de esmeraldas. La imagen era tan real que provocó la admiración de
muchísimas personas, e incluso temor en algunas. Se dice que una anciana, al ver la
imagen, se atemorizó tanto que comenzó a tratar de golpear la mano con su bastón,
pero al no lograrlo, corrió despavorida.
Una aplicación que se ha mencionado mucho es la de la exhibición de piezas
arqueológicas o de mucho valor en museos. Esto se puede lograr con tanto realismo
que sólo un experto podría distinguir la diferencia.
TRANSISTORES ÓPTICOSv
El control y la modulación del flujo de luz es esencial en las telecomunicaciones
actuales. El profesor TobiasKippenberg y su equipo en el EPFL’sLaboratory of
Photonics and Quantum Measurements han descubierto una nueva manera de acoplar
la luz y las vibraciones. Mediante el uso de este descubrimiento, se construyó un
dispositivo en el que podría controlar por un segundo haz más intenso, un rayo de luz
6. que viaja a través de un microrresonador óptico. El dispositivo actúa así como un
transistor óptico, en el que un rayo de luz influye en la intensidad de otro.
El microrresonador óptico tiene dos características: en primer lugar, atrapa la luz en
una estructura de vidrio pequeña, guiando el haz en un patrón circular. En segundo
lugar, la estructura vibra, como una copa de vino, en frecuencias bien definidas.
Debido a que la estructura es tan pequeña (una fracción del diámetro de un cabello
humano), estas frecuencias son 10 000 superiores que la vibración de una copa de
vino. Cuando la luz se inyecta en el dispositivo, los fotones ejercen una fuerza llamada
presión de radiación, que aumenta en gran medida por el resonador. La creciente
presión deforma la cavidad, posibilitando el acoplamiento a la luz de las vibraciones
mecánicas. Si se usan dos rayos de luz, la interacción de los dos láseres con las
vibraciones mecánicas resulta en una especie de “switch” óptico: el fuerte “control”
láser puede activar o desactivar una débil “sonda” láser al igual que en un transistor
electrónico.
Las aplicaciones de este efecto novedoso, denominado “OMIT” (optomechanically-
inducedtransparency), podría proporcionar una funcionalidad completamente nueva
a la fotónica. Las conversiones de radiación a vibración ya está muy extendida por
ejemplo, en los teléfonos móviles, un receptor convierte la radiación electromagnética
a vibraciones mecánicas, lo que permite que la señal se filtre de manera eficiente. Pero
ha sido imposible hacer este tipo de conversión con la luz. Con un dispositivo OMIT
basado en un campo de luz visible podría, por primera vez podría convertirse en una
vibración mecánica. Esto podría abrir una enorme gama de posibilidades en el campo
de las telecomunicaciones. Por ejemplo, se pueden diseñar nuevos búferes ópticos de
forma que puedan almacenar información óptica hasta varios segundos.
En un nivel más fundamental, los investigadores de todo el mundo han estado
tratando de encontrar maneras de controlar sistemas opto mecánicos a nivel cuántico:
el acoplamiento conmutable demostrado por el equipo de EPFL-Max Planck podría
ayudar a la comunidad a superar este obstáculo, al servir como una interface
importante en los sistemas cuánticos híbridos.
i
http://www.dia.fi.upm.es/~phernan/AgentesInteligentes/referencias/garcia98.pdf
ii
http://www.elrinconcito.com/DiccAmpliado/TeoriaCaos.htm
iii
http://medicpinos0.tripod.com/logicafussy/id19.html
iv
http://html.rincondelvago.com/holografia.html
v
http://www.elektrocomputer.net/index.php?option=com_content&view=article&id=44:transistor-
optico&catid=1:latest-news&Itemid=50