SlideShare une entreprise Scribd logo
1  sur  83
Télécharger pour lire hors ligne
UNIVERSIDAD TECNICA PARTICULAR DE LOJA




     DESARROLLO DE LA
       INTELIGENCIA



         PERIODO ACADEMICO


       AGOSTO 2007- FEBRERO 2008




           LOJA – ECUADOR
2


                    LAS CONSTANTES DE LA NATURALEZA

1 .CUESTIÓN DE NÚMEROS

"El libro de la Naturaleza está escrito en el lenguaje de las matemáticas". La frase,
pronunciada por el astrónomo Galileo Galilei en 1623, tiene hoy plena vigencia. Basta
echar un vistazo a nuestro alrededor para comprobar que detrás de todos los
fenómenos naturales se esconde alguna clave matemática. Y que ciertos números se
repiten                                                              continuamente.

Así, por ejemplo, las flores tienen en su mayoría 5 pétalos (geranios, pensamientos
rododendros,…), aunque también es frecuente encontrar 3 en los lirios, 8 en los
ranúnculos y 21 en las margaritas. El 5 es, además, una cifra habitual en las semillas de
frutas como pepinos, tomates, peras y manzanas. Las espirales de la piña tropical
(ananas) son 8 y 13, igual que las de las piñas de los pinos y otras coníferas. Y en la
cabeza de un girasol, las semillas se disponen en espirales de 34 y 55, o 55 y 89.

En contra de lo que podríamos pensar a simple vista, esta reiteración de dígitos no
responde a un simple "capricho de la Naturaleza". Se trata de los números de la famosa
secuencia de Fibonacci (1,1,2,3,5,8,13,21,34,55,…) que un matemático italiano describió
hace más de 800 años. La fórmula secreta es sencilla: cada número de la secuencia se
genera a partir de la suma de los dos anteriores.

Al mismo tiempo, si dividimos cada dígito de la serie por el inmediatamente anterior,
el resultado es aproximadamente siempre el mismo: una constante con infinitas cifras
decimales conocida con la letra griega Phi (Φ), y cuyo valor es 1,6180339... Lo que es
más, a medida que avanzamos en la secuencia de Fibonacci más se acerca el ratio de
cada par de números a Phi.
3




2. PROPORCIÓN ÁUREA

 Pero, ¿por qué es tan importante la constante Phi, también conocida como el número
                                         de oro?




Imaginemos que tenemos un segmento y que queremos fraccionarlo en dos partes de
tamaños distintos. Podemos hacerlo de muchas formas, por ejemplo dividiéndolo de
forma que la parte mayor sea el triple que la menor. Sin embargo, sólo existe una forma
de dividir el segmento de modo que la relación (razón) que haya entre el segmento
completo y la mayor de las partes en que se divide sea igual a la que mantienen las dos
partes entre sí. Decimos entonces que ambas partes se hayan en proporción áurea, y su
valor es Phi.

Utilizando los números de la sucesión de Fibonacci podemos construir una serie de
rectángulos áureos, es decir, en los que los lados siempre mantienen esa proporción
áurea. Basta con empezar dibujando dos pequeños cuadrados que tengan por lado una
4


unidad. A partir de ellos se forma otro cuyo lado mayor es 2, y que sirve como lado de
un nuevo cuadrado. El proceso se puede repetir indefinidamente.

Lo más llamativo es que si unimos los vértices de estos rectángulos se forma una curva
que seguramente nos resulta familiar. Se trata de una espiral casi idéntica a la que
aparece en las conchas de moluscos como el Nautilus, en el crecimiento de las hojas de
una planta, en los huracanes, en la forma de la Vía Láctea, en los cuernos de los
rumiantes e incluso en la cóclea o caracol de nuestro oído interno. Además de su
omnipresencia, esta espiral, apodada logarítmica, tiene la peculiaridad de que, aunque
aumente su tamaño, la forma - proporciones- no se altera.

Más allá de la forma, la serie de Fibonacci aparece también en la genealogía de ciertas
especies. Es el caso de los machos o zánganos de una colmena. La clave está en que las
abejas hembras de la colmena nacen de los huevos fertilizados (tienen padre y madre),
mientras los machos o zánganos nacen a partir de huevos no fertilizados, o lo que es lo
mismo, sólo tienen madre. De esta forma, sus árboles genealógicos siguen
estrictamente una distribución de Fibonacci: un macho (1) no tiene padre, sino una
madre (1,1), dos abuelos - padres de la reina - (1,1,2), tres bisabuelos - porque el padre
de la reina sólo tiene madre - (1,1,2,3), cinco tatarabuelos (1,1,2,3,5), etc.



                                         El cuerpo humano tampoco es ajeno al número
                                         de oro. Con su conocido dibujo del hombre de
                                         Vitrubio, Leonardo da Vinci ilustró el libro
                                         "La Divina Proporción" del matemático Luca
                                         Pacioli, editado en 1509. En dicha obra se
                                         describen cuáles han deben ser las
                                         proporciones de las creaciones artísticas.
                                         Pacioli propone una figura humana en la que
                                         las relaciones entre las distintas partes de su
                                         cuerpo son proporciones áureas. Así, en este
                                         hombre armónicamente perfecto para Pacioli,
                                         el cociente entre la altura del hombre - el lado
                                         del cuadrado - y la distancia del ombligo a la
                                         punta de la mano - el radio de la
                                         circunferencia - es el número áureo.

Y no es el único caso. En la mayoría de los huesos que integran nuestro esqueleto
aparece insistentemente Phi. Así, por ejemplo, los tres huesos de cada dedo de la mano
están relacionados por esta constante. Y en el campo de la odontología, se ha
descubierto que la dentadura va creciendo siguiendo proporciones áureas, de forma
que las anchuras de los cuatro dientes frontales, desde el incisivo central hasta el
premolar, se encuentran entre si en proporción áurea.


La molécula de ADN, que contiene el libro de la vida, también se ajusta a la
proporción áurea. Cada ciclo de su doble hélice mide 34 angstroms de largo por 21
angstroms de ancho, dos números de la secuencia de Fibonacci cuyo ratio es, por
supuesto, Phi.
5



EL PERSONAJE: LEONARDO FIBONACCI


                   La secuencia de Fibonacci se debe a un renombrado
                   matemático italiano de la Edad Media. Su nombre completo
                   era Leonardo de Pisa (1170-1240), aunque él se llamaba a sí
                   mismo Fibonacci, como diminutivo de "hijo de Bonacci"
                   (filius Bonacci), en honor al apodo de su padre. Hijo de
                   diplomático, se educó en el norte de África y recorrió en su
                   juventud varios países de Oriente Medio. Una vez de vuelta
  a Europa, recopiló todo lo aprendido en un tratado de álgebra y aritmética
  titulado "Liber abaci" (Libro del cálculo), escrito en latín, que permitió
  expandir en Europa la notación decimal de origen indo-árabe que usamos
  actualmente, con los signos hindúes 1,2,3….,9, y el 0 árabe. En este libro hacía
  también mención, por primera vez, a la sucesión que hoy llamamos de
  Fibonacci en un problema sobre la reproducción de los conejos.


  Varios siglos después, un matemático europeo llamado Edouard Lucas (1842-
  1891) estudió la secuencia de Fibonacci y descubrió que dividiendo dos
  números consecutivos se obtenía la proporción áurea.



La fórmula de la eficiencia

Durante mucho tiempo, los científicos han tratado de explicar por qué se repiten con
tanta frecuencia estos números y proporciones en el universo. La filotaxia, área de la
botánica dedicada al estudio de la disposición de las hojas sobre el tallo, parece haber
dado con una respuesta. Cuando una planta crece, la estrategia que utiliza para
garantizar su supervivencia consiste en maximizar la distancia entre las ramas y las
hojas, buscando ángulos que no se solapen y en los que cada una de ellas reciba la
mayor cantidad de luz, agua y nutrientes posible. El resultado es una disposición en
trayectoria ascendente, y en forma de hélice, en la que se repiten los términos de la
sucesión de Fibonaci. En definitiva, la naturaleza no entiende de matemáticas, sino de
eficiencia.

Eso mismo es lo que viene a decir un reciente estudio del matemático Alan Newell, de
la Universidad de California. Tras observar la secuencia de Fibonacci en la disposición
de semillas en cactus, puso en marcha un análisis detallado de la forma de estas
plantas, el grosor de su piel y otros parámetros que dirigen el crecimiento. Al
introducir los datos en un ordenador descubrió, con sorpresa, que las configuraciones
que la computadora identificaba como más estables estaban siempre ligadas a las
formas de Fibonacci presentes en los seres vivos. Y es que aquel matemático italiano
halló, sin pretenderlo, la clave del crecimiento en la Naturaleza.

3. EL NÚMERO DE LA BELLEZA

En el terreno de las creaciones artísticas, Phi no ha pasado desapercibida. El
conocimiento de la sección áurea y el rectángulo dorado se remonta a los griegos, que
6


utilizaron estas proporciones en la que se considera su mayor obra de arte: el Partenón
de Atenas. No en vano, Phi es la inicial del nombre del escultor griego que supervisó la
construcción del templo, el original Fidias.

Tal es la reputación de Phi, que se dice que este número ha formado parte del
"conocimiento secreto" protegido por generaciones de francomasones, illuminati,
caballeros de la Orden de Rosacruz y otras sociedades secretas. Secreto o no, lo cierto es
que las proporciones áureas han inspirado a arquitectos, pintores, escritores e
incluso músicos de todas las épocas. Los expertos hablan de que construcciones tan
antiguas como las pirámides egipcias se levantaron bajo el principio del número de oro.
Obras maestras de Leonardo da Vinci, Miguel Ángel, Durero o Dalí, entre otros
pintores, llevan la marca de la divina proporción.

De Mozart se dice que dividió algunas de sus sonatas en dos partes que reflejan casi
exactamente la proporción áurea. Stradivari la utilizó para construir sus famosos
violines. Las dimensiones del edificio de la sede de la ONU en Nueva York poseen la
proporción áurea, con el fin de conseguir el orden arquitectónico perfecto en el
epicentro de la organización que rige los designios del mundo. Incluso,
intencionalmente o no, en el libro del Génesis de la Biblia se describe que "el arca (de
Noé) tendrá 450 pies de largo, 75 pies de ancho y 45 de altura", donde la proporción de
75/45 es de nuevo el número dorado. Sin olvidar que algo tan cotidiano como las
actuales tarjetas de crédito, o nuestro carné de identidad, mantienen esa misma
proporción.

El motivo para la gran propagación de Phi hay que buscarlo en su supuesta relación
con la belleza y la armonía. Aunque, todo hay que decirlo, son muchos los científicos
dudan de que nuestra percepción de lo que es bello esté vinculada a este número.

De momento, las investigaciones de Stephen Marquardt, investigador de la
Universidad de California, parecen dar un espaldarazo al vínculo entre belleza y
proporción áurea. Tras examinar multitud de rostros humanos y realizar numerosas
encuestas, este cirujano ha llegado a la conclusión de que los rostros considerados más
atractivos son aquellos cuyas partes determinan longitudes que están en proporción
áurea. Y esta relación, señala, no depende de las diferencias existentes en la concepción
de belleza según razas, culturas o épocas.


                                      La máscara áurea

                                      Fruto de sus pesquisas, Marquardt ha construido
                                      una máscara facial en la que utiliza la razón
                                      áurea para establecer la distancia ideal entre los
                                      diferentes elementos de un rostro. La belleza de
                                      una cara puede ser determinada según la
                                      desviación que presentan sus distintas partes
                                      respecto a lo que establece la máscara. Así, por
                                      ejemplo, el rostro de la actriz Michelle Pfeiffer se
                                      ajustaría exactamente a los cánones áureos de la
                                      máscara. Su invento, asegura, tiene aplicaciones
7


directas en cirugía plástica y reparadora, así como para maquillarse.

El doctor Marquardt se atreve incluso a sugerir una finalidad biológica para la belleza.
Según el investigador, se trata de un mecanismo para asegurar que los humanos se
reconocen entre sí y se sienten atraídos por miembros de su misma especie. Las caras
más hermosas son las que resultan más fácilmente reconocibles como humanas, algo
que sabemos comparando inconscientemente un rostro con el rostro ideal que tenemos
en nuestra mente. "La belleza es sencillamente humanidad", afirma.




4. Pi Y LOS CÍRCULOS

Más conocida, y quizás por ello menos impactante, es la omnipresencia de la constante
Pi (π =3,141592653…) en las formas circulares. Y es que, en cualquiera de ellas, la
longitud de la circunferencia dividida por su diámetro coincide siempre con este
número.

El primer intento de estimar el valor de Pi se atribuye a los Babilonios, que en el año
2000 a.C. aseguraban que equivalía a 3 1/8 (3,125). En la misma época los indios
utilizaban la raíz cuadrada de 10 para Pi (3,1622…). Pero ambas aproximaciones tenían
un error a partir del segundo decimal.
8




Años más tarde, Arquímedes aventuró que Pi estaba entre 3+10/71 y 3+1/7. Más cerca
se quedó, en el 150 d.C., Ptolomeo de Alejandría, que hablaba de 377/120
(3,14166667…). El chino Tsu Ch'ung-Chi, en el año 350, acertó hasta tres decimales con
la fracción 355/113 (3,14159292…). Pero hubo que esperar a 1761 para que un
matemático llamado Lambert probara que se trataba de un número irracional, es decir,
imposible de obtener a partir de ninguna fracción, lo que implicaba que el cálculo de
sus decimales no acabará nunca.

A partir de aquel momento se puso en marcha una carrera para calcular el mayor
número de decimales posible, especialmente impulsada a partir del siglo pasado con el
uso de ordenadores. En 1949, John Von Neumann utilizó la computadora electrónica
ENIAC, y tras setenta horas de trabajo obtuvo 2037 cifras decimales. En la actualidad,
el récord lo ostenta Yasumasa Kanada, de la Universidad de Tokio, que en 2002 extrajo
1,24 billones de decimales para Pi. Toda una hazaña.

Pi natural

A pesar de que en la Naturaleza no existen esferas tan perfectas como una bola de
billar, ni cilindros ideales, la ubicuidad de Pi es innegable. No sólo aparece cuando una
gota cae en el agua o en la curvatura del arcoiris. En el mundo animal, la altura de un
elefante, del pie al hombro, se obtiene multiplicando Pi por 2 y por el diámetro de su
pie. Cualquier onda o espectro contiene a Pi, lo que supone su presencia en la luz y en
cualquier vibración sonora, incluyendo las composiciones musicales. Además cobra
especial significado a la hora de calcular el movimiento de los planetas y las estrellas,
incluso el tamaño del Universo. Y en el mundo subatómico, los físicos se han topado
con Pi en las supercuerdas, esos elementos últimos de la materia con los que se espera
poder unificar de una vez por todas las leyes de la física.


Por su parte, un geólogo de la Universidad de Cambridge llamado Hans-Henrik
Stolum ha calculado el ratio entre la longitud real de los principales ríos, desde su
nacimiento hasta su desembocadura, y lo que mide la línea recta entre ambos puntos.
El resultado medio para todos los ríos es aproximadamente 3,14, cercano al valor de Pi.


Esta constante entiende también mucho de probabilidades. Basta saber, por ejemplo,
que la probabilidad de que dos enteros positivos escogidos al azar sean primos entre si
es 6/Pi2. O que si se eligen al azar dos números positivos menores que 1, la
9


probabilidad de que junto con el número 1 puedan ser los lados de un triángulo
obtusángulo es (Pi-2)/4.

5. EL NÚMERO e

El desarrollo de una colonia de bacterias, las encuestas de población, la prueba del
carbono 14 para datar restos orgánicos, e incluso la probabilidad de sacar 70 veces un
número par al lanzar un dado un centenar de veces tienen algo en común: un extraño
número comprendido entre 2 y 3, con infinitas cifras decimales y llamado e, o número
de Euler (e = 2.71828 18284 59045 23536 02874 7135...).




Aunque las primeras referencias a este número datan de 1618, fecha en la que John
Napier publicó su valor junto a otros logaritmos, fue el matemático suizo Leonhard
Euler quién empleó por primera vez la letra e en 1727 para nombrarlo. Este genio, del
que se decía que "calculaba sin aparente esfuerzo, como los hombres respiran o las
águilas se sostienen en el aire", mostró que el número e podía ser la base más "natural"
para los logaritmos, que en aquella época eran de gran ayuda para realizar operaciones
aritméticas.

Además, ideó una fórmula bautizada como identidad de Euler y considera por
muchos como la más bella e importante de las matemáticas:




En ella se aúnan, de forma escueta, varios conceptos claves de esta ciencia:

 π, el número más importante de la geometría.
 e, el número mas importante del análisis.
 i, el número mas importante del álgebra.

Del bosque a la mesa forense

Más allá de su belleza matemática, el número e tiene importantes implicaciones en el
mundo que conocemos. En biología, por ejemplo, una de sus principales aplicaciones
es el crecimiento exponencial. Este tipo de crecimiento surge cuando no hay factores
que limiten el crecimiento, como ocurre en ciertas poblaciones de bacterias, o en la
10


recuperación de una superficie boscosa después de un incendio. Para este tipo de
crecimiento se aplica la siguiente fórmula:


 N = No · et

Esto nos permite adivinar cual será la población (N) en un determinado tiempo (t) a
partir de la población inicial (No).




A la hora de datar un fósil, la constante de Euler también está presente. A mediados
del siglo XX, un químico llamado Libby descubrió el carbono-14, un isótopo radiactivo
del carbono que desaparece lentamente. El C14 reacciona con el oxígeno en las capas
altas de la atmósfera dando dióxido de carbono radiactivo, el cual entra en la superficie
de la Tierra, en la que se desarrolla la vida. Mientras un ser está vivo, va reponiendo el
C14 que pierde, pero cuando ese ser muere, sólo se producirá en él una pérdida
continua y lenta de C14. Una vez que los químicos consiguieron llegar a medir la
cantidad de C14 contenida en un ser no vivo, como se conocía la velocidad de
desintegración del C14, se lanzaron a buscar una ecuación que les diera como solución
el tiempo necesario para que en ese ser quedara tan solo esa cantidad de C14. Y se
encontraron con la sorpresa de que la fórmula contenía al número e.

Los forenses, como los paleontólogos, también deben tener este número en cuenta. Y
es que e permite determinar en un asesinato el momento de la muerte. Para ello es
necesario aplicar la ley de Newton sobre el enfriamiento que establece que la velocidad a
la que se enfría un cuerpo es proporcional a la diferencia entre la temperatura del
objeto y la temperatura del entorno. Esto quiere decir que cuando un objeto está mucho
más caliente que el aire exterior, su velocidad de enfriamiento es alta, de manera que
pierde temperatura muy rápidamente. Por el contrario, cuando un cuerpo está un poco
más caliente que su entorno, su velocidad de enfriamiento es baja.

Una persona viva no se enfría continuamente. El metabolismo humano asegura el
mantenimiento de la temperatura del cuerpo alrededor de los 36ºC. Pero, una vez
muertos, nuestro organismo deja de producir calor y, por tanto, comienza a enfriarse
siguiendo la ley de Newton, que se aplica con la fórmula matemática siguiente:
11


 T = Taire + (Tcos - Taire) / ek·t

En ella T es la temperatura, t es el tiempo en horas después de medianoche y k es una
constante. De nuevo e está presente.



Hay más. Esta constante también está ligada a la razón áurea y a la espiral logarítmica.
Cuando se cuelga una cadena o un cable por los extremos, tiende a adoptar una forma
que se relaciona con el número e. Incluso en algo tan mundano como el cálculo de los
intereses bancarios es necesario recurrir a la constante de Euler.



6. LAS CONSTANTES DE LA FÍSICA

Existen alrededor de 25 constantes físicas que aparecen en las fórmulas que describen
nuestro universo, desde lo más grande (los cúmulos de galaxias) hasta lo más pequeño
(los quarks). De esas 25 constantes, los físicos consideran que las más importantes son c
(la velocidad de la luz), G (la constante de la gravitación) y h (la constante de Planck,
que gobierna el mundo de los átomos).


A diferencia de los números vistos hasta ahora, se trata de constantes estimadas en el
laboratorio para explicar fenómenos físicos y expresadas en unidades, por lo que
dependen de éstas. Así, por ejemplo, la velocidad de la luz tiene un valor de
299.792.458 metros por segundo. Y la constante de Planck, 6,63 × 10-34 julios por
segundo.




Aparentemente no hay nada "mágico" en estas cifras. La sorpresa surge cuando se
combinan c y h con otra constante, la carga del electrón (e), obteniendo un número sin
unidades ni dimensiones: 7,297352533x10-3. Esta constante, también conocida como
alpha, es la "constante de la estructura fina", que describe cómo actúan las fuerzas a
nivel atómico. Los físicos creen que se trata de una pieza importante en el desarrollo de
12


nuestro universo, clave para alcanzar la ansiada "teoría del todo". Esta constante es
extraordinariamente importante. Si su valor fuera solo algo diferente, nuestro universo
sería completamente distinto. Por ejemplo, sabemos que el agua es 107 veces más
opaca a la radiación ultravioleta e infrarroja que a la luz visible. Dado que el tejido vivo
en general y los ojos en particular están compuestos mayormente por agua, la
comunicación por la vista sería imposible si no fuera por el hecho de que la
transmisión de la luz por el agua concuerda con la radiación del sol, algo posible
gracias a una determinación cuidadosa de los valores de las constantes de la fuerza de
gravedad y la fuerza electromagnética, además de la constante de Planck y la masa del
electrón.

Por otro lado, si se divide la intensidad del campo eléctrico que mantiene unidos los
átomos por la fuerza de la gravitación universal, que determina la formación y el
mantenimiento de las galaxias, estrellas, planetas y satélites en sus órbitas, también
obtenemos un número fijo: un 1 seguido de 36 ceros. Esta constante, conocida como N,
es tan importante que, si tuviera menos ceros, el Universo sería mucho más pequeño y
efímero, no podrían existir criaturas de mayor tamaño que un insecto y no habría
tiempo      suficiente      para       la     evolución      de     las      especies.

Igual de crítico es el valor constante que relaciona la fuerza nuclear fuerte con la
fuerza electromagnética. Si esta relación aumentase en sólo el 2% el universo se
quedaría sin hidrógeno y sin agua, medio indispensable para la vida. La constante
omega (Ω), relacionada con la densidad del Universo, determina la cantidad de materia
oscura. Y la constante cosmológica de Einstein, denotada por la letra griega lambda (λ),
representa la fuerza de la "antigravedad", y es fundamental para explicar la expansión
del Universo.

El extraordinario equilibrio que esto supone ha fascinado durante siglos a científicos de
todo el mundo. El premio Nóbel de Física Arno Penzias expresaba así el carácter
enigmático del universo: "La astronomía nos lleva a este evento único, un universo que
fue creado de la nada y que está equilibrado delicadamente para proveer exactamente
las condiciones requeridas para sustentar la vida. En la ausencia de un accidente
absurdamente improbable, las observaciones de la ciencia moderna parecen sugerir un
plan subyacente que podríamos llamar sobrenatural."

¿Está cambiando la velocidad de la luz?

Como su propio nombre indica, se supone que las constantes físicas permanecen
inmutables, reflejando una constancia subyacente de la naturaleza, eterna y universal,
en todos los tiempos y los espacios. Este es un pensamiento heredado de los padres de
la ciencia moderna, como Copérnico, Kepler, Galileo, Descartes o Newton, para
quienes las leyes de la naturaleza eran ideas inalterables de una mente divina. Dios era
un matemático, y el descubrimiento de las leyes de la naturaleza es una incursión en su
Mente. Sin embargo, en algunos casos la experimentación parece desmentir esta
permanencia, sugiriendo que ciertas constantes podrían cambiar a lo largo del tiempo.

Ese sería el caso de la velocidad de la luz, que podría haberse ralentizado a lo largo del
tiempo, según proponía hace unos años en la revista Nature el astrofísico y escritor
australiano Paul Davies, conocido por sus investigaciones en torno de los agujeros
negros y el comienzo del universo.
13




El trabajo de Davies surgió como respuesta al enigma propuesto por el astrónomo John
Webb y su equipo de la Universidad de Sidney. Analizando la luz llegada "del pasado"
de un cuásar distante - objeto celeste similar a una estrella -, Webb llegó a la conclusión
de que la constante de estructura fina de la luz del cuásar era alrededor de una
millonésima parte más pequeña de lo previsto. Davies investigó cuál de las constantes
sobre las que está basada alfa había variado a lo largo del tiempo y llegó a la
conclusión de que debía ser la velocidad de la luz. "Si la velocidad de la luz varía, el
Big Bang podría haber sido hace doce o quince mil millones de años -afirmó Davies-.
La velocidad de la luz podría haber sido infinita en ese momento, lo que explicaría
muchas cosas de nuestro universo actual". Y es que la supuesta variación de esta
constante, además de contradecir la teoría de la Relatividad de Einstein, podría dar
explicación a fenómenos como la temperatura casi uniforme del Universo, así como
reforzar las teorías sobre las dimensiones espaciales adicionales.

Davies no es el único que aporta pruebas en esta dirección. En 2004, analizando el
reactor nuclear natural de hace 2.000 millones de años que fue encontrado en 1972 en
Oklo, en África Occidental, algunos científicos señalaron que la constante alpha por
aquellas fechas podría haber sido ligeramente mayor, lo que en principio supondría
que la velocidad de la luz habría variado en los dos últimos milenios.

Otros investigadores discrepan con estas interpretaciones, y aseguran que las
diferencias observadas podrían explicarse por una variación en la intensidad de la
fuerza electromagnética entre los electrones. Aún queda mucho trabajo por hacer,
aseguran, antes de afirmar que la velocidad de la luz u otras "constantes universales"
podrían estar cambiando.

7. OPTIMIZACIÓN EN EL UNIVERSO

Por Manuel de León, Vicepresidente de la Real Sociedad Matemática Española y Académico
de la Real Academia de Ciencias Exactas, Físicas y Naturales.

Las matemáticas nos enseñan las pautas escondidas en las masas de datos con las que
el universo nos bombardea continuamente. Pero esas pautas obedecen a una necesidad
de optimizar. Al terminar de leer este artículo quédese con esta pregunta: ¿optimiza el
universo las constantes físicas?
14


Optimizando espacio

En 1606, Sir Walter Raleigh propuso al matemático Thomas Harriot una cuestión que
preocupaba a la Armada inglesa: ¿cuál es la mejor manera de apilar las balas de cañón
en las cubiertas de los barcos? Harriot escribió a su colega Johannes Kepler. La
respuesta fue la llamada conjetura de Kepler: justamente la manera de apilar las
naranjas en las fruterías. Con algo más de tecnicismo, ninguna naranja más se puede
introducir en el mismo receptáculo. La densidad medida como la razón entre el espacio
ocupado        y      el      espacio     total     es      precisamente       π/18.

Aunque pueda parecer obvio, los matemáticos llevan ya casi cuatro siglos intentando
probar que esto es así, en gran medida porque la demostración conlleva una enorme
cantidad de cálculos de ordenador. En 1998, el matemático norteamericano Hales
presentó una demostración que todavía no ha sido aceptada definitivamente; el propio
autor estima que tendrá una prueba formal en 20 años más. Pero no crea que los
matemáticos nos dedicamos a problemas que los fruteros han resuelto hace mucho
tiempo: el plegamiento de las proteínas es tampoco una versión compleja de los
problemas de empaquetamiento.

Optimizando tiempo

Usted seguramente habrá sufrido el invierno pasado una gripe anual. El esquema es
bien conocido: dos días para desarrollar la enfermedad y una semana para curarse. Los
virus crecen exponencialmente (parecen conocer a nuestro amigo el número e) y. ante
su ataque, el organismo reacciona lentamente. Esta es la respuesta correcta, que eones
de evolución han enseñado: si la respuesta fuese tan rápida como el ataque, se
produciría un equilibrio, y usted arrastraría su gripe durante largos años. Al ser lenta,
el organismo puede hacer acopio de anticuerpos y dar un ataque masivo. Le
sorprenderá saber que este modelo matemático es exactamente el mismo que produce
esos maravillosos patrones coloridos de las conchas marinas. ¡Pareciera que la
naturaleza optimizase también la cantidad de matemáticas que precisa!

Optimizando el crecimiento

Todos conocemos esos maravillosos campos de girasoles. Observemos uno de ellos:
veremos muchas espirales entrelazadas y, si contamos las que giran a izquierda y las
que lo hacen a la derecha, encontramos siempre dos términos consecutivos de la
sucesión de Fibonacci. ¿Cuál es la causa? El girasol va creciendo paso a paso, con
mucho cuidado, produciendo las proto-hojas optimizando el espacio que ocupan. Ese
crecimiento cuidadoso con números enteros es capaz de producir el a veces llamado el
más irracional de los números, el número Φ.

¿Son las constantes "constantes"?

Hay ciertos números que aparentan ser "mágicos", y a la vez, hay constantes físicas que
no le van a la zaga. ¿Cuáles son más "constantes"? Lo cierto es que la física de los
primeros segundos de nuestro universo parece haber producido las constantes que
ahora observamos, que, de pasada, son las que permiten que un ser humano (yo en
este caso) esté ahora escribiendo un artículo (recuerden el principio antrópico). Pero no
puede hablarse en realidad de "constantes matemáticas", sino de números. Hay una
cantidad infinita de números irracionales como π, e o Φ; y desde un punto de vista
estrictamente matemático, no hay diferencias entre unos y otros.
15


Pero también es verdad que las matemáticas proporcionan modelos para que puedan
realizarse todas las constantes físicas. ¡Esta es "la irrazonable efectividad de las
matemáticas" de la que hablaba el premio Nóbel de Física Paul Wigner!
16



                                     COMPLEJIDAD



1. Definición de un Sistema Complejo


Un sistema complejo es un sistema compuesto por varias partes
interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al
observador.

En un sistema complejo, existen variables ocultas cuyo desconocimiento nos impide
analizar el sistema con precisión. Así pues, un sistema complejo, posee más información
que la que da cada parte independientemente. Para describir un sistema complejo hace
falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre
sí.




2. Complejidad en lo cotidiano

La definición de complejidad tiene que ver con la diversidad de elementos que
componen una situación; un todo que se compone de partes que interactúan y que
estas a su vez se encuentran en contacto con su medio ambiente. Desde este ángulo,
todo es complejidad. Toda nuestra vida está rodeada del concepto de complejidad.



La complejidad no tiene una sola forma de definirse y entenderse, esto es, la
definición de complejidad depende del punto de vista del observador, como
menciona Warfield (1994). Algo que es complejo para un observador tal vez no lo será
para un segundo observador o para un grupo de observadores. Desde esta perspectiva la
complejidad se nos presenta como el diferencial entre la demanda de recursos (materiales,
intelectuales, valores, etc.) para enfrentar una situación y
los recursos de que dispone el observador. Es sencillo, si la situación que se presenta
(desde el punto de vista de algún observador) demanda de gran cantidad de
recursos (de cualquier índole) y no se cuenta con los recursos necesarios para
afrontar esa situación (por su dinámica y características propias) entonces estamos frente a
una situación compleja.




3. Tipos de Complejidad


Una empresa adquiere una nueva y numerosa flotilla de camiones estandarizados de un
solo proveedor para la entrega de sus productos. La realización de reparaciones,
manejo de las partes, y control de refacciones, requiere del desarrollo de
habilidades y aprendizaje que debe acumularse dentro del equipo de gente que tiene a
su cargo la tecnología de reparto de producto.
17



Dos años después, por los compromisos que tiene un alto ejecutivo, se compra una
fuerte cantidad de unidades nuevamente, pero de distinto proveedor. Sobra comentar
que el esfuerzo requerido dentro de la organización para la administración,
control y seguimiento de, aunque aparentemente dos tecnologías similares, requiere de
un desgaste de energía abundante, de un despliegue de talento adicional y de una
administración más compleja de una situación que ya había sido estabilizada.



Este simple ejemplo, muy específico y común en el contexto organizacional, cae dentro
de una serie de situaciones que se presentan a diario dentro de cualquier empresa.


De esta situación podemos concluir lo siguiente:

1. El dominio de una simple tecnología es un proceso de aprendizaje que requiere
tiempo. Está implícito cierto grado de complejidad con el que habrá que lidiar.
2. A medida que se agregan mas variables a las existentes, la necesidad de contar con
la infraestructura para su administración debe ser mayor
(demanda mayor tiempo, talento y recursos).
3. Esta situación se muestra como una de las más características dentro de cualquier
organización. Donde para la toma de decisiones se parte de ciertas bases, variables y
supuestos. Sin embargo no se tiene un criterio común para evaluar el impacto positivo
o negativo de la decisión y sus posibles efectos secundarios a todos los sistemas
involucrados. Tampoco se cuenta con una idea clara de lo que esta decisión implica
en el incremento del nivel de complejidad en el tiempo.

Este tipo de complejidad organizacional adquirido pudiera llamarse "provocada", puesto
que se contaba con la información para decidir por el tipo de proveedora seleccionar.
Esto es, la decisión correcta hubiera sido idealmente seleccionar la misma tecnología,
esto permitiría un mejor control del sistema en cuestión, que a su vez se traduciría en
una mayor eficiencia de la organización como un todo. Aquí vemos que no todo en
la organización es "aleatorio"; la cantidad de circunstancias de desgaste por energía
disipada que se generarán gracias a una mala decisión serán mayores debido a que la
exigencia del sistema crece en diferentes variables. El sistema ahora requiere más
atención y si la organización no cuenta con los recursos adecuados para administrarlo
correctamente entonces la situación se volverá ineficiente.



Tratando entonces de clasificar los diferentes tipos de complejidad que se pueden
encontrar en las organizaciones, pudiéramos mencionar las siguientes categorías:

A. Complejidad de Origen.- Debida a las características de la tecnología, producto e
infraestructura que demanda naturalmente a la organización. El tipo de complejidad de
diseño es aquella que surge de los componentes básicos de la organización y sus
interrelaciones para poder operar: La tecnología, su organización, el mercado, el tipo
de producto, sistema de manejo      de    materiales,    sistema     de    distribución,
etc.

Dentro de la complejidad de origen podemos decir que juega un papel fundamental
la Tecnología. Existen innumerables estudios que marcan a la tecnología como una de
las principales variables que definen la configuración de la organización, puesto
que en base al proceso de transformación se empiezan a desplegar requerimientos
para llevarla a cabo. Existen tecnologías muy sencillas de administrar pero donde la
18



complejidad emerge de la cantidad de clientes que se tiene, ya que cada uno de ellos
requiere algo específico. En el otro extremo están las compañías que se encuentran
dentro del mercado de la innovación y que demanda gran coordinación entre sus
elementos, desde que se diseña el producto hasta que se lanza al mercado, pasando
por sus etapas de prueba y fabricación.

Cada una de ellas guarda su complejidad propia y demanda de recursos y actores
capacitados para administrar ese nivel de complejidad implícito.

B. Complejidad Residual.- El tipo de complejidad no administrada nace en el momento en
el que la variedad demandada excede a la variedad del sistema y que genera un
diferencial acumulable. Complejidad resultante de los procesos normales dentro de la
organización; conflictos en la toma de decisiones, descontrol de procesos,
programación de la producción, reclamaciones del cliente, etc. Dentro de la
complejidad residual juega un papel primordial la interacción de los vectores Tecnológico,
Administrativo y Humano.

Este tipo de complejidad esta más identificada con los procesos que se generan día a
día en la organización al operar el sistema. La organización tiene que lidiar con ella todo
el tiempo y es el talento del personal y la sinergia de grupo la que logra que se
salga adelante una y otra vez, aunque si no se cuenta con lo recursos adecuados, la
entropía tenderá a desarrollarse con el tiempo matando al sistema.

C. Complejidad Provocada.-Complejidad resultante de fenómenos no atribuibles a
situaciones normales, como son grupos de poder que toman decisiones
inconscientemente (?) en la organización para su propio beneficio. Surge por
razones ajenas a los fines de la organización y más bien se produce obedeciendo a los
intereses personales de la gente, los intereses de grupos de poder internos, los intereses
organizacionales de doble cara, como son el promover una estrategia de mejora
en la organizacional pero para lograr beneficios personales en cuanto a
proyección, aprendizaje o para perpetuarse en el poder.

Este tipo de complejidad es muy difícil de detectar y pienso que es a la que hay que
temerle más. Como menciona Gerad Egan (1996, pag 3) en su libro El Valor
Agregado de los Empleados en las Organizaciones:
"Comprender y administrar el lado oculto de la empresa es una parte clave de la
sabiduría pragmática que se requiere para enfrentar los cambios desconcertantes que
están ocurriendo en el lugar de trabajo". No se puede negar que cada persona dentro de la
organización tenga la necesidad y el derecho de hacer carrera dentro de la organización,
pero hay que entender que el primer objetivo de la empresa es que esta sea negocio
y no precisamente para beneficio de algunos.
19




Ya sea consciente o inconscientemente, cualquier decisión que ocurre en la
organización afecta su desempeño y si esta no se toma buscando antes que nada el beneficio
de la empresa, entonces estaremos agregando mas elementos que contribuyan a desgastar
al sistema y mermen su equilibrio dinámico.

Son muy clásicos los estudios sobre administración de la tecnología donde el grupo
que controla los principales procesos de la organización se resiste al cambio poniendo
objeciones a los cambios propuestos en aras de la mejora. Esto no es un absurdo; la gente
dentro de la organización quiere conservar lo que hasta ese momento ha ganado con
mucho sacrificio. Cualquier cambio en el status quo pone en peligro su lugar en la
organización y esta o estas personas harán hasta lo imposible por no ceder.

Lo triste de la historia es que la organización pierde tiempo valioso para
fortalecerse al adaptarse a su medio ambiente, y esto representa de alguna manera
quitarle sus defensas ante los ataques de la competencia. En la complejidad
provocada juega un papel predominante la cultura y el liderazgo.



Todos estos tipos de complejidad ocurren cada día en el entorno organizacional, algunos
con más fuerza que otros, por la realidad situacional muy particular que se vive
internamente. Sin embargo si no son identificados estas variedades de complejidad y
administrados adecuadamente la organización perderá la energía que existe, llevando
consigo al desgaste, y la caída paulatina del sistema. Y la
20



razón es muy sencilla, se acabó el colchón de la ineficiencia para aguantar más decisiones
equivocadas en las empresas.


4. Características de la Complejidad


1. La Complejidad puede ocurrir en sistemas naturales, aquellos diseñados por el
hombre e incluso en estructuras sociales.
2. Los sistemas dinámicos complejos pueden ser grandes o pequeños; de hecho en
algunos sistemas complejos, los elementos grandes y pequeños viven cooperativamente.
3. La forma física puede ser regular o irregular.
4. Como una regla, entre más grande es el número de partes del sistema, existe mayor
probabilidad de ocurrencia de la complejidad.
5. La complejidad puede ocurrir en sistemas disipadores (en contacto con su medio
ambiente y que se desgastan al operar) o conservadores de energía
(como el movimiento planetario).
6. Los sistemas no son completamente probabilísticos ni completamente
determinísticos; exhiben ambas características.
7. Las causas y efectos de los eventos que el sistema experimenta no son
proporcionales.
8. Las diferentes partes de sistemas complejos están conectadas y afectan una a otra de
una manera sinergética.
9. El nivel de complejidad depende de las características del sistema, su medio
ambiente, y la naturaleza de las interacciones entre ellos.
10. Los sistemas complejos son abiertos, en el sentido de que intercambian materia,
energía e información con su medio ambiente.
11. Los sistemas complejos tienden a generar procesos irreversibles.
12. Los sistemas complejos son dinámicos y no se encuentran en equilibrio.
13. Muchos sistemas complejos no son bien comprendidos y frecuentemente generan
cambios que sugieren que las relaciones funcionales que los representan no son
diferenciables (de fácil solución).
14. Existen paradojas como eventos rápidos y lentos, formas regulares e irregulares, y
cuerpos orgánicos e inorgánicos en cohabitación.


5. Ejemplos


Un ejemplo típico de sistema complejo es la Tierra.


La tierra está formada por varios sistemas simples que la describen:


•   Campo gravitatorio.
•   Campo magnético.
•   Flujo térmico.
•   Ondas elásticas.
•   Geodinámica.
21



Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que
interactúan y hacen evolucionar el sistema 'Tierra'. Hay, pues, mucha más información
oculta en esas interrelaciones de sistemas.


Otros sistemas complejos típicos son:


•   Terremotos y volcanes.
•   Los ecosistemas.
•   Los seres vivos.
•   El software


6. Complejidad y Caos




Bibliografía
 http://es.wikipedia.org/wiki/Sistema_complejo
http://www.slideshare.net/schuschny/clase-1-y-2-introduccin-a-las-
ciencias-de-la-complejidad/1
http://www.eumed.net/cursecon/libreria/2004/aca/aca.htm
22



CASO DE ESTUDIO: Prueba de Inteligencia (CRUZAR EL RIO)
Esta es una prueba que se aplica en algunos países asiáticos como el Japón y China
para los aspirantes a algún trabajo. Las instrucciones se indican se indican a
continuación:



Reglas:

                   Recuerda: “TODOS DEBEN CRUZAR EL RIO !!!!!”

1. Todo el mundo tiene que cruzar el rio utilizando para ello la balsa.

2. Solo 2 personas en la balsa pueden cruzar al mismo tiempo (capacidad de la balsa

2 personas).

3. El Padre no puede estar con ninguna de las hijas si la Madre no esta presente.

4. La Madre no puede estar con ninguno de los hijos si el Padre no esta presente.

5. El Ladrón no puede estar con ningún miembro de la familia sin la presencia del

Policía

6. Solo el Padre, la Madre y el Policía saben como funciona la balsa.




Nota: Cronométrese el tiempo empleado para desarrollar el caso de estudio



INSTRUCCIONES MANEJO DE LA APLICACIÓN (actividad.pps)
23



•   Para empezar da clic en el circulo azul.

•   Para mover a las personas da clic sobre ellas.

•   Para mover la balsa da clic en la palanca.
24



AUTOEVALUACIÓN

Responda las siguientes interrogantes:



1. Tiene solución el caso de estudio presentado?

SI      NO

En caso de SI. Enumere los pasos que se deben seguir:

………………………………………………………………………………………

………………………………………………………………………………………

………………………………………………………………………………………

………………………………………………………………………………………

………………………………………………………………………………………



2. El nivel de complejidad de la aplicación es de un _________ %
25



                                    INCERTIDUMBRE
1. PROBABILIDAD

El conocimiento sobre la manera en que opera el mundo está limitado por lo menos por cinco tipos de
incertidumbre:

    1.   Conocimiento inadecuado de todos los factores que pueden influir en algo.
    2.   Número inadecuado de observaciones sobre esos factores.
    3.   Falta de precisión en las observaciones.
    4.   Carencia de modelos apropiados para combinar toda la información de modo significativo, y
    5.   Capacidad inadecuada para calcular a partir de los modelos.

Es posible predecir algunos sucesos con mucha precisión (eclipses), otros con menos exactitud
(elecciones) y otros con muy poca certeza (terremotos). Aunque la certidumbre absoluta es casi
imposible de conseguir, con frecuencia se puede estimar la probabilidad sea grande o pequeña de que
algunas cosas sucedan y el margen probable de error de la estimación.

Con frecuencia resulta útil expresar la probabilidad en forma numérica. Por lo general se utiliza una
escala de probabilidad de 0 a 1, donde el 0 indica la creencia de que algún suceso específico es seguro
que no ocurrirá, el 1 indica la creencia de que es seguro que sucederá y el intervalo entre los dos
indica certidumbre.

Por ejemplo, una probabilidad de 0.9 indica que hay 9 oportunidades en 10 de que ocurra un suceso
como se predijo; una probabilidad del 0.001 indica que hay solamente una oportunidad en 1 000 de
que ocurra. También se pueden expresar las probabilidades como porcentajes, que van desde 0% (no
hay certeza) hasta el 100% (certeza). Las incertidumbres también pueden expresarse como
desigualdades: una probabilidad de 0.8 para un evento puede expresarse como las posibilidades de 8
a 2 (o 4 a 1) en favor de que ocurra.

1.1 Una manera para estimar la probabilidad de un evento es considerando los acaecimientos
pasados.

Si la situación actual es similar a las anteriores, entonces se pueden esperar resultados algo similares.
Por ejemplo, si llovió el 10% de los días de verano del año pasado, se puede esperar que llueva
aproximadamente el 10% de los días del siguiente verano. Así, una estimación razonable de la
probabilidad de lluvia de cualquier día de verano es 0. 1 una oportunidad en 10. La información
adicional puede cambiar la estimación de la probabilidad. Por ejemplo, pudo haber llovido el 40% de
los días nublados del pasado verano; de modo que, si el día actual está nublado, se puede aumentar la
estimación de 0.1 a 0.4 para la probabilidad de lluvia. Cuanto más se parezca la situación que interesa
a aquélla de la que se tienen datos, mayor es la probabilidad de que la estimación resulte más
acertada.

1.2 Otro enfoque para estimar las probabilidades es considerar los posibles y distintos
resultados de un suceso específico.

Por ejemplo, si hay 38 ranuras de amplitud igual en una ruleta rusa, se puede esperar que la bola
caiga en cada ranura más o menos 1/38 veces. Las estimaciones de esa probabilidad teórica descansan
en la suposición de que todos los resultados posibles son razonables y es igualmente probable que
todos ocurran. Pero si ello no es cierto por ejemplo, si las ranuras no son de igual tamaño o si en
ocasiones la bola se sale de la ruleta, la probabilidad calculada será errónea.

1.3 Las probabilidades son muy útiles para predecir proporciones de resultados en grandes
cantidades de eventos.

Una moneda lanzada al aire tiene una probabilidad de 50% de que caiga cara, aunque una persona no
va conseguir precisamente 50% de caras en un número par de lances. Cuanto más se lance una
26


moneda, será menos probable que uno consiga una cantidad precisa del 50%, pero la proporción más
cercana de caras es probable que sea el teórico 50%.

De igual manera, las compañías aseguradoras pueden, dentro de un rango de uno o dos puntos
porcentuales, predecir la proporción de personas de 20 años que morirá en un año especifico, pero es
probable que se equivoquen por miles de muertes totales y no tienen ninguna capacidad de predecir si
alguien en particular que tenga 20 años morirá. En otras palabras, también es importante distinguir
entre la proporción y la cifra real. Cuando hay una gran cantidad de sucesos similares, aun un
resultado con una probabilidad muy pequeña de ocurrir puede suceder con mucha frecuencia. Por
ejemplo, un examen médico con una probabilidad de 99% de ser correcto puede parecer muy preciso
pero si ese examen se hubiera aplicado a un millón de personas, aproximadamente 10 000 individuos
recibirían resultados falsos.

2. RESUMEN DE DATOS

La información se encuentra alrededor de todos, a menudo en tan grandes cantidades que no es
posible darle sentido. Un conjunto de datos se puede representar a través de un resumen de
características que pueden revelar u ocultar aspectos importantes. La estadística es una rama de las
matemáticas que desarrolla métodos útiles de organizar y analizar grandes cantidades de datos.

Por ejemplo, para tener una idea de lo que es un conjunto de datos, se podría trazar cada caso en una
recta numérica, y después inspeccionar la gráfica para ver dónde se acumulan los casos, dónde se
separan unos de otros, dónde se encuentran los más altos y los más bajos, y así sucesivamente. De
forma alternativa, el conjunto de datos se puede caracterizar de manera resumida describiendo dónde
se halla su centro y cuánta variación hay alrededor de él.

El estadístico más conocido para resumir una distribución de datos es la media, o promedio común,
pero se debe ser cuidadoso al usarla o interpretarla. Cuando los datos son discretos (como el número
de hijos por familia), la media no podría ser un valor posible (por ejemplo, 2.2 hijos).

Cuando los datos se inclinan mucho hacia un extremo, la media tampoco puede estar cerca de un
valor común. Por ejemplo, una proporción pequeña de personas que tienen ingresos personales muy
altos puede aumentar la media mucho más de lo que la mayoría de las personas concentradas en el
extremo más bajo sería capaz de disminuirla.

La mediana, la cual divide la mitad inferior de los datos de la mitad superior, es más significativa
para muchos propósitos. Cuando sólo hay unos cuantos valores discretos de una cantidad, el tipo de
promedio más informativo puede ser la moda, la cual es el valor único más común por ejemplo, el
número más común de automóviles por familia en los Estados Unidos de América es 1.

2.1 En general, los promedios por sí mismos no hacen caso de la variación en los datos y pueden
implicar más uniformidad de la que existe

Por ejemplo, la temperatura promedio en el planeta Mercurio de aproximadamente 150 F no suena
tan mal hasta que uno considera que ésta oscila desde 3000 F hasta 3000 F bajo cero. El descuido de
la variación puede ser particularmente engañoso cuando se comparan promedios. Por ejemplo, el
hecho de que la estatura promedio de los hombres sea claramente mayor que la de las mujeres, se
podría enunciar como "los hombres son más altos que las mujeres", en tanto que existen muchas
mujeres que son más altas que muchos hombres. Por tanto, para interpretar promedios, es importante
tener información sobre la variación dentro de los grupos, como la gama total de datos o la gama
cubierta por el 50%. Una gráfica de todos los datos a lo largo de una recta numérica hace posible ver
la forma en que se distribuyen los datos.

2.2 Con frecuencia se presentan datos resumidos que pretenden demostrar una relación entre
dos variables, pero carecen de información esencial

Por ejemplo, la afirmación de que "más del 50% de las parejas casadas que tienen diferentes
religiones se divorcian" no diría nada acerca del vínculo entre la religión y el divorcio a menos que se
conozca también el porcentaje de parejas que se divorcian teniendo la misma religión. Sólo la
27


comparación de los dos porcentajes podría indicar si existe una relación real. Aun entonces, es
necesaria la precaución por los posibles sesgos en la manera en que se seleccionaron las muestras y
por las diferencias en porcentaje que puedan ocurrir sólo por el azar al seleccionar la muestra. Los
informes apropiados de esa información deberán incluir una descripción de posibles fuentes de sesgos
y una estimación de la incertidumbre estadística en la comparación.

3. MUESTREO DE DATOS

La mayor parte de lo que se aprende sobre el mundo se obtiene de información basada en muestreos
de lo que se está estudiando por ejemplo, muestras de formaciones rocosas, luz de las estrellas,
televidentes, enfermos de cáncer, ballenas, números, etc.. Se hace uso de las muestras porque
resultaría imposible, impráctico o demasiado costoso examinar el todo de algo, y porque una muestra,
por lo general, es suficiente para la mayor parte de los propósitos.

Al sacar conclusiones sobre un todo a partir de muestras, se deberán tomar en cuenta dos aspectos
principales.

o   Primero, se debe estar alerta a posibles sesgos originados por la forma en que se selecciona la
    muestra. Las fuentes comunes de sesgos al seleccionar muestras incluyen la conveniencia (por
    ejemplo, entrevistar sólo a los amigos o recoger solamente rocas de la superficie), la
    autoselección (por ejemplo, estudiar únicamente a la gente que coopera voluntariamente o a
    quienes regresan los cuestionarios), el fracaso para incluir a aquellos que se han retirado a lo
    largo del camino (por ejemplo, examinar sólo a estudiantes que permanecen en la escuela o a
    pacientes que siguen el curso de una terapéutica) y la decisión de usar sólo los datos que apoyen
    las propias concepciones previas.
o   El segundo aspecto importante que determina la utilidad de una muestra es su tamaño. Si ésta se
    obtiene sin sesgos en el método, entonces, cuanto más grande es, mayor es la probabilidad de que
    represente al todo con exactitud. Esto es así porque, cuanto mayor es la muestra, es más probable
    que los efectos menores de las variaciones debidas al puro azar estén en sus características
    resumidas. La probabilidad de extraer una conclusión equívoca disminuye a medida que el
    tamaño de la muestra se incrementa. Por ejemplo, para las muestras escogidas al azar, encontrar
    que 600 de una muestra de 1 000 tienen una cierta característica, es una evidencia mucho más
    fuerte de que una mayoría de la población presenta esa característica que descubrir que 6 de una
    muestra de 10 (o incluso 9 de 10) la tienen. Por otro lado, el tamaño real de la población total de
    la cual se extrae una muestra tiene poco efecto en la exactitud de los resultados de ésta. Una
    muestra aleatoria de 1 000 podría tener aproximadamente el mismo margen de error si se
    selecciona en una población de 10 000 o en una similar de 100 millones.

4. CASO DE ESTUDIO: LA INCERTIDUMBRE EN LA METROLOGÍA

“Mide todo lo que puedas medir; si hay algo que todavía no puede ser medido, encuentra
como hacerlo”. Galileo Galilei, Astrónomo.

“Sólo es posible conocer un fenómeno si podemos medirlo y reducirlo a números”. William
Thompson, Físico.

Definición de algunos conceptos

Medición: Es el conjunto de acciones que tienen por objeto determinar el valor de una
magnitud particular denominada mensurando.

Procedimiento de medición: Es la secuencia específica de operaciones utilizada para medir
determinada magnitud particular, siguiendo un principio establecido y de acuerdo a un
método dado.

Instrumento de medición: Aparato destinado a obtener medidas directas que permiten
estimar los valores de diversas magnitudes particulares.
28


Mensurando: Magnitud medida por un instrumento.

Valor verdadero: Valor real del mensurando.

Sistema de medición: Incluye instrumentos, patrones de calibración, conceptos y leyes
físicas, operarios humanos, valores de propiedades y constantes, etc.

Escala: Conjunto de símbolos o marcas ubicados en el instrumento, a menudo acompañados
de una referencia numérica y normalmente a lo largo de una recta o arco de círculo.

Índice: Puntero, aguja, lápiz, punta luminosa, superficie líquida, etc. cuya posición indica el
valor de la magnitud.

Longitud de escala: Es la distancia entre la primera y última marca indicada en unidades de
longitud a lo largo del camino recorrido por el índice.

Espaciamiento de escala: Es la distancia entre marcas adyacentes. Para que el índice sea
legible tiene que ser mayor que 0.7mm.
División de escala: Conjunto de valores limitados por dos trazos consecutivos.

Intervalo de escala: Es la diferencia de valor representado por el desplazamiento del índice
a través de un espaciamiento de escala.

Escala lineal: Existe si el cociente entre el intervalo de escala y el espaciamiento de escala es
constante a lo largo de toda la escala.

Resolución: Es el cambio en el valor de la magnitud que produce el menor cambio
apreciable en la indicación del aparato. Varía generalmente entre el 10 y el 20 % del
espaciamiento de escala.
Exactitud: Es una expresión cualitativa del grado de concordancia entre la magnitud
medida y la magnitud real.

Repetitividad: Es el reflejo de la dispersión de la de serie de valores que se obtienen al
medir repetidas veces una misma magnitud.

Precisión: Término que se asocia en ocasiones a la repetitividad, resolución o exactitud.
Para evitar confusiones se evita su uso.
Norma y proceso de normalización ISO
Se define como norma al conjunto de especificaciones que caracteriza a un producto,
proceso o procedimiento. Una norma es un patrón de referencia que representa una
solución óptima para un problema que se repite.
En general, las normas son documentos consensuales que tienen por objeto establecer los
criterios mediante los cuales una determinada entidad, ya sea persona, producto, proceso,
servicio o sistema, se adecua a una base de comparación definida oque es aceptable según
ella.
Algunos ejemplos de Normas son: ASTM, NCh de INN, ISO, etc.

La Normalización ISO consiste en el proceso de formulación y aplicación de reglas que
permitan abordar ordenadamente, con el concurso de todos los interesados, una actividad
específica para el beneficio de éstos y, especialmente, para promover una economía óptima,
para el interés general, teniendo debida consideración de las condiciones de funcionamiento
y exigencias de seguridad.
En la aplicación de las normas, especialmente en el Control de Calidad, se requiere de
sistemas de unidades y de instrumentos de medición, que permitan verificar el grado de
concordancia entre el producto real y el valor de referencia indicado por la norma o patrón
29


de comparación. Este requerimiento lo satisface la Metrología que es la base científico-
técnica de las NORMAS, Control de Calidad y la Certificación de Calidad.

Proceso de Normalización




Control de Calidad

El control de calidad es un procedimiento integral de:




Además existe una estrecha relación entre control de calidad, normalización y metrología de
la siguiente forma:




Algunas definiciones de Metrología

1.- Ciencia que tiene por objetivo el estudio de los sistemas de pesas y medidas.
2.- “metron” = medida “logos” = tratados.
3.- Ciencia de medir, que significa cuantificar la magnitud de cualquier fenómeno por
comparación con otro de la misma naturaleza y reconocido como Patrón.
4.- Ciencia que se dedica al estudio de las mediciones.

Todo fenómeno físico o químico que sea posible medir, entra en el campo de la
“Metrología” (Está relacionado con todas las ciencias de la Ingeniería).
30


Origen del metro

1791: La Academia de Ciencias de Francia define “metro” como la diez millonésima parte
del cuadrante terrestre, dando origen al sistema métrico decimal.
1799: Se construye un patrón de longitud en una aleación de platino e iridio.
1840: El sistema métrico decimal es adoptado en toda Francia.
1875: Mediante la firma de delegados de 17 países se funda la “Oficina Internacional de
pesas y Medidas de París”, la cual se encargó de fabricar réplicas del metro.
1908: Chile adhiere la “Convención Internacional del Metro”.
1960: Metro es “1.650.763,73 veces la longitud de onda en el vacío de la radiación naranja de
Criptón 86”.
1983: Metro es “la longitud de la trayectoria recorrida por la luz en el vacío durante
1/299.792.648 segundos.

Sistema de medida anglosajona

Tanto Inglaterra como América formaron la convención del Metro y recibieron sus
prototipos correspondientes. Sin embargo, como las convenciones no eran obligatorias,
estos países han seguido con sus sistemas especiales de pesas y medidas.
La unidad oficial Anglosajona es la yarda, que tiene aproximadamente 0,914 metros y es
igual a 3 pies y a 36 pulgadas.
1761: Se construye el primer patrón de la yarda, el cual era una barra de latón con dos
pastillas en oro marcadas con un pequeño agujero, entre las cuales se definió la yarda a
temperatura de 62º F.
1834: Se destruye el patrón de la yarda a causa de un incendio.
1845: El actual patrón de la yarda es una barra de bronce cuyas dos extremidades están
perforadas con dos agujeros remachados con oro.

Sistema Internacional de Unidades SI

El 20 de Mayo de 1875, 17 países suscribieron en París, la Convención del Metro, a raíz de la
cual se adoptó el “Sistema Métrico de Unidades”.

Unidades básicas

            Magnitudes básica                      Unidades básicas
Símbolo    Magnitud                             Unidad      Símbolo
L          longitud                             metro       m
M          masa                                 kilogramo kg
T          tiempo                               segundo     s
Q          temperatura termodinámica            kelvin      K
I          intensidad de corriente eléctrica    ampere      A
J          intensidad luminosa                  candela     cd
N          cantidad de sustancia                mol         mol

Unidades SI derivadas sin nombre propio

Magnitud                   Nombre                          Símbolo
área                       metro cuadrado                  m
                                                               2


volumen                    metro cúbico                    m
                                                               3


velocidad, rapidez         metro/segundo                   m/s
aceleración                metro/segundo cuadrado          m/s
                                                                    2


número de ondas            1/metro                         m
                                                               -1
31


densidad                       kilogramo/metro cúbico   kg/m
                                                                     3


concentración (cantidad Mol/metro cúbico                mol/m
                                                                         3

de sustancia)
actividad (radiactiva)  1/segundo                       s
                                                            -1


volumen específico             metro cúbico/kilogramo   m /kg
                                                             3


densidad de       corriente ampere/metro cuadrado       A/m
                                                                 2

eléctrica
intensidad         campo ampere/metro                   A/m
magnético
luminancia                     candela/metro cuadrado   cd/m
                                                                 2



Unidades derivadas con nombre especial

                                                        Expresión                         en
                     Nombre unidad                      términos                          de
Magnitud                           Símbolo
                     derivada SI                        unidades
                                                        básicas
                                                                             -1
frecuencia           hertz               Hz             1 Hz = 1 s
                                                                                          2
fuerza               newton              N              1 N = 1 kg m/s
                                                                                      2
presión              pascal              Pa             1 Pa = 1 N/m
energía trabajo      joule               J              1 J = 1 Nm
potencia             watt                w              1 w = 1 J/s
carga eléctrica      coulomb             C              1C=1As
potencial
                     volt                V              1 V = 1 J/C
eléctrico
capacitancia
                     farad               F              1 F = 1 C/V
eléctrica
resistencia
                     ohm                 Ω              1 Ω = 1 V/A
eléctrica
conductancia
                     siemens             S              1 S = 1 A/V
eléctrica
flujo magnético      weber               wb             1 wb = 1 V s
inducción                                                                             2
                     tesla               T              1 T = 1 wb/m
magnética
inductancia          Henry               H              1 H = 1 wb/A
flujo luminoso       lumen               lm             1 lm = 1 cd sr
                                                                                      2
iluminación          lux                 lx             1 lx = 1 lm/m

Unidades fuera del SI mantenidas por su importancia práctica

                       Nombre      de   la Símbolo               Definición
Magnitud
                       unidad
                       minuto                 min                1 min = 60 s
tiempo                 hora                   h                  1 h = 60 min
                       día                    d                  1 d = 24 h
                       grado                  º                  1 º = (1/180) rad
ángulo plano
                       minuto                 ’                  1 ’ = (1/60) º
(ISO radian)
                       segundo                ’’                 1 ’’ = (1/60) ’
volumen                litro                  l                  1 l = 1 dm
                                                                                          3


masa                   tonelada               t                  1 t = 10 kg
                                                                                  3
32


Múltiplos de unidades SI

NOMBRE        SIMBOLO       POTENCIA
yotta         Y             10
                                 24


zetta         Z             10
                                 21


exa           E             10
                                 18


peta          P             10
                                 15


tera          T             10
                                 12


giga          G             10
                                 9


mega          M             10
                                 6


kilo          k             10
                                 3


hecto         h             10
                                 2


deca          da            10
                                 1


deci          d             10
                                 -1


centi         c             10
                                 -2


mili          m             10
                                 -3


micro         u             10
                                 -6


nano          n             10
                                 -9


pico          p             10
                                 -12


femto         f             10
                                 -15


atto          a             10
                                 -18


Zepto         Z             10
                                 -21


yocto         y             10
                                 -24




Error e incertidumbre

Al medir un mensurando se obtiene siempre sólo una aproximación a su valor verdadero.
Solamente un instrumento ideal podría entregar como resultado de una medición el valor
verdadero de la magnitud medida.
Las causas del error pueden tener su origen en el propio instrumento o en situaciones ajenas
a éste.
Dentro de los instrumentos de medición:
o Errores de ajuste, cuando el valor entregado difiere de una referencia conocida.
o Problemas de juego (saltos bruscos al cambiar el sentido de medición), histéresis
    (diferencia entre valores obtenidos al medir en forma ascendente o descendente).
o Otros errores comunes son la desviación de linealidad, deriva (lentitud hasta detenerse e
    indicar un valor) y falta de estabilidad.

Errores no atribuibles al instrumento de medición son por lo común las desviaciones
debidas a problemas ambientales e interferencias diversas en el ambiente de trabajo. Cabe
destacar también que sumándose al error pueden existir equivocaciones conducentes a
resultados falsos. Estas equivocaciones incluyen lecturas mal tomadas, errores de operación
de los instrumentos y errores humanos en general, y no pueden ser consideradas
asignándoles algún tipo de distribución de probabilidades, al calcular la incertidumbre.
Diferencia entre Exactitud y Precisión: Valor Real (+)
33




a) Serie exacta de mediciones repetidas cuyo promedio se aproxima al valor real.

b) Las mediciones realizadas varias veces son precisas (están muy cercas entre sí), pero no
se aproximan al valor real.

c) Una serie de mediciones repetidas y que se encuentran concentradas apretadamente en
torno del valor real.

Error de Medición: Diferencia entre el resultado de la medición (X) y el valor verdadero
(X ).
  V
ε=X–X
          V


Error Total: Suma entre el error sistemático (ε ) y el error aleatorio (ε ).
                                                S                        A
ε =X –X                        ε =X–X
 S    V                          A


Incertidumbre (U): “Uncertainty” Parámetro que caracteriza el intervalo dentro del cual se
cree, con gran seguridad que se encuentra el valor verdadero (X ).
                                                                    V
Representación esquemática del intervalo de Incertidumbre:




Si la Incertidumbre no se conoce, será imposible verificar si las características del
mensurando están o no dentro de los márgenes de tolerancia contemplados en sus
especificaciones y por ende, no se podrá válidamente tomar la decisión de aceptación o
rechazo del producto.
La incertidumbre asociada a los resultados obtenidos con el instrumento al medir un
determinado mensurando, corregidos por posibles desviaciones detectadas mediante la
calibración, se obtiene combinando tres componentes:

1) la incertidumbre asociada a las mediciones individuales,
2) la incertidumbre asociada a la corrección o ajuste y
3) la incertidumbre asociada al patrón de calibración

Se olvida, por último, que ni el valor verdadero convencional del patrón ni su
incertidumbre, que se obtienen de una calibración del patrón mismo, se mantienen
constantes indefinidamente. (La distancia entre las caras de un bloque patrón puede verse
alterada por: rayaduras, desgaste, suciedad, ligeras capas de oxidación superficial o,
incluso, por lentas variaciones de la estructura cristalográfica del material que compone el
bloque). En consecuencia, al igual que todo instrumento de medición, las medidas
materializadas deben calibrarse periódicamente.
34


La función de un patrón es proveer un valor verdadero convencional que permite
determinar, por calibración, los valores verdaderos convencionales de otros patrones. Para
cada magnitud se establece así una “cadena metrológica” cuyos enlaces son, precisamente,
las correspondientes calibraciones.




La cadena comienza en la definición de la unidad correspondiente. En el extremo opuesto, o
nivel terminal, están aquellos instrumentos que no son utilizados para calibrar otros
instrumentos. El acuerdo con la definición de la unidad y la expresión de su incertidumbre,
establecen lo que en metrología se llama “trazabilidad”. Por lo tanto, la trazabilidad es la
propiedad del valor de un patrón, o del resultado de una medición, por la cual ese valor o
ese resultado puede relacionarse con referencias establecidas a través de una cadena
ininterrumpida de comparaciones, todas ellas con incertidumbres conocidas. A la existencia
de esta propiedad fundamental apuntan las normas relacionadas con la metrología.

5. BIBLIOGRAFÍA

  -   STEEN, Lynn Arthur. La enseñanza agradable de las matemáticas. 4ta reimpresión.
      Editorial Limusa, México 2003. 241 pp
  -   http://www.project2061.org/esp/publications/sfaa/online/chap9.htm
  -   http://usuarios.iponet.es/ddt/incertidumbre.htm
35


                                 ESCALAS MULTIPLES

1. Introducción.

La gama de magnitudes en el universo tamaños, duraciones, velocidades, etc. es inmensa.
Muchos de los descubrimientos de la ciencia física son prácticamente incomprensibles
debido a que entrañan fenómenos en escalas lejanas a la experiencia humana. Es posible
medir, por ejemplo, la velocidad de la luz, la distancia a las estrellas más cercanas, el
número de estrellas en la galaxia y la edad del Sol; pero estas magnitudes son tan inmensas
que se comprenden de manera intuitiva. En otra dirección, es posible determinar el tamaño
de los átomos, sus vastos números básicos y la velocidad de las interacciones que ocurren
entre ellos; pero estos extremos también rebasan la capacidad de comprensión intuitiva. Las
percepciones limitadas y las capacidades de procesamiento de información simplemente no
pueden manejar la gama completa. Sin embargo, es factible representar tales cantidades en
términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones
entre ellos que tengan algún sentido.

Los grandes cambios en la escala se acompañan de manera típica por cambios en el tipo de
fenómenos que ocurren. Por ejemplo, en una escala humana familiar, una pequeña
bocanada de gas emitida por un satélite en órbita se disipa en el espacio; a escala
astronómica, una nube de gas en el espacio con suficiente masa se condensa por las fuerzas
gravitacionales mutuas en una esfera caliente que enciende la fusión nuclear y se convierte
en una estrella. A escala humana, las sustancias y la energía son divisibles de manera
interminable; a escala atómica, la materia no se puede dividir y permanece con su
identidad, y la energía puede cambiar solamente mediante saltos discretos. La distancia
alrededor de un árbol es mucho más grande para un insecto pequeño que para una ardilla,
pues en la escala del tamaño del insecto habrá muchas colinas y valles que atravesar, en
tanto que no será así para la ardilla
Incluso en los reinos del espacio y el tiempo que son tan familiares, la escala desempeña un
papel importante. Los edificios, los animales y las organizaciones sociales no pueden
hacerse mucho más grandes o mucho más pequeños sin experimentar cambios
fundamentales en su estructura o conducta. Por ejemplo, no es posible hacer un edificio de
40 pisos exactamente con el mismo diseño y materiales que se utilizan comúnmente para
uno de cuatro pisos porque, entre otras cosas, se podría colapsar debido a su propio peso. A
medida que aumentan de tamaño los objetos, su volumen se incrementa más rápido que su
superficie. Por tanto, las propiedades que dependen del volumen, como la capacidad y el
peso, cambian de proporción con las propiedades que dependen del área, como la fuerza de
los soportes o la actividad de superficie. Por ejemplo, una sustancia se disuelve con mayor
rapidez cuando está en forma de granulitos finos que cuando es un terrón en virtud de que
es mayor la superficie en relación con el volumen. Un microorganismo puede intercambiar
sustancias con su entorno directamente a través de su superficie, en tanto que un organismo
de mayor tamaño requeriría de superficie especializada altamente ramificada (como en los
pulmones, vasos sanguíneos y raíces).
Las conexiones internas también presentan un fuerte efecto de escala. El número de posibles
pares de cosas (por ejemplo, amistades o conexiones telefónicas) aumenta
aproximadamente al cuadrado el número de cosas. Así, una comunidad diez veces más
grande tendrá factible representar tales cantidades en términos matemáticos abstractos (por
ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido.
Los sistemas de complejidad suficiente pueden mostrar características que no son
predecibles a partir de las interacciones de sus componentes, aun cuando tales interacciones
se comprendan bien. En dichas circunstancias, pueden requerirse principios que no hagan
referencia directa a los mecanismos subyacentes, pero que no sean incompatibles con ellos.
Por ejemplo, en geología se puede hablar del proceso de erosión por los glaciares sin hacer
referencia a los aspectos físicos subyacentes de las fuerzas eléctricas y de la estructura
cristaliforme de los minerales en las rocas; es posible pensar en el corazón en términos del
volumen de la sangre que bombea, independientemente de cómo se comporten sus células;
36


es posible predecir la probable respuesta de alguien a un mensaje sin hacer referencia a la
manera en que funcionan las células del cerebro; o bien, es posible analizar los efectos de los
grupos de presión en política sin que se haga referencia necesariamente a nadie en
particular. Tales fenómenos se pueden comprender en diversos niveles de complejidad, aun
cuando la explicación completa de tales cosas se reduce con frecuencia a una escala alejada
de la experiencia directa.
El Método de las Escalas Múltiples

El método de escalas múltiples (MEM) fue desarrollado en su versión moderna
esencialmente a partir los años cincuentas y hasta los setentas del siglo XX. Este método
está, sin embargo, basada en las ideas de Poincaré y utiliza frecuencias (en el caso de la
rutina original de Poincaré) o amplitudes desconocidas para evitar la aparición de
resonancias.
La versión moderna de este método usa en lugar de las variables originales un conjunto de
variables escaladas. En el caso de oscilaciones no lineales (estas representan una de las
aplicaciones más importante del MEM) se escala el tiempo t y usan las variables
T1 = t; T2 = εt; T3 = ε2 t , . . . donde ε es un pequeño parámetro de la aproximación (e. g. la
proporción de dos escalas temporales muy diferentes entre sí). Se denomina a T1 la variable
rápida y se llama a las otras variables T2 , T3 ,. . . coordenadas lentas. El cálculo de las
derivadas temporales originales d=dt, d2 =dt 2 ,. . . conduce por esto a derivadas parciales
respecto a T1, T2 ,. . . y la EDO original es convertida en una ecuación diferencial parcial
(EDP). Un desarrollo de la solución en una serie asintótica resulta entonces en una jerarquía
de problemas. En el orden inferior se obtiene usualmente una EDO lineal (con derivadas
respecto a T1 ) que es trivial. La solución de esta ecuación contiene, como constantes de la
integración, funciones A1(T2 , T3 ,. . . ), A 2 (T2 , T3 ,. . . ) ,. . . Estas funciones, llamadas
amplitudes lentas son desconocidas en el orden menor. Las ecuaciones en los órdenes más
altos contienen como inhomogeneidades términos de los aproximaciones procedentes de
órdenes inferiores. Esto produce la posibilidad de resonancias. Como en muchos casos se
quieren evitar las resonancias entonces se pueden determinar las amplitudes lentas con la
aplicación de condiciones de no resonancia.
Las últimas se convierten en EDPs gobernadas por las amplitudes. Esto significa que
aparentemente se ha elevado el nivel de complejidad del problema original: una EDO
nolineal fue convertida en un conjunto de EDPs. Sin embargo, las condiciones de no
resonancia son suficientemente simples para obtener las correspondientes soluciones por
cuadraturas simples (Bender, Orszag).
Hay un buen número de otros métodos de aproximaciones. Aquí mencionamos tan sólo la
rutina de promedios y el método de coordenadas deformadas. Además de estos métodos,
son también importantes otros dos métodos locales que son válidos cerca de los puntos fijos
de las ecuaciones (vea la próxima sección). El método de variedades centrales sirve para
reducir la dimensión del sistema, mientras que la rutina de formas normales trata de
simplificar los términos de la ED y, en el caso óptimo, logra la linearización de las
ecuaciones. Sin embargo, la meta última se encuentra obstaculizada por la aparición de
resonancias que impiden la linearización de las ecuaciones (Wiggins, 1990).
Fuerntes:
http://www.project2061.org/esp/publications/sfaa/online/chap11.htm
Meter Plaschko, Sistemas dinámicos, métodos de las matemáticas
nolineales y de la física clásica, Departamento de Física UAM-I, México D .F.
37

La escala y su importancia en el análisis espacial

D. García

Departamento de Biología de Organismos y Sistemas (Ecología), Universidad de Oviedo,
C/ Catedrático Rodrigo Uría s/n. E-33071, Oviedo.
(danielgarcia@uniovi.es)


2. La escala espacial en Ecología

El concepto de escala espacial en Ecología se define como la dimensión física de un
objeto o proceso ecológico en el espacio (Turner et al., 2001). Hablamos de tasas de
asimilación de CO en micromoles por metro cuadrado y segundo, de densidades de
semillas en metros cuadrados, de dominios vitales de individuos en cientos de
metros cuadrados, de coberturas paisajísticas en hectáreas y de cambios climáticos sobre
kilómetros cuadrados. Todos somos conscientes de que distintos elementos ecológicos
ocupan extensiones diferentes y que distintos procesos tienen distintos radios de acción.
No obstante, el hecho de que tanto la forma de los patrones como el funcionamiento de los
procesos ecológicos dependen de la escala ha atraído cada vez más el interés de los
ecólogos en los últimos 25 años (Schneider, 2001). Esta mayor atención al “problema de la
escala” obedece a que un mismo proceso ecológico puede generar patrones diferentes a
distintas escalas espaciales, al estar regulado por mecanismos distintos en cada escala
(Wiens, 1989; Levin, 1992). Por ejemplo, las diferencias en mineralización del mantillo
en una extensión de unos cuantos metros cuadrados estarán básicamente
determinadas por el tipo de dosel (caducifolio vs. perenne) que crece sobre dicha
extensión, mientras que sobre una extensión de cientos de miles de kilómetros
cuadrados dependerán probablemente de las variaciones climáticas regionales. La
determinación de la escala-dependencia de patrones y mecanismos se convierte, por tanto,
en una cuestión esencial a la hora de explicar la relación entre los organismos y el
ambiente, extrapolar el conocimiento ecológico y establecer medidas de gestión de recursos
naturales ante una actividad humana capaz de modificar desde los ecosistemas locales
hasta el planeta entero. En este artículo revisaré el concepto de escala y su relación con el
análisis espacial en Ecología. Tras definir escala en términos analíticos, evaluaré su
importancia a la hora de i) determinar el peso del espacio en la variación de los patrones y
procesos ecológicos, y ii) inferir mecanismos ecológicos a través de relaciones entre
respuestas de los organismos y condiciones ambientales. Finalmente, presentaré el
Análisis de Coordenadas Principales de Matrices de Vecinos como un método de análisis
espacialmente explícito que permite desglosar la variación de parámetros ecológicos en
distintas escalas y correlacionar posteriormente dicha variación a las distintas escalas con
una potencia estadística similar.

3. La escala y el análisis espacial

La ecología espacial trata de explicar los procesos ecológicos teniendo en cuenta la
distribución espacial de sus elementos
(Turner et al., 2001; Fortin y Dale, 2005). En cierto modo, intenta evaluar la respuesta de los
organismos frente a condiciones y recursos ambientales que son heterogéneos en el
espacio, condicionando en gran medida el funcionamiento de los organismos a dicha
heterogeneidad espacial. Sin embargo, factores ambientales que resultan altamente
heterogéneos a pequeña escala pueden aparecer como homogéneos a escalas
superiores. Imaginemos, por ejemplo, cualquier sierra mediterránea compuesta por una
serie de colinas de similar altitud: la humedad edáfica es muy diferente entre las dos
laderas de una misma colina, solana y umbría, pero es probable que apenas encontremos
diferencias cuando comparamos los valores promedio de humedad entre dos colinas
sucesivas. Por tanto, el concepto de escala subyace a cualquier cometido en ecología
espacial, por el simple hecho de que la mayor parte de la variabilidad ecológica es
dependiente de la escala espacial.

Para evaluar la importancia de la escala en el análisis espacial de datos ecológicos
38

necesitamos descomponer el concepto de escala en tres dimensiones (Dungan et al.,
2002): ecológica, de muestreo y analítica. La escala ecológica expresa, como expuse
anteriormente, la dimensión real de los fenómenos ecológicos. Los ecólogos inferimos
esta escala a través del muestreo y el análisis. La escala de muestreo hace referencia a la
extensión del área de observación y a las características espaciales de las unidades de
muestreo, por ejemplo, el área de un cuadrado de muestreo para contar plantas herbáceas
en un prado, o la disposición de esos cuadrados en una retícula mayor. La escala analítica
refleja las características espaciales de las unidades de muestreo en términos de análisis,
por ejemplo, cómo se distribuye la varianza a lo largo de esas unidades de muestreo. Tanto
la escala de muestreo como la analítica pueden definirse en términos de grano, la
unidad mínima de resolución espacial que utilizamos en un estudio, extensión, la
dimensión espacial máxima cubierta por el muestreo, y espaciamiento, la dimensión de
la separación espacial entre unas unidades y otras. Nuestra capacidad de inferencia depende
en gran medida de cómo las escalas de muestreo y análisis se ajustan a la escala real
del fenómeno ecológico. En este sentido, nuestra extensión de muestreo deberá ser lo
suficientemente amplia como para albergar la máxima variabilidad del fenómeno
ecológico que estudiamos, ya que una extensión reducida en relación a la escala real del
fenómeno nos mostrará sólo una pequeña parte de la variación (Fig. 1).




Figura 1. Representación de los valores que toma un parámetro a lo largo de una
extensión espacial. Una extensión de muestreo pequeña (bloque verde) recoge un escaso
rango de variabilidad del parámetro, mientras que una extensión de muestreo amplia
(bloque rojo) cubre todo el rango de valores de magnitud del parámetro, representando
de forma fiable los agregados espaciales reales del parámetro a estudiar.




Por otra parte, el tamaño de grano habrá de ser lo suficientemente reducido como para que
las variaciones de un fenómeno a escala fina no pasen desapercibidas en un muestreo con
unidades de mayor tamaño (Fig. 2). Sin embargo, la unidad de muestreo tiene que ser
siempre mayor que el objeto ecológico unitario y suficientemente grande como para
incorporar varios objetos, de forma que podamos evaluar las diferencias entre unidades en
términos de varianza (Fig. 3).
39




Figura 2. Representación de los valores que toma un parámetro a lo largo de una
extensión    espacial,     mostrando    agregados sucesivos de dicho parámetro. Un
muestreo con unidades de tamaño de grano amplio (A) sería insensible a la variabilidad
real del parámetro, y no mostraría diferencias en los valores promedio del parámetro entre
unidades (rojas vs. blancas), mientras que un muestreo de grano fino (B) mostraría fuertes
diferencias entre las distintas unidades de muestreo (verdes vs. blancas).




Figura 3. Esquema de la fiabilidad de unidades de muestreo de distinto tamaño de
grano (1<2<3) para representar la variación espacial en la abundancia de un objeto
ecológico (rojo). La unidad ha de ser suficientemente amplia (3) como para representar
la variación en la abundancia del objeto a lo largo de la extensión de muestreo.
40

4. El reparto de variación entre escalas

La principal preocupación analítica de los ecólogos en relación a la escala es el reparto
de variación de los fenómenos ecológicos a lo largo de las escalas espaciales. Estudiar la
variación espacial de un fenómeno es, en cierto modo, detectar si éste se distribuye de
forma aleatoria, de forma regular (sobredispersión), o bien formado agregados, con
patrones de contagio y repulsión (infradispersión). Para evaluar el radio de acción de
los procesos ecológicos nos interesa, en primer lugar, determinar la agregabilidad
(patchiness) de los objetos ecológicos a distintas escalas espaciales y, en segundo lugar,
tratar de relacionar esa agregabilidad con gradientes ambientales, bióticos o abióticos,
establecidos por el observador y que, desde la perspectiva de la ecología espacial, están
muy condicionados por la extensión y distribución espacial de las observaciones. En este
último sentido, a la hora de estructurar gradientes ambientales espaciales podemos
considerar el espacio de forma explícita, estableciendo unidades de muestreo y análisis
definidas exclusivamente por características espaciales como posición, extensión y
distancia. Por ejemplo, imaginemos que evaluamos la respuesta a la salinidad edáfica a lo
largo de un transecto lineal de 100 m, dividido en unidades de muestreo de 10 m, y que
se aleja progresivamente de una laguna salina endorreica. Por otra parte, podemos
considerar unidades espaciales “naturales” que representan niveles de heterogeneidad
estructural biológica y que suponen una variación implícita en las características
espaciales. Por ejemplo, cuando consideramos distintos microhábitats incluidos
dentro de distintos hábitats, tanto microhábitat como hábitat suponen gradientes
ambientales a distintas escalas espaciales y, por lo tanto, su significado analítico nos
ofrecerá información acerca de procesos que ocurren a distintas escalas.
Independientemente de cómo estructuremos los gradientes espaciales, nuestro interés será
dilucidar cómo se reparte la variación de un determinado fenómeno a lo largo de distintas
escalas (Fig. 4).




Figura 4. Representación de tres escenarios de variación de un parámetro ecológico a lo
largo de una extensión espacial. La variación puede acumularse exclusivamente a
gran escala, y quedar bien representada por niveles de heterogeneidad estructural
amplios como “hábitat” o unidades espaciales explícitas de muestreo de gran
dimensión (A), acumularse a escala         fina,    siendo   mejor     representada por
“microhábitats” o      unidades espaciales explícitas más pequeñas (B) o repartirse
proporcionalmente entre distintos niveles de heterogeneidad o unidades explícitas, con
agregados a escala amplia que incluyen en su interior agregados a escala fina (C).
41

La estadística espacial ofrece herramientas diversas para evaluar el grado de agregabilidad
y el reparto de variabilidad de una variable ecológica a distintas escalas en marcos
espacialmente explícitos (Fortin y Dale, 2005). En general, se trata de métodos que
descomponen la variabilidad de un parámetro, definiendo las escalas de análisis en
función de distancias entre puntos que abarcan distintas dimensiones, como ocurre en los
correlogramas de I de Moran y los variogramas (Legendre y Legendre, 1998), o bien en
función de distintos radios de acción donde establecer distancias a vecinos más próximos,
como en el índice K de Ripley (Fortin y Dale, 2005). En cierto modo, indican la estructura
espacial de una variable en función de una determinada escala. Por ejemplo, un
correlograma nos indica el grado de agregabilidad en función de las distancias a las
cuales se detecta autocorrelación espacial positiva (contagio) o negativa (repulsión),
definiendo el tamaño y la escala de influencia de los “rodales” en los que se estructura
nuestra variable de interés (Fig. 5).




Figura 5. A) Representación de la proporción de semillas de acebo Ilex aquifolium
depredadas por roedores (Apodemus
spp.) a lo largo de un transecto del 2.500 m a través de una zona de bosques secundarios
y pastos de montaña en la
Sierra de Peña Mayor-Trigueiro (cordillera Cantábrica, Asturias, N España; foto sup.
izda.). El transecto se subdividió en
100 unidades contiguas de 25 m. En enero de 2005, en cada unidad se distribuyeron
homogéneamente soportes de malla plástica con semillas pegadas (foto sup. dcha.). Estos
soportes fueron revisados a los 20 días, contándose el número de semillas depredadas y
estimándose el promedio de tasa de depredación por unidad de transecto. B) Correlograma
de I de Moran representando la estructura espacial de la tasa de depredación de semillas
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final
Desarrollo De La Inteligencia Final

Contenu connexe

Tendances

Numero aureo 3.12 RAMIREZ CALLEJA
Numero aureo 3.12 RAMIREZ CALLEJANumero aureo 3.12 RAMIREZ CALLEJA
Numero aureo 3.12 RAMIREZ CALLEJAjehosua97
 
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)guest584b0
 
Los conejos de Fibonacci y su relación con la Divina Proporción
Los conejos de Fibonacci y su relación con la Divina ProporciónLos conejos de Fibonacci y su relación con la Divina Proporción
Los conejos de Fibonacci y su relación con la Divina ProporciónOsman Villanueva
 
Suceción de Fibonacci
Suceción de FibonacciSuceción de Fibonacci
Suceción de Fibonacciguest9f2c11a
 
Presentacion del proyecto fibonacci.
Presentacion del proyecto fibonacci.Presentacion del proyecto fibonacci.
Presentacion del proyecto fibonacci.Liliana Azuaje
 
Número aureo.3.12 (8) ZUBIATE
Número aureo.3.12 (8) ZUBIATENúmero aureo.3.12 (8) ZUBIATE
Número aureo.3.12 (8) ZUBIATEjehosua97
 
trabajo de computacion da vince
trabajo de computacion da vincetrabajo de computacion da vince
trabajo de computacion da vincejose jose
 
Paradojas (Stadler, Marta)
Paradojas (Stadler, Marta)Paradojas (Stadler, Marta)
Paradojas (Stadler, Marta)Sergio Becerra
 
Número aureo.3.12 (9) MEJORADA
Número aureo.3.12 (9) MEJORADANúmero aureo.3.12 (9) MEJORADA
Número aureo.3.12 (9) MEJORADAjehosua97
 
Sucesiones Aplicadas A La Biologia
Sucesiones Aplicadas A La BiologiaSucesiones Aplicadas A La Biologia
Sucesiones Aplicadas A La BiologiaYolanda Jiménez
 
NUMERO DE ORO Y SUCESIÓN DE FIBONACCI
NUMERO DE ORO Y SUCESIÓN DE FIBONACCINUMERO DE ORO Y SUCESIÓN DE FIBONACCI
NUMERO DE ORO Y SUCESIÓN DE FIBONACCIjenifer_31
 
La proporción áurea cristian y pedro
La proporción áurea cristian y pedroLa proporción áurea cristian y pedro
La proporción áurea cristian y pedrodepartdebuxo
 
Compu Educa
Compu EducaCompu Educa
Compu Educaboomat
 

Tendances (20)

Numero aureo 3.12 RAMIREZ CALLEJA
Numero aureo 3.12 RAMIREZ CALLEJANumero aureo 3.12 RAMIREZ CALLEJA
Numero aureo 3.12 RAMIREZ CALLEJA
 
Números con nombre propio ....
Números con nombre propio ....Números con nombre propio ....
Números con nombre propio ....
 
La Divina Proporcion
La Divina ProporcionLa Divina Proporcion
La Divina Proporcion
 
Presentacion de fibonacci
Presentacion de fibonacciPresentacion de fibonacci
Presentacion de fibonacci
 
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)
Trabajo Fibonacci (Sergio IlláN Bedmar B1 Ic)
 
Los conejos de Fibonacci y su relación con la Divina Proporción
Los conejos de Fibonacci y su relación con la Divina ProporciónLos conejos de Fibonacci y su relación con la Divina Proporción
Los conejos de Fibonacci y su relación con la Divina Proporción
 
Suceción de Fibonacci
Suceción de FibonacciSuceción de Fibonacci
Suceción de Fibonacci
 
Número áureo 3.12
Número áureo 3.12Número áureo 3.12
Número áureo 3.12
 
Presentacion del proyecto fibonacci.
Presentacion del proyecto fibonacci.Presentacion del proyecto fibonacci.
Presentacion del proyecto fibonacci.
 
Número aureo.3.12 (8) ZUBIATE
Número aureo.3.12 (8) ZUBIATENúmero aureo.3.12 (8) ZUBIATE
Número aureo.3.12 (8) ZUBIATE
 
trabajo de computacion da vince
trabajo de computacion da vincetrabajo de computacion da vince
trabajo de computacion da vince
 
Paradojas (Stadler, Marta)
Paradojas (Stadler, Marta)Paradojas (Stadler, Marta)
Paradojas (Stadler, Marta)
 
Número aureo.3.12 (9) MEJORADA
Número aureo.3.12 (9) MEJORADANúmero aureo.3.12 (9) MEJORADA
Número aureo.3.12 (9) MEJORADA
 
Numero aureo.3.12
Numero aureo.3.12Numero aureo.3.12
Numero aureo.3.12
 
La SucesióN De Fibonacci
La SucesióN De FibonacciLa SucesióN De Fibonacci
La SucesióN De Fibonacci
 
Sucesiones Aplicadas A La Biologia
Sucesiones Aplicadas A La BiologiaSucesiones Aplicadas A La Biologia
Sucesiones Aplicadas A La Biologia
 
NUMERO DE ORO Y SUCESIÓN DE FIBONACCI
NUMERO DE ORO Y SUCESIÓN DE FIBONACCINUMERO DE ORO Y SUCESIÓN DE FIBONACCI
NUMERO DE ORO Y SUCESIÓN DE FIBONACCI
 
La proporción áurea cristian y pedro
La proporción áurea cristian y pedroLa proporción áurea cristian y pedro
La proporción áurea cristian y pedro
 
Fibonacci
FibonacciFibonacci
Fibonacci
 
Compu Educa
Compu EducaCompu Educa
Compu Educa
 

Similaire à Desarrollo De La Inteligencia Final

Similaire à Desarrollo De La Inteligencia Final (20)

fibonacci
fibonaccifibonacci
fibonacci
 
Fibonacciyaureo
Fibonacciyaureo Fibonacciyaureo
Fibonacciyaureo
 
Matematicas iii (1) MEDINA
Matematicas iii (1) MEDINAMatematicas iii (1) MEDINA
Matematicas iii (1) MEDINA
 
Serie de fibonacci
Serie de fibonacciSerie de fibonacci
Serie de fibonacci
 
divina proporcion numero de oro phi.pptx
divina proporcion numero de oro phi.pptxdivina proporcion numero de oro phi.pptx
divina proporcion numero de oro phi.pptx
 
NúMero áUreo
NúMero áUreoNúMero áUreo
NúMero áUreo
 
Num aureo
Num aureoNum aureo
Num aureo
 
Susecion de Fibonacci
Susecion de Fibonacci Susecion de Fibonacci
Susecion de Fibonacci
 
Susecion de Fibonacci
Susecion de FibonacciSusecion de Fibonacci
Susecion de Fibonacci
 
Susecion de Fibonacci
Susecion de FibonacciSusecion de Fibonacci
Susecion de Fibonacci
 
Aplicaciones del rectángulo áureo
Aplicaciones del rectángulo áureoAplicaciones del rectángulo áureo
Aplicaciones del rectángulo áureo
 
Número aureo.3.12
Número aureo.3.12Número aureo.3.12
Número aureo.3.12
 
Número aureo.3.12
Número aureo.3.12Número aureo.3.12
Número aureo.3.12
 
Seccion Aurea
Seccion AureaSeccion Aurea
Seccion Aurea
 
Seccionaurea 1222274954186376-8
Seccionaurea 1222274954186376-8Seccionaurea 1222274954186376-8
Seccionaurea 1222274954186376-8
 
Número aureo.3.12
Número aureo.3.12Número aureo.3.12
Número aureo.3.12
 
Numeros Fibonacci vs Creacionismo
Numeros Fibonacci vs CreacionismoNumeros Fibonacci vs Creacionismo
Numeros Fibonacci vs Creacionismo
 
Número aureo. 3.12
Número aureo. 3.12Número aureo. 3.12
Número aureo. 3.12
 
Número aureo.3.12 (3)
Número aureo.3.12 (3)Número aureo.3.12 (3)
Número aureo.3.12 (3)
 
Calculo 3er Periodo
Calculo 3er PeriodoCalculo 3er Periodo
Calculo 3er Periodo
 

Plus de Krupskaya Gonzalez (7)

principales obras
principales obrasprincipales obras
principales obras
 
Obras Contemporaneas
Obras ContemporaneasObras Contemporaneas
Obras Contemporaneas
 
Guggenheim Pdf Edificio
Guggenheim Pdf EdificioGuggenheim Pdf Edificio
Guggenheim Pdf Edificio
 
Viaje a la India
Viaje a la IndiaViaje a la India
Viaje a la India
 
Desiderata
DesiderataDesiderata
Desiderata
 
20 Reglas De Vida
20 Reglas De Vida20 Reglas De Vida
20 Reglas De Vida
 
Cartaescritaela O2070
Cartaescritaela O2070Cartaescritaela O2070
Cartaescritaela O2070
 

Dernier

RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PCCesarFernandez937857
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...JonathanCovena1
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADauxsoporte
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscaeliseo91
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxlclcarmen
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxjosetrinidadchavez
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzprofefilete
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdfgimenanahuel
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 

Dernier (20)

RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Identificación de componentes Hardware del PC
Identificación de componentes Hardware del PCIdentificación de componentes Hardware del PC
Identificación de componentes Hardware del PC
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
Unidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la InvestigaciónUnidad 3 | Metodología de la Investigación
Unidad 3 | Metodología de la Investigación
 
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 2do Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 2do Grado Educacion Primaria 2024 Ccesa007.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...La empresa sostenible: Principales Características, Barreras para su Avance y...
La empresa sostenible: Principales Características, Barreras para su Avance y...
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
CALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDADCALENDARIZACION DE MAYO / RESPONSABILIDAD
CALENDARIZACION DE MAYO / RESPONSABILIDAD
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
la unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fiscala unidad de s sesion edussssssssssssssscacio fisca
la unidad de s sesion edussssssssssssssscacio fisca
 
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptxTIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
TIPOLOGÍA TEXTUAL- EXPOSICIÓN Y ARGUMENTACIÓN.pptx
 
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptxOLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
OLIMPIADA DEL CONOCIMIENTO INFANTIL 2024.pptx
 
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyzel CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
el CTE 6 DOCENTES 2 2023-2024abcdefghijoklmnñopqrstuvwxyz
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 
30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf30-de-abril-plebiscito-1902_240420_104511.pdf
30-de-abril-plebiscito-1902_240420_104511.pdf
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 

Desarrollo De La Inteligencia Final

  • 1. UNIVERSIDAD TECNICA PARTICULAR DE LOJA DESARROLLO DE LA INTELIGENCIA PERIODO ACADEMICO AGOSTO 2007- FEBRERO 2008 LOJA – ECUADOR
  • 2. 2 LAS CONSTANTES DE LA NATURALEZA 1 .CUESTIÓN DE NÚMEROS "El libro de la Naturaleza está escrito en el lenguaje de las matemáticas". La frase, pronunciada por el astrónomo Galileo Galilei en 1623, tiene hoy plena vigencia. Basta echar un vistazo a nuestro alrededor para comprobar que detrás de todos los fenómenos naturales se esconde alguna clave matemática. Y que ciertos números se repiten continuamente. Así, por ejemplo, las flores tienen en su mayoría 5 pétalos (geranios, pensamientos rododendros,…), aunque también es frecuente encontrar 3 en los lirios, 8 en los ranúnculos y 21 en las margaritas. El 5 es, además, una cifra habitual en las semillas de frutas como pepinos, tomates, peras y manzanas. Las espirales de la piña tropical (ananas) son 8 y 13, igual que las de las piñas de los pinos y otras coníferas. Y en la cabeza de un girasol, las semillas se disponen en espirales de 34 y 55, o 55 y 89. En contra de lo que podríamos pensar a simple vista, esta reiteración de dígitos no responde a un simple "capricho de la Naturaleza". Se trata de los números de la famosa secuencia de Fibonacci (1,1,2,3,5,8,13,21,34,55,…) que un matemático italiano describió hace más de 800 años. La fórmula secreta es sencilla: cada número de la secuencia se genera a partir de la suma de los dos anteriores. Al mismo tiempo, si dividimos cada dígito de la serie por el inmediatamente anterior, el resultado es aproximadamente siempre el mismo: una constante con infinitas cifras decimales conocida con la letra griega Phi (Φ), y cuyo valor es 1,6180339... Lo que es más, a medida que avanzamos en la secuencia de Fibonacci más se acerca el ratio de cada par de números a Phi.
  • 3. 3 2. PROPORCIÓN ÁUREA Pero, ¿por qué es tan importante la constante Phi, también conocida como el número de oro? Imaginemos que tenemos un segmento y que queremos fraccionarlo en dos partes de tamaños distintos. Podemos hacerlo de muchas formas, por ejemplo dividiéndolo de forma que la parte mayor sea el triple que la menor. Sin embargo, sólo existe una forma de dividir el segmento de modo que la relación (razón) que haya entre el segmento completo y la mayor de las partes en que se divide sea igual a la que mantienen las dos partes entre sí. Decimos entonces que ambas partes se hayan en proporción áurea, y su valor es Phi. Utilizando los números de la sucesión de Fibonacci podemos construir una serie de rectángulos áureos, es decir, en los que los lados siempre mantienen esa proporción áurea. Basta con empezar dibujando dos pequeños cuadrados que tengan por lado una
  • 4. 4 unidad. A partir de ellos se forma otro cuyo lado mayor es 2, y que sirve como lado de un nuevo cuadrado. El proceso se puede repetir indefinidamente. Lo más llamativo es que si unimos los vértices de estos rectángulos se forma una curva que seguramente nos resulta familiar. Se trata de una espiral casi idéntica a la que aparece en las conchas de moluscos como el Nautilus, en el crecimiento de las hojas de una planta, en los huracanes, en la forma de la Vía Láctea, en los cuernos de los rumiantes e incluso en la cóclea o caracol de nuestro oído interno. Además de su omnipresencia, esta espiral, apodada logarítmica, tiene la peculiaridad de que, aunque aumente su tamaño, la forma - proporciones- no se altera. Más allá de la forma, la serie de Fibonacci aparece también en la genealogía de ciertas especies. Es el caso de los machos o zánganos de una colmena. La clave está en que las abejas hembras de la colmena nacen de los huevos fertilizados (tienen padre y madre), mientras los machos o zánganos nacen a partir de huevos no fertilizados, o lo que es lo mismo, sólo tienen madre. De esta forma, sus árboles genealógicos siguen estrictamente una distribución de Fibonacci: un macho (1) no tiene padre, sino una madre (1,1), dos abuelos - padres de la reina - (1,1,2), tres bisabuelos - porque el padre de la reina sólo tiene madre - (1,1,2,3), cinco tatarabuelos (1,1,2,3,5), etc. El cuerpo humano tampoco es ajeno al número de oro. Con su conocido dibujo del hombre de Vitrubio, Leonardo da Vinci ilustró el libro "La Divina Proporción" del matemático Luca Pacioli, editado en 1509. En dicha obra se describen cuáles han deben ser las proporciones de las creaciones artísticas. Pacioli propone una figura humana en la que las relaciones entre las distintas partes de su cuerpo son proporciones áureas. Así, en este hombre armónicamente perfecto para Pacioli, el cociente entre la altura del hombre - el lado del cuadrado - y la distancia del ombligo a la punta de la mano - el radio de la circunferencia - es el número áureo. Y no es el único caso. En la mayoría de los huesos que integran nuestro esqueleto aparece insistentemente Phi. Así, por ejemplo, los tres huesos de cada dedo de la mano están relacionados por esta constante. Y en el campo de la odontología, se ha descubierto que la dentadura va creciendo siguiendo proporciones áureas, de forma que las anchuras de los cuatro dientes frontales, desde el incisivo central hasta el premolar, se encuentran entre si en proporción áurea. La molécula de ADN, que contiene el libro de la vida, también se ajusta a la proporción áurea. Cada ciclo de su doble hélice mide 34 angstroms de largo por 21 angstroms de ancho, dos números de la secuencia de Fibonacci cuyo ratio es, por supuesto, Phi.
  • 5. 5 EL PERSONAJE: LEONARDO FIBONACCI La secuencia de Fibonacci se debe a un renombrado matemático italiano de la Edad Media. Su nombre completo era Leonardo de Pisa (1170-1240), aunque él se llamaba a sí mismo Fibonacci, como diminutivo de "hijo de Bonacci" (filius Bonacci), en honor al apodo de su padre. Hijo de diplomático, se educó en el norte de África y recorrió en su juventud varios países de Oriente Medio. Una vez de vuelta a Europa, recopiló todo lo aprendido en un tratado de álgebra y aritmética titulado "Liber abaci" (Libro del cálculo), escrito en latín, que permitió expandir en Europa la notación decimal de origen indo-árabe que usamos actualmente, con los signos hindúes 1,2,3….,9, y el 0 árabe. En este libro hacía también mención, por primera vez, a la sucesión que hoy llamamos de Fibonacci en un problema sobre la reproducción de los conejos. Varios siglos después, un matemático europeo llamado Edouard Lucas (1842- 1891) estudió la secuencia de Fibonacci y descubrió que dividiendo dos números consecutivos se obtenía la proporción áurea. La fórmula de la eficiencia Durante mucho tiempo, los científicos han tratado de explicar por qué se repiten con tanta frecuencia estos números y proporciones en el universo. La filotaxia, área de la botánica dedicada al estudio de la disposición de las hojas sobre el tallo, parece haber dado con una respuesta. Cuando una planta crece, la estrategia que utiliza para garantizar su supervivencia consiste en maximizar la distancia entre las ramas y las hojas, buscando ángulos que no se solapen y en los que cada una de ellas reciba la mayor cantidad de luz, agua y nutrientes posible. El resultado es una disposición en trayectoria ascendente, y en forma de hélice, en la que se repiten los términos de la sucesión de Fibonaci. En definitiva, la naturaleza no entiende de matemáticas, sino de eficiencia. Eso mismo es lo que viene a decir un reciente estudio del matemático Alan Newell, de la Universidad de California. Tras observar la secuencia de Fibonacci en la disposición de semillas en cactus, puso en marcha un análisis detallado de la forma de estas plantas, el grosor de su piel y otros parámetros que dirigen el crecimiento. Al introducir los datos en un ordenador descubrió, con sorpresa, que las configuraciones que la computadora identificaba como más estables estaban siempre ligadas a las formas de Fibonacci presentes en los seres vivos. Y es que aquel matemático italiano halló, sin pretenderlo, la clave del crecimiento en la Naturaleza. 3. EL NÚMERO DE LA BELLEZA En el terreno de las creaciones artísticas, Phi no ha pasado desapercibida. El conocimiento de la sección áurea y el rectángulo dorado se remonta a los griegos, que
  • 6. 6 utilizaron estas proporciones en la que se considera su mayor obra de arte: el Partenón de Atenas. No en vano, Phi es la inicial del nombre del escultor griego que supervisó la construcción del templo, el original Fidias. Tal es la reputación de Phi, que se dice que este número ha formado parte del "conocimiento secreto" protegido por generaciones de francomasones, illuminati, caballeros de la Orden de Rosacruz y otras sociedades secretas. Secreto o no, lo cierto es que las proporciones áureas han inspirado a arquitectos, pintores, escritores e incluso músicos de todas las épocas. Los expertos hablan de que construcciones tan antiguas como las pirámides egipcias se levantaron bajo el principio del número de oro. Obras maestras de Leonardo da Vinci, Miguel Ángel, Durero o Dalí, entre otros pintores, llevan la marca de la divina proporción. De Mozart se dice que dividió algunas de sus sonatas en dos partes que reflejan casi exactamente la proporción áurea. Stradivari la utilizó para construir sus famosos violines. Las dimensiones del edificio de la sede de la ONU en Nueva York poseen la proporción áurea, con el fin de conseguir el orden arquitectónico perfecto en el epicentro de la organización que rige los designios del mundo. Incluso, intencionalmente o no, en el libro del Génesis de la Biblia se describe que "el arca (de Noé) tendrá 450 pies de largo, 75 pies de ancho y 45 de altura", donde la proporción de 75/45 es de nuevo el número dorado. Sin olvidar que algo tan cotidiano como las actuales tarjetas de crédito, o nuestro carné de identidad, mantienen esa misma proporción. El motivo para la gran propagación de Phi hay que buscarlo en su supuesta relación con la belleza y la armonía. Aunque, todo hay que decirlo, son muchos los científicos dudan de que nuestra percepción de lo que es bello esté vinculada a este número. De momento, las investigaciones de Stephen Marquardt, investigador de la Universidad de California, parecen dar un espaldarazo al vínculo entre belleza y proporción áurea. Tras examinar multitud de rostros humanos y realizar numerosas encuestas, este cirujano ha llegado a la conclusión de que los rostros considerados más atractivos son aquellos cuyas partes determinan longitudes que están en proporción áurea. Y esta relación, señala, no depende de las diferencias existentes en la concepción de belleza según razas, culturas o épocas. La máscara áurea Fruto de sus pesquisas, Marquardt ha construido una máscara facial en la que utiliza la razón áurea para establecer la distancia ideal entre los diferentes elementos de un rostro. La belleza de una cara puede ser determinada según la desviación que presentan sus distintas partes respecto a lo que establece la máscara. Así, por ejemplo, el rostro de la actriz Michelle Pfeiffer se ajustaría exactamente a los cánones áureos de la máscara. Su invento, asegura, tiene aplicaciones
  • 7. 7 directas en cirugía plástica y reparadora, así como para maquillarse. El doctor Marquardt se atreve incluso a sugerir una finalidad biológica para la belleza. Según el investigador, se trata de un mecanismo para asegurar que los humanos se reconocen entre sí y se sienten atraídos por miembros de su misma especie. Las caras más hermosas son las que resultan más fácilmente reconocibles como humanas, algo que sabemos comparando inconscientemente un rostro con el rostro ideal que tenemos en nuestra mente. "La belleza es sencillamente humanidad", afirma. 4. Pi Y LOS CÍRCULOS Más conocida, y quizás por ello menos impactante, es la omnipresencia de la constante Pi (π =3,141592653…) en las formas circulares. Y es que, en cualquiera de ellas, la longitud de la circunferencia dividida por su diámetro coincide siempre con este número. El primer intento de estimar el valor de Pi se atribuye a los Babilonios, que en el año 2000 a.C. aseguraban que equivalía a 3 1/8 (3,125). En la misma época los indios utilizaban la raíz cuadrada de 10 para Pi (3,1622…). Pero ambas aproximaciones tenían un error a partir del segundo decimal.
  • 8. 8 Años más tarde, Arquímedes aventuró que Pi estaba entre 3+10/71 y 3+1/7. Más cerca se quedó, en el 150 d.C., Ptolomeo de Alejandría, que hablaba de 377/120 (3,14166667…). El chino Tsu Ch'ung-Chi, en el año 350, acertó hasta tres decimales con la fracción 355/113 (3,14159292…). Pero hubo que esperar a 1761 para que un matemático llamado Lambert probara que se trataba de un número irracional, es decir, imposible de obtener a partir de ninguna fracción, lo que implicaba que el cálculo de sus decimales no acabará nunca. A partir de aquel momento se puso en marcha una carrera para calcular el mayor número de decimales posible, especialmente impulsada a partir del siglo pasado con el uso de ordenadores. En 1949, John Von Neumann utilizó la computadora electrónica ENIAC, y tras setenta horas de trabajo obtuvo 2037 cifras decimales. En la actualidad, el récord lo ostenta Yasumasa Kanada, de la Universidad de Tokio, que en 2002 extrajo 1,24 billones de decimales para Pi. Toda una hazaña. Pi natural A pesar de que en la Naturaleza no existen esferas tan perfectas como una bola de billar, ni cilindros ideales, la ubicuidad de Pi es innegable. No sólo aparece cuando una gota cae en el agua o en la curvatura del arcoiris. En el mundo animal, la altura de un elefante, del pie al hombro, se obtiene multiplicando Pi por 2 y por el diámetro de su pie. Cualquier onda o espectro contiene a Pi, lo que supone su presencia en la luz y en cualquier vibración sonora, incluyendo las composiciones musicales. Además cobra especial significado a la hora de calcular el movimiento de los planetas y las estrellas, incluso el tamaño del Universo. Y en el mundo subatómico, los físicos se han topado con Pi en las supercuerdas, esos elementos últimos de la materia con los que se espera poder unificar de una vez por todas las leyes de la física. Por su parte, un geólogo de la Universidad de Cambridge llamado Hans-Henrik Stolum ha calculado el ratio entre la longitud real de los principales ríos, desde su nacimiento hasta su desembocadura, y lo que mide la línea recta entre ambos puntos. El resultado medio para todos los ríos es aproximadamente 3,14, cercano al valor de Pi. Esta constante entiende también mucho de probabilidades. Basta saber, por ejemplo, que la probabilidad de que dos enteros positivos escogidos al azar sean primos entre si es 6/Pi2. O que si se eligen al azar dos números positivos menores que 1, la
  • 9. 9 probabilidad de que junto con el número 1 puedan ser los lados de un triángulo obtusángulo es (Pi-2)/4. 5. EL NÚMERO e El desarrollo de una colonia de bacterias, las encuestas de población, la prueba del carbono 14 para datar restos orgánicos, e incluso la probabilidad de sacar 70 veces un número par al lanzar un dado un centenar de veces tienen algo en común: un extraño número comprendido entre 2 y 3, con infinitas cifras decimales y llamado e, o número de Euler (e = 2.71828 18284 59045 23536 02874 7135...). Aunque las primeras referencias a este número datan de 1618, fecha en la que John Napier publicó su valor junto a otros logaritmos, fue el matemático suizo Leonhard Euler quién empleó por primera vez la letra e en 1727 para nombrarlo. Este genio, del que se decía que "calculaba sin aparente esfuerzo, como los hombres respiran o las águilas se sostienen en el aire", mostró que el número e podía ser la base más "natural" para los logaritmos, que en aquella época eran de gran ayuda para realizar operaciones aritméticas. Además, ideó una fórmula bautizada como identidad de Euler y considera por muchos como la más bella e importante de las matemáticas: En ella se aúnan, de forma escueta, varios conceptos claves de esta ciencia: π, el número más importante de la geometría. e, el número mas importante del análisis. i, el número mas importante del álgebra. Del bosque a la mesa forense Más allá de su belleza matemática, el número e tiene importantes implicaciones en el mundo que conocemos. En biología, por ejemplo, una de sus principales aplicaciones es el crecimiento exponencial. Este tipo de crecimiento surge cuando no hay factores que limiten el crecimiento, como ocurre en ciertas poblaciones de bacterias, o en la
  • 10. 10 recuperación de una superficie boscosa después de un incendio. Para este tipo de crecimiento se aplica la siguiente fórmula: N = No · et Esto nos permite adivinar cual será la población (N) en un determinado tiempo (t) a partir de la población inicial (No). A la hora de datar un fósil, la constante de Euler también está presente. A mediados del siglo XX, un químico llamado Libby descubrió el carbono-14, un isótopo radiactivo del carbono que desaparece lentamente. El C14 reacciona con el oxígeno en las capas altas de la atmósfera dando dióxido de carbono radiactivo, el cual entra en la superficie de la Tierra, en la que se desarrolla la vida. Mientras un ser está vivo, va reponiendo el C14 que pierde, pero cuando ese ser muere, sólo se producirá en él una pérdida continua y lenta de C14. Una vez que los químicos consiguieron llegar a medir la cantidad de C14 contenida en un ser no vivo, como se conocía la velocidad de desintegración del C14, se lanzaron a buscar una ecuación que les diera como solución el tiempo necesario para que en ese ser quedara tan solo esa cantidad de C14. Y se encontraron con la sorpresa de que la fórmula contenía al número e. Los forenses, como los paleontólogos, también deben tener este número en cuenta. Y es que e permite determinar en un asesinato el momento de la muerte. Para ello es necesario aplicar la ley de Newton sobre el enfriamiento que establece que la velocidad a la que se enfría un cuerpo es proporcional a la diferencia entre la temperatura del objeto y la temperatura del entorno. Esto quiere decir que cuando un objeto está mucho más caliente que el aire exterior, su velocidad de enfriamiento es alta, de manera que pierde temperatura muy rápidamente. Por el contrario, cuando un cuerpo está un poco más caliente que su entorno, su velocidad de enfriamiento es baja. Una persona viva no se enfría continuamente. El metabolismo humano asegura el mantenimiento de la temperatura del cuerpo alrededor de los 36ºC. Pero, una vez muertos, nuestro organismo deja de producir calor y, por tanto, comienza a enfriarse siguiendo la ley de Newton, que se aplica con la fórmula matemática siguiente:
  • 11. 11 T = Taire + (Tcos - Taire) / ek·t En ella T es la temperatura, t es el tiempo en horas después de medianoche y k es una constante. De nuevo e está presente. Hay más. Esta constante también está ligada a la razón áurea y a la espiral logarítmica. Cuando se cuelga una cadena o un cable por los extremos, tiende a adoptar una forma que se relaciona con el número e. Incluso en algo tan mundano como el cálculo de los intereses bancarios es necesario recurrir a la constante de Euler. 6. LAS CONSTANTES DE LA FÍSICA Existen alrededor de 25 constantes físicas que aparecen en las fórmulas que describen nuestro universo, desde lo más grande (los cúmulos de galaxias) hasta lo más pequeño (los quarks). De esas 25 constantes, los físicos consideran que las más importantes son c (la velocidad de la luz), G (la constante de la gravitación) y h (la constante de Planck, que gobierna el mundo de los átomos). A diferencia de los números vistos hasta ahora, se trata de constantes estimadas en el laboratorio para explicar fenómenos físicos y expresadas en unidades, por lo que dependen de éstas. Así, por ejemplo, la velocidad de la luz tiene un valor de 299.792.458 metros por segundo. Y la constante de Planck, 6,63 × 10-34 julios por segundo. Aparentemente no hay nada "mágico" en estas cifras. La sorpresa surge cuando se combinan c y h con otra constante, la carga del electrón (e), obteniendo un número sin unidades ni dimensiones: 7,297352533x10-3. Esta constante, también conocida como alpha, es la "constante de la estructura fina", que describe cómo actúan las fuerzas a nivel atómico. Los físicos creen que se trata de una pieza importante en el desarrollo de
  • 12. 12 nuestro universo, clave para alcanzar la ansiada "teoría del todo". Esta constante es extraordinariamente importante. Si su valor fuera solo algo diferente, nuestro universo sería completamente distinto. Por ejemplo, sabemos que el agua es 107 veces más opaca a la radiación ultravioleta e infrarroja que a la luz visible. Dado que el tejido vivo en general y los ojos en particular están compuestos mayormente por agua, la comunicación por la vista sería imposible si no fuera por el hecho de que la transmisión de la luz por el agua concuerda con la radiación del sol, algo posible gracias a una determinación cuidadosa de los valores de las constantes de la fuerza de gravedad y la fuerza electromagnética, además de la constante de Planck y la masa del electrón. Por otro lado, si se divide la intensidad del campo eléctrico que mantiene unidos los átomos por la fuerza de la gravitación universal, que determina la formación y el mantenimiento de las galaxias, estrellas, planetas y satélites en sus órbitas, también obtenemos un número fijo: un 1 seguido de 36 ceros. Esta constante, conocida como N, es tan importante que, si tuviera menos ceros, el Universo sería mucho más pequeño y efímero, no podrían existir criaturas de mayor tamaño que un insecto y no habría tiempo suficiente para la evolución de las especies. Igual de crítico es el valor constante que relaciona la fuerza nuclear fuerte con la fuerza electromagnética. Si esta relación aumentase en sólo el 2% el universo se quedaría sin hidrógeno y sin agua, medio indispensable para la vida. La constante omega (Ω), relacionada con la densidad del Universo, determina la cantidad de materia oscura. Y la constante cosmológica de Einstein, denotada por la letra griega lambda (λ), representa la fuerza de la "antigravedad", y es fundamental para explicar la expansión del Universo. El extraordinario equilibrio que esto supone ha fascinado durante siglos a científicos de todo el mundo. El premio Nóbel de Física Arno Penzias expresaba así el carácter enigmático del universo: "La astronomía nos lleva a este evento único, un universo que fue creado de la nada y que está equilibrado delicadamente para proveer exactamente las condiciones requeridas para sustentar la vida. En la ausencia de un accidente absurdamente improbable, las observaciones de la ciencia moderna parecen sugerir un plan subyacente que podríamos llamar sobrenatural." ¿Está cambiando la velocidad de la luz? Como su propio nombre indica, se supone que las constantes físicas permanecen inmutables, reflejando una constancia subyacente de la naturaleza, eterna y universal, en todos los tiempos y los espacios. Este es un pensamiento heredado de los padres de la ciencia moderna, como Copérnico, Kepler, Galileo, Descartes o Newton, para quienes las leyes de la naturaleza eran ideas inalterables de una mente divina. Dios era un matemático, y el descubrimiento de las leyes de la naturaleza es una incursión en su Mente. Sin embargo, en algunos casos la experimentación parece desmentir esta permanencia, sugiriendo que ciertas constantes podrían cambiar a lo largo del tiempo. Ese sería el caso de la velocidad de la luz, que podría haberse ralentizado a lo largo del tiempo, según proponía hace unos años en la revista Nature el astrofísico y escritor australiano Paul Davies, conocido por sus investigaciones en torno de los agujeros negros y el comienzo del universo.
  • 13. 13 El trabajo de Davies surgió como respuesta al enigma propuesto por el astrónomo John Webb y su equipo de la Universidad de Sidney. Analizando la luz llegada "del pasado" de un cuásar distante - objeto celeste similar a una estrella -, Webb llegó a la conclusión de que la constante de estructura fina de la luz del cuásar era alrededor de una millonésima parte más pequeña de lo previsto. Davies investigó cuál de las constantes sobre las que está basada alfa había variado a lo largo del tiempo y llegó a la conclusión de que debía ser la velocidad de la luz. "Si la velocidad de la luz varía, el Big Bang podría haber sido hace doce o quince mil millones de años -afirmó Davies-. La velocidad de la luz podría haber sido infinita en ese momento, lo que explicaría muchas cosas de nuestro universo actual". Y es que la supuesta variación de esta constante, además de contradecir la teoría de la Relatividad de Einstein, podría dar explicación a fenómenos como la temperatura casi uniforme del Universo, así como reforzar las teorías sobre las dimensiones espaciales adicionales. Davies no es el único que aporta pruebas en esta dirección. En 2004, analizando el reactor nuclear natural de hace 2.000 millones de años que fue encontrado en 1972 en Oklo, en África Occidental, algunos científicos señalaron que la constante alpha por aquellas fechas podría haber sido ligeramente mayor, lo que en principio supondría que la velocidad de la luz habría variado en los dos últimos milenios. Otros investigadores discrepan con estas interpretaciones, y aseguran que las diferencias observadas podrían explicarse por una variación en la intensidad de la fuerza electromagnética entre los electrones. Aún queda mucho trabajo por hacer, aseguran, antes de afirmar que la velocidad de la luz u otras "constantes universales" podrían estar cambiando. 7. OPTIMIZACIÓN EN EL UNIVERSO Por Manuel de León, Vicepresidente de la Real Sociedad Matemática Española y Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales. Las matemáticas nos enseñan las pautas escondidas en las masas de datos con las que el universo nos bombardea continuamente. Pero esas pautas obedecen a una necesidad de optimizar. Al terminar de leer este artículo quédese con esta pregunta: ¿optimiza el universo las constantes físicas?
  • 14. 14 Optimizando espacio En 1606, Sir Walter Raleigh propuso al matemático Thomas Harriot una cuestión que preocupaba a la Armada inglesa: ¿cuál es la mejor manera de apilar las balas de cañón en las cubiertas de los barcos? Harriot escribió a su colega Johannes Kepler. La respuesta fue la llamada conjetura de Kepler: justamente la manera de apilar las naranjas en las fruterías. Con algo más de tecnicismo, ninguna naranja más se puede introducir en el mismo receptáculo. La densidad medida como la razón entre el espacio ocupado y el espacio total es precisamente π/18. Aunque pueda parecer obvio, los matemáticos llevan ya casi cuatro siglos intentando probar que esto es así, en gran medida porque la demostración conlleva una enorme cantidad de cálculos de ordenador. En 1998, el matemático norteamericano Hales presentó una demostración que todavía no ha sido aceptada definitivamente; el propio autor estima que tendrá una prueba formal en 20 años más. Pero no crea que los matemáticos nos dedicamos a problemas que los fruteros han resuelto hace mucho tiempo: el plegamiento de las proteínas es tampoco una versión compleja de los problemas de empaquetamiento. Optimizando tiempo Usted seguramente habrá sufrido el invierno pasado una gripe anual. El esquema es bien conocido: dos días para desarrollar la enfermedad y una semana para curarse. Los virus crecen exponencialmente (parecen conocer a nuestro amigo el número e) y. ante su ataque, el organismo reacciona lentamente. Esta es la respuesta correcta, que eones de evolución han enseñado: si la respuesta fuese tan rápida como el ataque, se produciría un equilibrio, y usted arrastraría su gripe durante largos años. Al ser lenta, el organismo puede hacer acopio de anticuerpos y dar un ataque masivo. Le sorprenderá saber que este modelo matemático es exactamente el mismo que produce esos maravillosos patrones coloridos de las conchas marinas. ¡Pareciera que la naturaleza optimizase también la cantidad de matemáticas que precisa! Optimizando el crecimiento Todos conocemos esos maravillosos campos de girasoles. Observemos uno de ellos: veremos muchas espirales entrelazadas y, si contamos las que giran a izquierda y las que lo hacen a la derecha, encontramos siempre dos términos consecutivos de la sucesión de Fibonacci. ¿Cuál es la causa? El girasol va creciendo paso a paso, con mucho cuidado, produciendo las proto-hojas optimizando el espacio que ocupan. Ese crecimiento cuidadoso con números enteros es capaz de producir el a veces llamado el más irracional de los números, el número Φ. ¿Son las constantes "constantes"? Hay ciertos números que aparentan ser "mágicos", y a la vez, hay constantes físicas que no le van a la zaga. ¿Cuáles son más "constantes"? Lo cierto es que la física de los primeros segundos de nuestro universo parece haber producido las constantes que ahora observamos, que, de pasada, son las que permiten que un ser humano (yo en este caso) esté ahora escribiendo un artículo (recuerden el principio antrópico). Pero no puede hablarse en realidad de "constantes matemáticas", sino de números. Hay una cantidad infinita de números irracionales como π, e o Φ; y desde un punto de vista estrictamente matemático, no hay diferencias entre unos y otros.
  • 15. 15 Pero también es verdad que las matemáticas proporcionan modelos para que puedan realizarse todas las constantes físicas. ¡Esta es "la irrazonable efectividad de las matemáticas" de la que hablaba el premio Nóbel de Física Paul Wigner!
  • 16. 16 COMPLEJIDAD 1. Definición de un Sistema Complejo Un sistema complejo es un sistema compuesto por varias partes interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al observador. En un sistema complejo, existen variables ocultas cuyo desconocimiento nos impide analizar el sistema con precisión. Así pues, un sistema complejo, posee más información que la que da cada parte independientemente. Para describir un sistema complejo hace falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre sí. 2. Complejidad en lo cotidiano La definición de complejidad tiene que ver con la diversidad de elementos que componen una situación; un todo que se compone de partes que interactúan y que estas a su vez se encuentran en contacto con su medio ambiente. Desde este ángulo, todo es complejidad. Toda nuestra vida está rodeada del concepto de complejidad. La complejidad no tiene una sola forma de definirse y entenderse, esto es, la definición de complejidad depende del punto de vista del observador, como menciona Warfield (1994). Algo que es complejo para un observador tal vez no lo será para un segundo observador o para un grupo de observadores. Desde esta perspectiva la complejidad se nos presenta como el diferencial entre la demanda de recursos (materiales, intelectuales, valores, etc.) para enfrentar una situación y los recursos de que dispone el observador. Es sencillo, si la situación que se presenta (desde el punto de vista de algún observador) demanda de gran cantidad de recursos (de cualquier índole) y no se cuenta con los recursos necesarios para afrontar esa situación (por su dinámica y características propias) entonces estamos frente a una situación compleja. 3. Tipos de Complejidad Una empresa adquiere una nueva y numerosa flotilla de camiones estandarizados de un solo proveedor para la entrega de sus productos. La realización de reparaciones, manejo de las partes, y control de refacciones, requiere del desarrollo de habilidades y aprendizaje que debe acumularse dentro del equipo de gente que tiene a su cargo la tecnología de reparto de producto.
  • 17. 17 Dos años después, por los compromisos que tiene un alto ejecutivo, se compra una fuerte cantidad de unidades nuevamente, pero de distinto proveedor. Sobra comentar que el esfuerzo requerido dentro de la organización para la administración, control y seguimiento de, aunque aparentemente dos tecnologías similares, requiere de un desgaste de energía abundante, de un despliegue de talento adicional y de una administración más compleja de una situación que ya había sido estabilizada. Este simple ejemplo, muy específico y común en el contexto organizacional, cae dentro de una serie de situaciones que se presentan a diario dentro de cualquier empresa. De esta situación podemos concluir lo siguiente: 1. El dominio de una simple tecnología es un proceso de aprendizaje que requiere tiempo. Está implícito cierto grado de complejidad con el que habrá que lidiar. 2. A medida que se agregan mas variables a las existentes, la necesidad de contar con la infraestructura para su administración debe ser mayor (demanda mayor tiempo, talento y recursos). 3. Esta situación se muestra como una de las más características dentro de cualquier organización. Donde para la toma de decisiones se parte de ciertas bases, variables y supuestos. Sin embargo no se tiene un criterio común para evaluar el impacto positivo o negativo de la decisión y sus posibles efectos secundarios a todos los sistemas involucrados. Tampoco se cuenta con una idea clara de lo que esta decisión implica en el incremento del nivel de complejidad en el tiempo. Este tipo de complejidad organizacional adquirido pudiera llamarse "provocada", puesto que se contaba con la información para decidir por el tipo de proveedora seleccionar. Esto es, la decisión correcta hubiera sido idealmente seleccionar la misma tecnología, esto permitiría un mejor control del sistema en cuestión, que a su vez se traduciría en una mayor eficiencia de la organización como un todo. Aquí vemos que no todo en la organización es "aleatorio"; la cantidad de circunstancias de desgaste por energía disipada que se generarán gracias a una mala decisión serán mayores debido a que la exigencia del sistema crece en diferentes variables. El sistema ahora requiere más atención y si la organización no cuenta con los recursos adecuados para administrarlo correctamente entonces la situación se volverá ineficiente. Tratando entonces de clasificar los diferentes tipos de complejidad que se pueden encontrar en las organizaciones, pudiéramos mencionar las siguientes categorías: A. Complejidad de Origen.- Debida a las características de la tecnología, producto e infraestructura que demanda naturalmente a la organización. El tipo de complejidad de diseño es aquella que surge de los componentes básicos de la organización y sus interrelaciones para poder operar: La tecnología, su organización, el mercado, el tipo de producto, sistema de manejo de materiales, sistema de distribución, etc. Dentro de la complejidad de origen podemos decir que juega un papel fundamental la Tecnología. Existen innumerables estudios que marcan a la tecnología como una de las principales variables que definen la configuración de la organización, puesto que en base al proceso de transformación se empiezan a desplegar requerimientos para llevarla a cabo. Existen tecnologías muy sencillas de administrar pero donde la
  • 18. 18 complejidad emerge de la cantidad de clientes que se tiene, ya que cada uno de ellos requiere algo específico. En el otro extremo están las compañías que se encuentran dentro del mercado de la innovación y que demanda gran coordinación entre sus elementos, desde que se diseña el producto hasta que se lanza al mercado, pasando por sus etapas de prueba y fabricación. Cada una de ellas guarda su complejidad propia y demanda de recursos y actores capacitados para administrar ese nivel de complejidad implícito. B. Complejidad Residual.- El tipo de complejidad no administrada nace en el momento en el que la variedad demandada excede a la variedad del sistema y que genera un diferencial acumulable. Complejidad resultante de los procesos normales dentro de la organización; conflictos en la toma de decisiones, descontrol de procesos, programación de la producción, reclamaciones del cliente, etc. Dentro de la complejidad residual juega un papel primordial la interacción de los vectores Tecnológico, Administrativo y Humano. Este tipo de complejidad esta más identificada con los procesos que se generan día a día en la organización al operar el sistema. La organización tiene que lidiar con ella todo el tiempo y es el talento del personal y la sinergia de grupo la que logra que se salga adelante una y otra vez, aunque si no se cuenta con lo recursos adecuados, la entropía tenderá a desarrollarse con el tiempo matando al sistema. C. Complejidad Provocada.-Complejidad resultante de fenómenos no atribuibles a situaciones normales, como son grupos de poder que toman decisiones inconscientemente (?) en la organización para su propio beneficio. Surge por razones ajenas a los fines de la organización y más bien se produce obedeciendo a los intereses personales de la gente, los intereses de grupos de poder internos, los intereses organizacionales de doble cara, como son el promover una estrategia de mejora en la organizacional pero para lograr beneficios personales en cuanto a proyección, aprendizaje o para perpetuarse en el poder. Este tipo de complejidad es muy difícil de detectar y pienso que es a la que hay que temerle más. Como menciona Gerad Egan (1996, pag 3) en su libro El Valor Agregado de los Empleados en las Organizaciones: "Comprender y administrar el lado oculto de la empresa es una parte clave de la sabiduría pragmática que se requiere para enfrentar los cambios desconcertantes que están ocurriendo en el lugar de trabajo". No se puede negar que cada persona dentro de la organización tenga la necesidad y el derecho de hacer carrera dentro de la organización, pero hay que entender que el primer objetivo de la empresa es que esta sea negocio y no precisamente para beneficio de algunos.
  • 19. 19 Ya sea consciente o inconscientemente, cualquier decisión que ocurre en la organización afecta su desempeño y si esta no se toma buscando antes que nada el beneficio de la empresa, entonces estaremos agregando mas elementos que contribuyan a desgastar al sistema y mermen su equilibrio dinámico. Son muy clásicos los estudios sobre administración de la tecnología donde el grupo que controla los principales procesos de la organización se resiste al cambio poniendo objeciones a los cambios propuestos en aras de la mejora. Esto no es un absurdo; la gente dentro de la organización quiere conservar lo que hasta ese momento ha ganado con mucho sacrificio. Cualquier cambio en el status quo pone en peligro su lugar en la organización y esta o estas personas harán hasta lo imposible por no ceder. Lo triste de la historia es que la organización pierde tiempo valioso para fortalecerse al adaptarse a su medio ambiente, y esto representa de alguna manera quitarle sus defensas ante los ataques de la competencia. En la complejidad provocada juega un papel predominante la cultura y el liderazgo. Todos estos tipos de complejidad ocurren cada día en el entorno organizacional, algunos con más fuerza que otros, por la realidad situacional muy particular que se vive internamente. Sin embargo si no son identificados estas variedades de complejidad y administrados adecuadamente la organización perderá la energía que existe, llevando consigo al desgaste, y la caída paulatina del sistema. Y la
  • 20. 20 razón es muy sencilla, se acabó el colchón de la ineficiencia para aguantar más decisiones equivocadas en las empresas. 4. Características de la Complejidad 1. La Complejidad puede ocurrir en sistemas naturales, aquellos diseñados por el hombre e incluso en estructuras sociales. 2. Los sistemas dinámicos complejos pueden ser grandes o pequeños; de hecho en algunos sistemas complejos, los elementos grandes y pequeños viven cooperativamente. 3. La forma física puede ser regular o irregular. 4. Como una regla, entre más grande es el número de partes del sistema, existe mayor probabilidad de ocurrencia de la complejidad. 5. La complejidad puede ocurrir en sistemas disipadores (en contacto con su medio ambiente y que se desgastan al operar) o conservadores de energía (como el movimiento planetario). 6. Los sistemas no son completamente probabilísticos ni completamente determinísticos; exhiben ambas características. 7. Las causas y efectos de los eventos que el sistema experimenta no son proporcionales. 8. Las diferentes partes de sistemas complejos están conectadas y afectan una a otra de una manera sinergética. 9. El nivel de complejidad depende de las características del sistema, su medio ambiente, y la naturaleza de las interacciones entre ellos. 10. Los sistemas complejos son abiertos, en el sentido de que intercambian materia, energía e información con su medio ambiente. 11. Los sistemas complejos tienden a generar procesos irreversibles. 12. Los sistemas complejos son dinámicos y no se encuentran en equilibrio. 13. Muchos sistemas complejos no son bien comprendidos y frecuentemente generan cambios que sugieren que las relaciones funcionales que los representan no son diferenciables (de fácil solución). 14. Existen paradojas como eventos rápidos y lentos, formas regulares e irregulares, y cuerpos orgánicos e inorgánicos en cohabitación. 5. Ejemplos Un ejemplo típico de sistema complejo es la Tierra. La tierra está formada por varios sistemas simples que la describen: • Campo gravitatorio. • Campo magnético. • Flujo térmico. • Ondas elásticas. • Geodinámica.
  • 21. 21 Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que interactúan y hacen evolucionar el sistema 'Tierra'. Hay, pues, mucha más información oculta en esas interrelaciones de sistemas. Otros sistemas complejos típicos son: • Terremotos y volcanes. • Los ecosistemas. • Los seres vivos. • El software 6. Complejidad y Caos Bibliografía http://es.wikipedia.org/wiki/Sistema_complejo http://www.slideshare.net/schuschny/clase-1-y-2-introduccin-a-las- ciencias-de-la-complejidad/1 http://www.eumed.net/cursecon/libreria/2004/aca/aca.htm
  • 22. 22 CASO DE ESTUDIO: Prueba de Inteligencia (CRUZAR EL RIO) Esta es una prueba que se aplica en algunos países asiáticos como el Japón y China para los aspirantes a algún trabajo. Las instrucciones se indican se indican a continuación: Reglas: Recuerda: “TODOS DEBEN CRUZAR EL RIO !!!!!” 1. Todo el mundo tiene que cruzar el rio utilizando para ello la balsa. 2. Solo 2 personas en la balsa pueden cruzar al mismo tiempo (capacidad de la balsa 2 personas). 3. El Padre no puede estar con ninguna de las hijas si la Madre no esta presente. 4. La Madre no puede estar con ninguno de los hijos si el Padre no esta presente. 5. El Ladrón no puede estar con ningún miembro de la familia sin la presencia del Policía 6. Solo el Padre, la Madre y el Policía saben como funciona la balsa. Nota: Cronométrese el tiempo empleado para desarrollar el caso de estudio INSTRUCCIONES MANEJO DE LA APLICACIÓN (actividad.pps)
  • 23. 23 • Para empezar da clic en el circulo azul. • Para mover a las personas da clic sobre ellas. • Para mover la balsa da clic en la palanca.
  • 24. 24 AUTOEVALUACIÓN Responda las siguientes interrogantes: 1. Tiene solución el caso de estudio presentado? SI NO En caso de SI. Enumere los pasos que se deben seguir: ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… 2. El nivel de complejidad de la aplicación es de un _________ %
  • 25. 25 INCERTIDUMBRE 1. PROBABILIDAD El conocimiento sobre la manera en que opera el mundo está limitado por lo menos por cinco tipos de incertidumbre: 1. Conocimiento inadecuado de todos los factores que pueden influir en algo. 2. Número inadecuado de observaciones sobre esos factores. 3. Falta de precisión en las observaciones. 4. Carencia de modelos apropiados para combinar toda la información de modo significativo, y 5. Capacidad inadecuada para calcular a partir de los modelos. Es posible predecir algunos sucesos con mucha precisión (eclipses), otros con menos exactitud (elecciones) y otros con muy poca certeza (terremotos). Aunque la certidumbre absoluta es casi imposible de conseguir, con frecuencia se puede estimar la probabilidad sea grande o pequeña de que algunas cosas sucedan y el margen probable de error de la estimación. Con frecuencia resulta útil expresar la probabilidad en forma numérica. Por lo general se utiliza una escala de probabilidad de 0 a 1, donde el 0 indica la creencia de que algún suceso específico es seguro que no ocurrirá, el 1 indica la creencia de que es seguro que sucederá y el intervalo entre los dos indica certidumbre. Por ejemplo, una probabilidad de 0.9 indica que hay 9 oportunidades en 10 de que ocurra un suceso como se predijo; una probabilidad del 0.001 indica que hay solamente una oportunidad en 1 000 de que ocurra. También se pueden expresar las probabilidades como porcentajes, que van desde 0% (no hay certeza) hasta el 100% (certeza). Las incertidumbres también pueden expresarse como desigualdades: una probabilidad de 0.8 para un evento puede expresarse como las posibilidades de 8 a 2 (o 4 a 1) en favor de que ocurra. 1.1 Una manera para estimar la probabilidad de un evento es considerando los acaecimientos pasados. Si la situación actual es similar a las anteriores, entonces se pueden esperar resultados algo similares. Por ejemplo, si llovió el 10% de los días de verano del año pasado, se puede esperar que llueva aproximadamente el 10% de los días del siguiente verano. Así, una estimación razonable de la probabilidad de lluvia de cualquier día de verano es 0. 1 una oportunidad en 10. La información adicional puede cambiar la estimación de la probabilidad. Por ejemplo, pudo haber llovido el 40% de los días nublados del pasado verano; de modo que, si el día actual está nublado, se puede aumentar la estimación de 0.1 a 0.4 para la probabilidad de lluvia. Cuanto más se parezca la situación que interesa a aquélla de la que se tienen datos, mayor es la probabilidad de que la estimación resulte más acertada. 1.2 Otro enfoque para estimar las probabilidades es considerar los posibles y distintos resultados de un suceso específico. Por ejemplo, si hay 38 ranuras de amplitud igual en una ruleta rusa, se puede esperar que la bola caiga en cada ranura más o menos 1/38 veces. Las estimaciones de esa probabilidad teórica descansan en la suposición de que todos los resultados posibles son razonables y es igualmente probable que todos ocurran. Pero si ello no es cierto por ejemplo, si las ranuras no son de igual tamaño o si en ocasiones la bola se sale de la ruleta, la probabilidad calculada será errónea. 1.3 Las probabilidades son muy útiles para predecir proporciones de resultados en grandes cantidades de eventos. Una moneda lanzada al aire tiene una probabilidad de 50% de que caiga cara, aunque una persona no va conseguir precisamente 50% de caras en un número par de lances. Cuanto más se lance una
  • 26. 26 moneda, será menos probable que uno consiga una cantidad precisa del 50%, pero la proporción más cercana de caras es probable que sea el teórico 50%. De igual manera, las compañías aseguradoras pueden, dentro de un rango de uno o dos puntos porcentuales, predecir la proporción de personas de 20 años que morirá en un año especifico, pero es probable que se equivoquen por miles de muertes totales y no tienen ninguna capacidad de predecir si alguien en particular que tenga 20 años morirá. En otras palabras, también es importante distinguir entre la proporción y la cifra real. Cuando hay una gran cantidad de sucesos similares, aun un resultado con una probabilidad muy pequeña de ocurrir puede suceder con mucha frecuencia. Por ejemplo, un examen médico con una probabilidad de 99% de ser correcto puede parecer muy preciso pero si ese examen se hubiera aplicado a un millón de personas, aproximadamente 10 000 individuos recibirían resultados falsos. 2. RESUMEN DE DATOS La información se encuentra alrededor de todos, a menudo en tan grandes cantidades que no es posible darle sentido. Un conjunto de datos se puede representar a través de un resumen de características que pueden revelar u ocultar aspectos importantes. La estadística es una rama de las matemáticas que desarrolla métodos útiles de organizar y analizar grandes cantidades de datos. Por ejemplo, para tener una idea de lo que es un conjunto de datos, se podría trazar cada caso en una recta numérica, y después inspeccionar la gráfica para ver dónde se acumulan los casos, dónde se separan unos de otros, dónde se encuentran los más altos y los más bajos, y así sucesivamente. De forma alternativa, el conjunto de datos se puede caracterizar de manera resumida describiendo dónde se halla su centro y cuánta variación hay alrededor de él. El estadístico más conocido para resumir una distribución de datos es la media, o promedio común, pero se debe ser cuidadoso al usarla o interpretarla. Cuando los datos son discretos (como el número de hijos por familia), la media no podría ser un valor posible (por ejemplo, 2.2 hijos). Cuando los datos se inclinan mucho hacia un extremo, la media tampoco puede estar cerca de un valor común. Por ejemplo, una proporción pequeña de personas que tienen ingresos personales muy altos puede aumentar la media mucho más de lo que la mayoría de las personas concentradas en el extremo más bajo sería capaz de disminuirla. La mediana, la cual divide la mitad inferior de los datos de la mitad superior, es más significativa para muchos propósitos. Cuando sólo hay unos cuantos valores discretos de una cantidad, el tipo de promedio más informativo puede ser la moda, la cual es el valor único más común por ejemplo, el número más común de automóviles por familia en los Estados Unidos de América es 1. 2.1 En general, los promedios por sí mismos no hacen caso de la variación en los datos y pueden implicar más uniformidad de la que existe Por ejemplo, la temperatura promedio en el planeta Mercurio de aproximadamente 150 F no suena tan mal hasta que uno considera que ésta oscila desde 3000 F hasta 3000 F bajo cero. El descuido de la variación puede ser particularmente engañoso cuando se comparan promedios. Por ejemplo, el hecho de que la estatura promedio de los hombres sea claramente mayor que la de las mujeres, se podría enunciar como "los hombres son más altos que las mujeres", en tanto que existen muchas mujeres que son más altas que muchos hombres. Por tanto, para interpretar promedios, es importante tener información sobre la variación dentro de los grupos, como la gama total de datos o la gama cubierta por el 50%. Una gráfica de todos los datos a lo largo de una recta numérica hace posible ver la forma en que se distribuyen los datos. 2.2 Con frecuencia se presentan datos resumidos que pretenden demostrar una relación entre dos variables, pero carecen de información esencial Por ejemplo, la afirmación de que "más del 50% de las parejas casadas que tienen diferentes religiones se divorcian" no diría nada acerca del vínculo entre la religión y el divorcio a menos que se conozca también el porcentaje de parejas que se divorcian teniendo la misma religión. Sólo la
  • 27. 27 comparación de los dos porcentajes podría indicar si existe una relación real. Aun entonces, es necesaria la precaución por los posibles sesgos en la manera en que se seleccionaron las muestras y por las diferencias en porcentaje que puedan ocurrir sólo por el azar al seleccionar la muestra. Los informes apropiados de esa información deberán incluir una descripción de posibles fuentes de sesgos y una estimación de la incertidumbre estadística en la comparación. 3. MUESTREO DE DATOS La mayor parte de lo que se aprende sobre el mundo se obtiene de información basada en muestreos de lo que se está estudiando por ejemplo, muestras de formaciones rocosas, luz de las estrellas, televidentes, enfermos de cáncer, ballenas, números, etc.. Se hace uso de las muestras porque resultaría imposible, impráctico o demasiado costoso examinar el todo de algo, y porque una muestra, por lo general, es suficiente para la mayor parte de los propósitos. Al sacar conclusiones sobre un todo a partir de muestras, se deberán tomar en cuenta dos aspectos principales. o Primero, se debe estar alerta a posibles sesgos originados por la forma en que se selecciona la muestra. Las fuentes comunes de sesgos al seleccionar muestras incluyen la conveniencia (por ejemplo, entrevistar sólo a los amigos o recoger solamente rocas de la superficie), la autoselección (por ejemplo, estudiar únicamente a la gente que coopera voluntariamente o a quienes regresan los cuestionarios), el fracaso para incluir a aquellos que se han retirado a lo largo del camino (por ejemplo, examinar sólo a estudiantes que permanecen en la escuela o a pacientes que siguen el curso de una terapéutica) y la decisión de usar sólo los datos que apoyen las propias concepciones previas. o El segundo aspecto importante que determina la utilidad de una muestra es su tamaño. Si ésta se obtiene sin sesgos en el método, entonces, cuanto más grande es, mayor es la probabilidad de que represente al todo con exactitud. Esto es así porque, cuanto mayor es la muestra, es más probable que los efectos menores de las variaciones debidas al puro azar estén en sus características resumidas. La probabilidad de extraer una conclusión equívoca disminuye a medida que el tamaño de la muestra se incrementa. Por ejemplo, para las muestras escogidas al azar, encontrar que 600 de una muestra de 1 000 tienen una cierta característica, es una evidencia mucho más fuerte de que una mayoría de la población presenta esa característica que descubrir que 6 de una muestra de 10 (o incluso 9 de 10) la tienen. Por otro lado, el tamaño real de la población total de la cual se extrae una muestra tiene poco efecto en la exactitud de los resultados de ésta. Una muestra aleatoria de 1 000 podría tener aproximadamente el mismo margen de error si se selecciona en una población de 10 000 o en una similar de 100 millones. 4. CASO DE ESTUDIO: LA INCERTIDUMBRE EN LA METROLOGÍA “Mide todo lo que puedas medir; si hay algo que todavía no puede ser medido, encuentra como hacerlo”. Galileo Galilei, Astrónomo. “Sólo es posible conocer un fenómeno si podemos medirlo y reducirlo a números”. William Thompson, Físico. Definición de algunos conceptos Medición: Es el conjunto de acciones que tienen por objeto determinar el valor de una magnitud particular denominada mensurando. Procedimiento de medición: Es la secuencia específica de operaciones utilizada para medir determinada magnitud particular, siguiendo un principio establecido y de acuerdo a un método dado. Instrumento de medición: Aparato destinado a obtener medidas directas que permiten estimar los valores de diversas magnitudes particulares.
  • 28. 28 Mensurando: Magnitud medida por un instrumento. Valor verdadero: Valor real del mensurando. Sistema de medición: Incluye instrumentos, patrones de calibración, conceptos y leyes físicas, operarios humanos, valores de propiedades y constantes, etc. Escala: Conjunto de símbolos o marcas ubicados en el instrumento, a menudo acompañados de una referencia numérica y normalmente a lo largo de una recta o arco de círculo. Índice: Puntero, aguja, lápiz, punta luminosa, superficie líquida, etc. cuya posición indica el valor de la magnitud. Longitud de escala: Es la distancia entre la primera y última marca indicada en unidades de longitud a lo largo del camino recorrido por el índice. Espaciamiento de escala: Es la distancia entre marcas adyacentes. Para que el índice sea legible tiene que ser mayor que 0.7mm. División de escala: Conjunto de valores limitados por dos trazos consecutivos. Intervalo de escala: Es la diferencia de valor representado por el desplazamiento del índice a través de un espaciamiento de escala. Escala lineal: Existe si el cociente entre el intervalo de escala y el espaciamiento de escala es constante a lo largo de toda la escala. Resolución: Es el cambio en el valor de la magnitud que produce el menor cambio apreciable en la indicación del aparato. Varía generalmente entre el 10 y el 20 % del espaciamiento de escala. Exactitud: Es una expresión cualitativa del grado de concordancia entre la magnitud medida y la magnitud real. Repetitividad: Es el reflejo de la dispersión de la de serie de valores que se obtienen al medir repetidas veces una misma magnitud. Precisión: Término que se asocia en ocasiones a la repetitividad, resolución o exactitud. Para evitar confusiones se evita su uso. Norma y proceso de normalización ISO Se define como norma al conjunto de especificaciones que caracteriza a un producto, proceso o procedimiento. Una norma es un patrón de referencia que representa una solución óptima para un problema que se repite. En general, las normas son documentos consensuales que tienen por objeto establecer los criterios mediante los cuales una determinada entidad, ya sea persona, producto, proceso, servicio o sistema, se adecua a una base de comparación definida oque es aceptable según ella. Algunos ejemplos de Normas son: ASTM, NCh de INN, ISO, etc. La Normalización ISO consiste en el proceso de formulación y aplicación de reglas que permitan abordar ordenadamente, con el concurso de todos los interesados, una actividad específica para el beneficio de éstos y, especialmente, para promover una economía óptima, para el interés general, teniendo debida consideración de las condiciones de funcionamiento y exigencias de seguridad. En la aplicación de las normas, especialmente en el Control de Calidad, se requiere de sistemas de unidades y de instrumentos de medición, que permitan verificar el grado de concordancia entre el producto real y el valor de referencia indicado por la norma o patrón
  • 29. 29 de comparación. Este requerimiento lo satisface la Metrología que es la base científico- técnica de las NORMAS, Control de Calidad y la Certificación de Calidad. Proceso de Normalización Control de Calidad El control de calidad es un procedimiento integral de: Además existe una estrecha relación entre control de calidad, normalización y metrología de la siguiente forma: Algunas definiciones de Metrología 1.- Ciencia que tiene por objetivo el estudio de los sistemas de pesas y medidas. 2.- “metron” = medida “logos” = tratados. 3.- Ciencia de medir, que significa cuantificar la magnitud de cualquier fenómeno por comparación con otro de la misma naturaleza y reconocido como Patrón. 4.- Ciencia que se dedica al estudio de las mediciones. Todo fenómeno físico o químico que sea posible medir, entra en el campo de la “Metrología” (Está relacionado con todas las ciencias de la Ingeniería).
  • 30. 30 Origen del metro 1791: La Academia de Ciencias de Francia define “metro” como la diez millonésima parte del cuadrante terrestre, dando origen al sistema métrico decimal. 1799: Se construye un patrón de longitud en una aleación de platino e iridio. 1840: El sistema métrico decimal es adoptado en toda Francia. 1875: Mediante la firma de delegados de 17 países se funda la “Oficina Internacional de pesas y Medidas de París”, la cual se encargó de fabricar réplicas del metro. 1908: Chile adhiere la “Convención Internacional del Metro”. 1960: Metro es “1.650.763,73 veces la longitud de onda en el vacío de la radiación naranja de Criptón 86”. 1983: Metro es “la longitud de la trayectoria recorrida por la luz en el vacío durante 1/299.792.648 segundos. Sistema de medida anglosajona Tanto Inglaterra como América formaron la convención del Metro y recibieron sus prototipos correspondientes. Sin embargo, como las convenciones no eran obligatorias, estos países han seguido con sus sistemas especiales de pesas y medidas. La unidad oficial Anglosajona es la yarda, que tiene aproximadamente 0,914 metros y es igual a 3 pies y a 36 pulgadas. 1761: Se construye el primer patrón de la yarda, el cual era una barra de latón con dos pastillas en oro marcadas con un pequeño agujero, entre las cuales se definió la yarda a temperatura de 62º F. 1834: Se destruye el patrón de la yarda a causa de un incendio. 1845: El actual patrón de la yarda es una barra de bronce cuyas dos extremidades están perforadas con dos agujeros remachados con oro. Sistema Internacional de Unidades SI El 20 de Mayo de 1875, 17 países suscribieron en París, la Convención del Metro, a raíz de la cual se adoptó el “Sistema Métrico de Unidades”. Unidades básicas Magnitudes básica Unidades básicas Símbolo Magnitud Unidad Símbolo L longitud metro m M masa kilogramo kg T tiempo segundo s Q temperatura termodinámica kelvin K I intensidad de corriente eléctrica ampere A J intensidad luminosa candela cd N cantidad de sustancia mol mol Unidades SI derivadas sin nombre propio Magnitud Nombre Símbolo área metro cuadrado m 2 volumen metro cúbico m 3 velocidad, rapidez metro/segundo m/s aceleración metro/segundo cuadrado m/s 2 número de ondas 1/metro m -1
  • 31. 31 densidad kilogramo/metro cúbico kg/m 3 concentración (cantidad Mol/metro cúbico mol/m 3 de sustancia) actividad (radiactiva) 1/segundo s -1 volumen específico metro cúbico/kilogramo m /kg 3 densidad de corriente ampere/metro cuadrado A/m 2 eléctrica intensidad campo ampere/metro A/m magnético luminancia candela/metro cuadrado cd/m 2 Unidades derivadas con nombre especial Expresión en Nombre unidad términos de Magnitud Símbolo derivada SI unidades básicas -1 frecuencia hertz Hz 1 Hz = 1 s 2 fuerza newton N 1 N = 1 kg m/s 2 presión pascal Pa 1 Pa = 1 N/m energía trabajo joule J 1 J = 1 Nm potencia watt w 1 w = 1 J/s carga eléctrica coulomb C 1C=1As potencial volt V 1 V = 1 J/C eléctrico capacitancia farad F 1 F = 1 C/V eléctrica resistencia ohm Ω 1 Ω = 1 V/A eléctrica conductancia siemens S 1 S = 1 A/V eléctrica flujo magnético weber wb 1 wb = 1 V s inducción 2 tesla T 1 T = 1 wb/m magnética inductancia Henry H 1 H = 1 wb/A flujo luminoso lumen lm 1 lm = 1 cd sr 2 iluminación lux lx 1 lx = 1 lm/m Unidades fuera del SI mantenidas por su importancia práctica Nombre de la Símbolo Definición Magnitud unidad minuto min 1 min = 60 s tiempo hora h 1 h = 60 min día d 1 d = 24 h grado º 1 º = (1/180) rad ángulo plano minuto ’ 1 ’ = (1/60) º (ISO radian) segundo ’’ 1 ’’ = (1/60) ’ volumen litro l 1 l = 1 dm 3 masa tonelada t 1 t = 10 kg 3
  • 32. 32 Múltiplos de unidades SI NOMBRE SIMBOLO POTENCIA yotta Y 10 24 zetta Z 10 21 exa E 10 18 peta P 10 15 tera T 10 12 giga G 10 9 mega M 10 6 kilo k 10 3 hecto h 10 2 deca da 10 1 deci d 10 -1 centi c 10 -2 mili m 10 -3 micro u 10 -6 nano n 10 -9 pico p 10 -12 femto f 10 -15 atto a 10 -18 Zepto Z 10 -21 yocto y 10 -24 Error e incertidumbre Al medir un mensurando se obtiene siempre sólo una aproximación a su valor verdadero. Solamente un instrumento ideal podría entregar como resultado de una medición el valor verdadero de la magnitud medida. Las causas del error pueden tener su origen en el propio instrumento o en situaciones ajenas a éste. Dentro de los instrumentos de medición: o Errores de ajuste, cuando el valor entregado difiere de una referencia conocida. o Problemas de juego (saltos bruscos al cambiar el sentido de medición), histéresis (diferencia entre valores obtenidos al medir en forma ascendente o descendente). o Otros errores comunes son la desviación de linealidad, deriva (lentitud hasta detenerse e indicar un valor) y falta de estabilidad. Errores no atribuibles al instrumento de medición son por lo común las desviaciones debidas a problemas ambientales e interferencias diversas en el ambiente de trabajo. Cabe destacar también que sumándose al error pueden existir equivocaciones conducentes a resultados falsos. Estas equivocaciones incluyen lecturas mal tomadas, errores de operación de los instrumentos y errores humanos en general, y no pueden ser consideradas asignándoles algún tipo de distribución de probabilidades, al calcular la incertidumbre. Diferencia entre Exactitud y Precisión: Valor Real (+)
  • 33. 33 a) Serie exacta de mediciones repetidas cuyo promedio se aproxima al valor real. b) Las mediciones realizadas varias veces son precisas (están muy cercas entre sí), pero no se aproximan al valor real. c) Una serie de mediciones repetidas y que se encuentran concentradas apretadamente en torno del valor real. Error de Medición: Diferencia entre el resultado de la medición (X) y el valor verdadero (X ). V ε=X–X V Error Total: Suma entre el error sistemático (ε ) y el error aleatorio (ε ). S A ε =X –X ε =X–X S V A Incertidumbre (U): “Uncertainty” Parámetro que caracteriza el intervalo dentro del cual se cree, con gran seguridad que se encuentra el valor verdadero (X ). V Representación esquemática del intervalo de Incertidumbre: Si la Incertidumbre no se conoce, será imposible verificar si las características del mensurando están o no dentro de los márgenes de tolerancia contemplados en sus especificaciones y por ende, no se podrá válidamente tomar la decisión de aceptación o rechazo del producto. La incertidumbre asociada a los resultados obtenidos con el instrumento al medir un determinado mensurando, corregidos por posibles desviaciones detectadas mediante la calibración, se obtiene combinando tres componentes: 1) la incertidumbre asociada a las mediciones individuales, 2) la incertidumbre asociada a la corrección o ajuste y 3) la incertidumbre asociada al patrón de calibración Se olvida, por último, que ni el valor verdadero convencional del patrón ni su incertidumbre, que se obtienen de una calibración del patrón mismo, se mantienen constantes indefinidamente. (La distancia entre las caras de un bloque patrón puede verse alterada por: rayaduras, desgaste, suciedad, ligeras capas de oxidación superficial o, incluso, por lentas variaciones de la estructura cristalográfica del material que compone el bloque). En consecuencia, al igual que todo instrumento de medición, las medidas materializadas deben calibrarse periódicamente.
  • 34. 34 La función de un patrón es proveer un valor verdadero convencional que permite determinar, por calibración, los valores verdaderos convencionales de otros patrones. Para cada magnitud se establece así una “cadena metrológica” cuyos enlaces son, precisamente, las correspondientes calibraciones. La cadena comienza en la definición de la unidad correspondiente. En el extremo opuesto, o nivel terminal, están aquellos instrumentos que no son utilizados para calibrar otros instrumentos. El acuerdo con la definición de la unidad y la expresión de su incertidumbre, establecen lo que en metrología se llama “trazabilidad”. Por lo tanto, la trazabilidad es la propiedad del valor de un patrón, o del resultado de una medición, por la cual ese valor o ese resultado puede relacionarse con referencias establecidas a través de una cadena ininterrumpida de comparaciones, todas ellas con incertidumbres conocidas. A la existencia de esta propiedad fundamental apuntan las normas relacionadas con la metrología. 5. BIBLIOGRAFÍA - STEEN, Lynn Arthur. La enseñanza agradable de las matemáticas. 4ta reimpresión. Editorial Limusa, México 2003. 241 pp - http://www.project2061.org/esp/publications/sfaa/online/chap9.htm - http://usuarios.iponet.es/ddt/incertidumbre.htm
  • 35. 35 ESCALAS MULTIPLES 1. Introducción. La gama de magnitudes en el universo tamaños, duraciones, velocidades, etc. es inmensa. Muchos de los descubrimientos de la ciencia física son prácticamente incomprensibles debido a que entrañan fenómenos en escalas lejanas a la experiencia humana. Es posible medir, por ejemplo, la velocidad de la luz, la distancia a las estrellas más cercanas, el número de estrellas en la galaxia y la edad del Sol; pero estas magnitudes son tan inmensas que se comprenden de manera intuitiva. En otra dirección, es posible determinar el tamaño de los átomos, sus vastos números básicos y la velocidad de las interacciones que ocurren entre ellos; pero estos extremos también rebasan la capacidad de comprensión intuitiva. Las percepciones limitadas y las capacidades de procesamiento de información simplemente no pueden manejar la gama completa. Sin embargo, es factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los grandes cambios en la escala se acompañan de manera típica por cambios en el tipo de fenómenos que ocurren. Por ejemplo, en una escala humana familiar, una pequeña bocanada de gas emitida por un satélite en órbita se disipa en el espacio; a escala astronómica, una nube de gas en el espacio con suficiente masa se condensa por las fuerzas gravitacionales mutuas en una esfera caliente que enciende la fusión nuclear y se convierte en una estrella. A escala humana, las sustancias y la energía son divisibles de manera interminable; a escala atómica, la materia no se puede dividir y permanece con su identidad, y la energía puede cambiar solamente mediante saltos discretos. La distancia alrededor de un árbol es mucho más grande para un insecto pequeño que para una ardilla, pues en la escala del tamaño del insecto habrá muchas colinas y valles que atravesar, en tanto que no será así para la ardilla Incluso en los reinos del espacio y el tiempo que son tan familiares, la escala desempeña un papel importante. Los edificios, los animales y las organizaciones sociales no pueden hacerse mucho más grandes o mucho más pequeños sin experimentar cambios fundamentales en su estructura o conducta. Por ejemplo, no es posible hacer un edificio de 40 pisos exactamente con el mismo diseño y materiales que se utilizan comúnmente para uno de cuatro pisos porque, entre otras cosas, se podría colapsar debido a su propio peso. A medida que aumentan de tamaño los objetos, su volumen se incrementa más rápido que su superficie. Por tanto, las propiedades que dependen del volumen, como la capacidad y el peso, cambian de proporción con las propiedades que dependen del área, como la fuerza de los soportes o la actividad de superficie. Por ejemplo, una sustancia se disuelve con mayor rapidez cuando está en forma de granulitos finos que cuando es un terrón en virtud de que es mayor la superficie en relación con el volumen. Un microorganismo puede intercambiar sustancias con su entorno directamente a través de su superficie, en tanto que un organismo de mayor tamaño requeriría de superficie especializada altamente ramificada (como en los pulmones, vasos sanguíneos y raíces). Las conexiones internas también presentan un fuerte efecto de escala. El número de posibles pares de cosas (por ejemplo, amistades o conexiones telefónicas) aumenta aproximadamente al cuadrado el número de cosas. Así, una comunidad diez veces más grande tendrá factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los sistemas de complejidad suficiente pueden mostrar características que no son predecibles a partir de las interacciones de sus componentes, aun cuando tales interacciones se comprendan bien. En dichas circunstancias, pueden requerirse principios que no hagan referencia directa a los mecanismos subyacentes, pero que no sean incompatibles con ellos. Por ejemplo, en geología se puede hablar del proceso de erosión por los glaciares sin hacer referencia a los aspectos físicos subyacentes de las fuerzas eléctricas y de la estructura cristaliforme de los minerales en las rocas; es posible pensar en el corazón en términos del volumen de la sangre que bombea, independientemente de cómo se comporten sus células;
  • 36. 36 es posible predecir la probable respuesta de alguien a un mensaje sin hacer referencia a la manera en que funcionan las células del cerebro; o bien, es posible analizar los efectos de los grupos de presión en política sin que se haga referencia necesariamente a nadie en particular. Tales fenómenos se pueden comprender en diversos niveles de complejidad, aun cuando la explicación completa de tales cosas se reduce con frecuencia a una escala alejada de la experiencia directa. El Método de las Escalas Múltiples El método de escalas múltiples (MEM) fue desarrollado en su versión moderna esencialmente a partir los años cincuentas y hasta los setentas del siglo XX. Este método está, sin embargo, basada en las ideas de Poincaré y utiliza frecuencias (en el caso de la rutina original de Poincaré) o amplitudes desconocidas para evitar la aparición de resonancias. La versión moderna de este método usa en lugar de las variables originales un conjunto de variables escaladas. En el caso de oscilaciones no lineales (estas representan una de las aplicaciones más importante del MEM) se escala el tiempo t y usan las variables T1 = t; T2 = εt; T3 = ε2 t , . . . donde ε es un pequeño parámetro de la aproximación (e. g. la proporción de dos escalas temporales muy diferentes entre sí). Se denomina a T1 la variable rápida y se llama a las otras variables T2 , T3 ,. . . coordenadas lentas. El cálculo de las derivadas temporales originales d=dt, d2 =dt 2 ,. . . conduce por esto a derivadas parciales respecto a T1, T2 ,. . . y la EDO original es convertida en una ecuación diferencial parcial (EDP). Un desarrollo de la solución en una serie asintótica resulta entonces en una jerarquía de problemas. En el orden inferior se obtiene usualmente una EDO lineal (con derivadas respecto a T1 ) que es trivial. La solución de esta ecuación contiene, como constantes de la integración, funciones A1(T2 , T3 ,. . . ), A 2 (T2 , T3 ,. . . ) ,. . . Estas funciones, llamadas amplitudes lentas son desconocidas en el orden menor. Las ecuaciones en los órdenes más altos contienen como inhomogeneidades términos de los aproximaciones procedentes de órdenes inferiores. Esto produce la posibilidad de resonancias. Como en muchos casos se quieren evitar las resonancias entonces se pueden determinar las amplitudes lentas con la aplicación de condiciones de no resonancia. Las últimas se convierten en EDPs gobernadas por las amplitudes. Esto significa que aparentemente se ha elevado el nivel de complejidad del problema original: una EDO nolineal fue convertida en un conjunto de EDPs. Sin embargo, las condiciones de no resonancia son suficientemente simples para obtener las correspondientes soluciones por cuadraturas simples (Bender, Orszag). Hay un buen número de otros métodos de aproximaciones. Aquí mencionamos tan sólo la rutina de promedios y el método de coordenadas deformadas. Además de estos métodos, son también importantes otros dos métodos locales que son válidos cerca de los puntos fijos de las ecuaciones (vea la próxima sección). El método de variedades centrales sirve para reducir la dimensión del sistema, mientras que la rutina de formas normales trata de simplificar los términos de la ED y, en el caso óptimo, logra la linearización de las ecuaciones. Sin embargo, la meta última se encuentra obstaculizada por la aparición de resonancias que impiden la linearización de las ecuaciones (Wiggins, 1990). Fuerntes: http://www.project2061.org/esp/publications/sfaa/online/chap11.htm Meter Plaschko, Sistemas dinámicos, métodos de las matemáticas nolineales y de la física clásica, Departamento de Física UAM-I, México D .F.
  • 37. 37 La escala y su importancia en el análisis espacial D. García Departamento de Biología de Organismos y Sistemas (Ecología), Universidad de Oviedo, C/ Catedrático Rodrigo Uría s/n. E-33071, Oviedo. (danielgarcia@uniovi.es) 2. La escala espacial en Ecología El concepto de escala espacial en Ecología se define como la dimensión física de un objeto o proceso ecológico en el espacio (Turner et al., 2001). Hablamos de tasas de asimilación de CO en micromoles por metro cuadrado y segundo, de densidades de semillas en metros cuadrados, de dominios vitales de individuos en cientos de metros cuadrados, de coberturas paisajísticas en hectáreas y de cambios climáticos sobre kilómetros cuadrados. Todos somos conscientes de que distintos elementos ecológicos ocupan extensiones diferentes y que distintos procesos tienen distintos radios de acción. No obstante, el hecho de que tanto la forma de los patrones como el funcionamiento de los procesos ecológicos dependen de la escala ha atraído cada vez más el interés de los ecólogos en los últimos 25 años (Schneider, 2001). Esta mayor atención al “problema de la escala” obedece a que un mismo proceso ecológico puede generar patrones diferentes a distintas escalas espaciales, al estar regulado por mecanismos distintos en cada escala (Wiens, 1989; Levin, 1992). Por ejemplo, las diferencias en mineralización del mantillo en una extensión de unos cuantos metros cuadrados estarán básicamente determinadas por el tipo de dosel (caducifolio vs. perenne) que crece sobre dicha extensión, mientras que sobre una extensión de cientos de miles de kilómetros cuadrados dependerán probablemente de las variaciones climáticas regionales. La determinación de la escala-dependencia de patrones y mecanismos se convierte, por tanto, en una cuestión esencial a la hora de explicar la relación entre los organismos y el ambiente, extrapolar el conocimiento ecológico y establecer medidas de gestión de recursos naturales ante una actividad humana capaz de modificar desde los ecosistemas locales hasta el planeta entero. En este artículo revisaré el concepto de escala y su relación con el análisis espacial en Ecología. Tras definir escala en términos analíticos, evaluaré su importancia a la hora de i) determinar el peso del espacio en la variación de los patrones y procesos ecológicos, y ii) inferir mecanismos ecológicos a través de relaciones entre respuestas de los organismos y condiciones ambientales. Finalmente, presentaré el Análisis de Coordenadas Principales de Matrices de Vecinos como un método de análisis espacialmente explícito que permite desglosar la variación de parámetros ecológicos en distintas escalas y correlacionar posteriormente dicha variación a las distintas escalas con una potencia estadística similar. 3. La escala y el análisis espacial La ecología espacial trata de explicar los procesos ecológicos teniendo en cuenta la distribución espacial de sus elementos (Turner et al., 2001; Fortin y Dale, 2005). En cierto modo, intenta evaluar la respuesta de los organismos frente a condiciones y recursos ambientales que son heterogéneos en el espacio, condicionando en gran medida el funcionamiento de los organismos a dicha heterogeneidad espacial. Sin embargo, factores ambientales que resultan altamente heterogéneos a pequeña escala pueden aparecer como homogéneos a escalas superiores. Imaginemos, por ejemplo, cualquier sierra mediterránea compuesta por una serie de colinas de similar altitud: la humedad edáfica es muy diferente entre las dos laderas de una misma colina, solana y umbría, pero es probable que apenas encontremos diferencias cuando comparamos los valores promedio de humedad entre dos colinas sucesivas. Por tanto, el concepto de escala subyace a cualquier cometido en ecología espacial, por el simple hecho de que la mayor parte de la variabilidad ecológica es dependiente de la escala espacial. Para evaluar la importancia de la escala en el análisis espacial de datos ecológicos
  • 38. 38 necesitamos descomponer el concepto de escala en tres dimensiones (Dungan et al., 2002): ecológica, de muestreo y analítica. La escala ecológica expresa, como expuse anteriormente, la dimensión real de los fenómenos ecológicos. Los ecólogos inferimos esta escala a través del muestreo y el análisis. La escala de muestreo hace referencia a la extensión del área de observación y a las características espaciales de las unidades de muestreo, por ejemplo, el área de un cuadrado de muestreo para contar plantas herbáceas en un prado, o la disposición de esos cuadrados en una retícula mayor. La escala analítica refleja las características espaciales de las unidades de muestreo en términos de análisis, por ejemplo, cómo se distribuye la varianza a lo largo de esas unidades de muestreo. Tanto la escala de muestreo como la analítica pueden definirse en términos de grano, la unidad mínima de resolución espacial que utilizamos en un estudio, extensión, la dimensión espacial máxima cubierta por el muestreo, y espaciamiento, la dimensión de la separación espacial entre unas unidades y otras. Nuestra capacidad de inferencia depende en gran medida de cómo las escalas de muestreo y análisis se ajustan a la escala real del fenómeno ecológico. En este sentido, nuestra extensión de muestreo deberá ser lo suficientemente amplia como para albergar la máxima variabilidad del fenómeno ecológico que estudiamos, ya que una extensión reducida en relación a la escala real del fenómeno nos mostrará sólo una pequeña parte de la variación (Fig. 1). Figura 1. Representación de los valores que toma un parámetro a lo largo de una extensión espacial. Una extensión de muestreo pequeña (bloque verde) recoge un escaso rango de variabilidad del parámetro, mientras que una extensión de muestreo amplia (bloque rojo) cubre todo el rango de valores de magnitud del parámetro, representando de forma fiable los agregados espaciales reales del parámetro a estudiar. Por otra parte, el tamaño de grano habrá de ser lo suficientemente reducido como para que las variaciones de un fenómeno a escala fina no pasen desapercibidas en un muestreo con unidades de mayor tamaño (Fig. 2). Sin embargo, la unidad de muestreo tiene que ser siempre mayor que el objeto ecológico unitario y suficientemente grande como para incorporar varios objetos, de forma que podamos evaluar las diferencias entre unidades en términos de varianza (Fig. 3).
  • 39. 39 Figura 2. Representación de los valores que toma un parámetro a lo largo de una extensión espacial, mostrando agregados sucesivos de dicho parámetro. Un muestreo con unidades de tamaño de grano amplio (A) sería insensible a la variabilidad real del parámetro, y no mostraría diferencias en los valores promedio del parámetro entre unidades (rojas vs. blancas), mientras que un muestreo de grano fino (B) mostraría fuertes diferencias entre las distintas unidades de muestreo (verdes vs. blancas). Figura 3. Esquema de la fiabilidad de unidades de muestreo de distinto tamaño de grano (1<2<3) para representar la variación espacial en la abundancia de un objeto ecológico (rojo). La unidad ha de ser suficientemente amplia (3) como para representar la variación en la abundancia del objeto a lo largo de la extensión de muestreo.
  • 40. 40 4. El reparto de variación entre escalas La principal preocupación analítica de los ecólogos en relación a la escala es el reparto de variación de los fenómenos ecológicos a lo largo de las escalas espaciales. Estudiar la variación espacial de un fenómeno es, en cierto modo, detectar si éste se distribuye de forma aleatoria, de forma regular (sobredispersión), o bien formado agregados, con patrones de contagio y repulsión (infradispersión). Para evaluar el radio de acción de los procesos ecológicos nos interesa, en primer lugar, determinar la agregabilidad (patchiness) de los objetos ecológicos a distintas escalas espaciales y, en segundo lugar, tratar de relacionar esa agregabilidad con gradientes ambientales, bióticos o abióticos, establecidos por el observador y que, desde la perspectiva de la ecología espacial, están muy condicionados por la extensión y distribución espacial de las observaciones. En este último sentido, a la hora de estructurar gradientes ambientales espaciales podemos considerar el espacio de forma explícita, estableciendo unidades de muestreo y análisis definidas exclusivamente por características espaciales como posición, extensión y distancia. Por ejemplo, imaginemos que evaluamos la respuesta a la salinidad edáfica a lo largo de un transecto lineal de 100 m, dividido en unidades de muestreo de 10 m, y que se aleja progresivamente de una laguna salina endorreica. Por otra parte, podemos considerar unidades espaciales “naturales” que representan niveles de heterogeneidad estructural biológica y que suponen una variación implícita en las características espaciales. Por ejemplo, cuando consideramos distintos microhábitats incluidos dentro de distintos hábitats, tanto microhábitat como hábitat suponen gradientes ambientales a distintas escalas espaciales y, por lo tanto, su significado analítico nos ofrecerá información acerca de procesos que ocurren a distintas escalas. Independientemente de cómo estructuremos los gradientes espaciales, nuestro interés será dilucidar cómo se reparte la variación de un determinado fenómeno a lo largo de distintas escalas (Fig. 4). Figura 4. Representación de tres escenarios de variación de un parámetro ecológico a lo largo de una extensión espacial. La variación puede acumularse exclusivamente a gran escala, y quedar bien representada por niveles de heterogeneidad estructural amplios como “hábitat” o unidades espaciales explícitas de muestreo de gran dimensión (A), acumularse a escala fina, siendo mejor representada por “microhábitats” o unidades espaciales explícitas más pequeñas (B) o repartirse proporcionalmente entre distintos niveles de heterogeneidad o unidades explícitas, con agregados a escala amplia que incluyen en su interior agregados a escala fina (C).
  • 41. 41 La estadística espacial ofrece herramientas diversas para evaluar el grado de agregabilidad y el reparto de variabilidad de una variable ecológica a distintas escalas en marcos espacialmente explícitos (Fortin y Dale, 2005). En general, se trata de métodos que descomponen la variabilidad de un parámetro, definiendo las escalas de análisis en función de distancias entre puntos que abarcan distintas dimensiones, como ocurre en los correlogramas de I de Moran y los variogramas (Legendre y Legendre, 1998), o bien en función de distintos radios de acción donde establecer distancias a vecinos más próximos, como en el índice K de Ripley (Fortin y Dale, 2005). En cierto modo, indican la estructura espacial de una variable en función de una determinada escala. Por ejemplo, un correlograma nos indica el grado de agregabilidad en función de las distancias a las cuales se detecta autocorrelación espacial positiva (contagio) o negativa (repulsión), definiendo el tamaño y la escala de influencia de los “rodales” en los que se estructura nuestra variable de interés (Fig. 5). Figura 5. A) Representación de la proporción de semillas de acebo Ilex aquifolium depredadas por roedores (Apodemus spp.) a lo largo de un transecto del 2.500 m a través de una zona de bosques secundarios y pastos de montaña en la Sierra de Peña Mayor-Trigueiro (cordillera Cantábrica, Asturias, N España; foto sup. izda.). El transecto se subdividió en 100 unidades contiguas de 25 m. En enero de 2005, en cada unidad se distribuyeron homogéneamente soportes de malla plástica con semillas pegadas (foto sup. dcha.). Estos soportes fueron revisados a los 20 días, contándose el número de semillas depredadas y estimándose el promedio de tasa de depredación por unidad de transecto. B) Correlograma de I de Moran representando la estructura espacial de la tasa de depredación de semillas