SlideShare une entreprise Scribd logo
1  sur  187
ESCUELA SUPERIOR POLITECNICA
           DEL LITORAL

INGENIERIA EN LOGISTICA Y TRANSPORTE


 CURSO: INVESTIGACION DE OPERACIONES II



          I TERMINO 2008-2009

                                          1
1. Introducción: La logística y la estadística
    ¿Qué es la Investigación de Operaciones (IO)?
    La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma
    de decisiones.
                           Sentido                                      Modelo
                           común                                       matemátic
                                                                           o
            Intuición                    Vs.       Metodología formal

    Estos métodos analíticos incluyen:

   Optimización: encontrar la mejor decisión posible de entre un conjunto de
    alternativas.
                               INVESTIGACION DE OPERACIONES I (LP, MIP)

   Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que
    ahorra tiempo y costos.
                                          INVESTIGACION DE OPERACIONES II


   Probabilidad y estadística: ayuda a resumir / analizar información, medir
    riesgos, realizar predicciones, etc.                                               2
1. Introducción: La logística y la estadística

    DEFINICIONES, USOS:

   La Estadística, es la rama de las matemáticas que se ocupa de reunir,
    organizar y analizar datos numéricos y que ayuda a resolver problemas como
    la toma de decisiones.

   Nos permite obtener información referida a grandes grupos de individuos
    conociendo los datos de sólo unos pocos.

   Permite describir con exactitud los valores de datos económicos, políticos,
    sociales, psicológicos, biológicos y físicos, y sirve como herramienta para
    relacionar y analizar dichos datos.

   La Estadística responde a las necesidades del desarrollo científico y
    tecnológico de la sociedad
                                                                             3
1. Introducción: La logística y la estadística

    APLICACIONES:

   Las técnicas de Investigación de Mercados permiten saber si un producto
    cualquiera será bien acogido en el mercado antes de su salida a este, o bien
    medir la audiencia en Televisión y Radio.

   El Control de Calidad permite medir las características de la calidad de un
    producto, compararlas con ciertos requisitos y tomar decisiones correctivas si
    hay diferencias entre el funcionamiento real y el esperado.

   Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo,
    etc.

   En técnicas de decisión, permite la construcción de los denominados Árboles
    de decisión, una técnica muy usada para tomar decisiones en ambientes de
    incertidumbre
                                                                                      4
1. Introducción: La logística y la estadística

               ESTADISTICA = MEDIDA DE LO DESCONOCIDO

   La estadística está asociada a la medición de la Incertidumbre

   En logística la incertidumbre está presente de muchas formas: en la demanda
    de los artículos que están en el inventario, en los tiempos de entrega de los
    pedidos, en los costos de adquisición de la materia prima, en el costo del
    dinero, en la eficiencia de los empleados.

   Generalmente ante la incertidumbre sobre el comportamiento futuro de una
    variable se deben aumentar las medidas de protección de aquello que pueda
    resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo
    en la gestión de inventarios, el responsable logístico deberá aumentar las
    existencias a medida que la demanda se hace mas imprevisible. En otras
    palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien
    investigada y medida.

                                                                                5
1. Introducción: La logística y la estadística
   Específicamente la Gestión de la Cadena de Suministro (SCM – Supply
    Chain Management) tiene como objetivo final la entrega de un producto a
    un cliente. Esto quiere decir, que la cadena de suministro incluye las
    actividades asociadas desde la obtención de materiales para la
    transformación del producto, hasta su colocación en el mercado.




   El flujo en la cadena no solo es de productos, también es de información.
    Y es en el tratamiento de la información en donde es importante la
    estadística (y los modelos estadísticos de toma de decisión)

                                                                                6
1. Introducción: La logística y la estadística
Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su
naturaleza en:
•Estadística descriptiva, y
•Estadística inferencial.
                                                              POBLACION
                                                                Todos los elementos
                                                                 objetos de estudio

Estadística descriptiva         PARAMETROS

                                                                   MUESTRA
                                                                    Subconjunto de la
Estadística descriptiva                                                población



Estadística inferencial
                                 ESTIMADORES
                                                                                   7
2. Descripción de datos: Escalas de medida
   El primer paso para poder hacer cualquier análisis estadístico es
    la obtención de la data. El proceso estadístico por medio del
    cual se toma datos de una población se denomina muestreo, el
    conjunto de datos obtenido se denomina muestra.

   La data está conformada por las mediciones de características de
    los elementos de la población, dichas características se
    denominan variables.

   Las variables difieren en "qué tan bien" se pueden medir,
    ¿cuánta información medible puede proporcionar su escala de
    medida?

   Específicamente las variables son clasificadas como:
    (a) nominales, (b) ordinales, (c) de escala
                                                                    8
2. Descripción de datos: Escalas de medida

    (a) Nominal: se utilizan nombres para establecer categorías

   Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de
    inventario, etc.




                                                                          9
2. Descripción de datos: Escalas de medida

    (b) Ordinales: nos permiten ordenar los artículos que medimos en términos
    del que tiene menos y el que tiene más de la calidad representada por la
    variable


   Ejemplos: nivel socio-económico, rango, etc.




                                                                            10
2. Descripción de datos: Escalas de medida

    (c) De escala: no sólo nos permiten ordenar los artículos que son
    medidos, sino también cuantificar y comparar los tamaños de diferencias
    entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten
    las declaraciones como las de que “x es dos veces más de y”.

   Ejemplos: temperatura, peso, estatura, ventas, etc.




                                                                                 11
2. Descripción de datos: Escalas de medida

    Complejidad: la complejidad aumenta con cada una de las escalas de
     medición, desde la simpleza de la escala nominal hasta el refinamiento
     de la escala de razón. El tipo de técnicas estadísticas que se puede
     emplear en cada escala de medida es diferente (por ejemplo en pruebas
     de hipótesis)


                         Escala
                                                           Pruebas
                         Ordinal                         Paramétricas


                         Nominal
                                                             Pruebas
                                                         No paramétricas

                                                                              12
2. Descripción de datos: base de datos


Creación de la base de datos electrónica
   El software estadístico especializado (SPSS, SAS, S-PLUS, R,
    MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo
    de datos a analizar. Este ordenamiento está referido a filas y a
    columnas

   Cuando hablamos de casos nos referimos a c/u de los registros
    obtenidos al investigar, muestrear, entrevistar, etc.

   Con variables indicamos a las características que pueden tener estos
    datos



                                                                           13
2. Descripción de datos: base de datos


      CASOS: si se usa una hoja electrónica generalmente se los
      ubica en filas




                                                                  14
2. Descripción de datos: base de datos


                  VARIABLES: en columnas




                                           15
2. Descripción de datos: base de datos

    PROCESAMIENTO EN SPSS:

   El editor de datos tiene dos vistas diferentes: vista de datos y vista de
    variables. La primera tiene una estructura similar a la de una hoja de
    cálculo (Excel), y se usa para introducir los datos que se quieren
    analizar. El SPSS maneja los datos en términos de variables, cada una de
    las cuales corresponde a una columna de la pantalla. Esto quiere decir
    que si queremos introducir unos datos, cada variable debe ir en una
    columna.

   Al introducir los datos en el visor de datos, podemos pensar en que
    estamos rellenando una “encuesta”: cada línea horizontal de la
    cuadrícula sería un “encuestado" (caso), al que le corresponde un valor
    de cada una de las variables que intervienen en el problema (columnas).

                                                                                16
2. Descripción de datos: base de datos

   Entreviste a la totalidad de sus compañeros de clase y para cada una de
    las variables que se presentan a continuación construya la boleta de
    encuesta, defina las escalas de medición de cada una de ellas, y la base
    de datos electrónica.

Variables a medir.
 Género del entrevistado
 Edad
 Ingresos mensuales Promedio
 Estado civil
 Posee vehículo
 Periódico preferido para leer noticias




                                                                               17
2. Descripción de datos: medidas


Medidas numéricas:

   De tendencia central: Permiten describir la región “media” hacia adonde se
    agrupan los datos
    Probablemente la estadística descriptiva mas usada es la media. La media es
    una medida muy informativa de la tendencia “central” de la variable si se
    reporta con sus intervalos de confianza. Otras son: la moda, la mediana.

   De dispersión: Son una medida de que tan dispersos están los datos (que tan
    lejanos están entre ellos).
    Las mas usadas son: desviación típica, varianza, coeficiente de
    variación, rango.



                                                                             18
2. Descripción de datos: medidas

   Media: ( o X ) mas usada

   Desviación típica: ( o S ) depende de la magnitud de la variable, no
    puede tener la misma medida de incertidumbre la venta de un producto
    cuya media sea de 10 unidades mensuales que otro cuya venta media sea
    de 10.000

   Coeficiente de variación: / , Que tan predecible es una variable en el
    futuro. Ver el ejemplo siguiente (demanda en la cadena de
    abastecimiento).




                                                                             19
2. Descripción de datos: medidas
    ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento

   Se tienen los siguientes datos referidos a la venta mensual que hace un
    minorista de dos productos A, B en un año:
p erío d o        1       2       3       4       5       6       7   8   9   10   11   12 m ed ia d es. T íp C V
v en ta A       0   0 15 25 12 11       4   8   6   0 10 16                                    8.9      7.59 85.10%
v en ta B    1100 900 340 650 260 800 730 100 540 780 300 490                                582.5     296.5 50.50%


   Podría suponerse que la incertidumbre es menor para el producto A (si se
    observa la desviación típica). Sin embargo en el producto A la
    variabilidad representa el 85.1% sobre la media, mientras que en B es el
    50.9%, por lo que en realidad la venta del producto A tiene mayor
    incertidumbre que la de B

   Si agregamos la venta de los dos productos:
p erío d o            1       2       3       4       5       6   7   8   9   10   11   12 m ed ia d es. T íp C V
v en ta A           0   0 15 25 12 11       4   8   6   0 10 16                               8.9      7.59 85.10%
v en ta B        1100 900 340 650 260 800 730 100 540 780 300 490                           582.5     296.5 50.50%
v en ta to tal   1100 900 355 675 272 811 734 108 546 780 310 506                                             49.60%
                                                                                                                    20
2. Descripción de datos: medidas

ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento

Algunas concusiones que se pueden observar de este caso simple:

   El coeficiente de variación es mas sensible para detectar la variabilidad de
    una serie de datos

   Cuánto menor es la venta de un producto, suele ser mayor su
    incertidumbre ( y por tanto proporcionalmente requerirán más inventario)

   Cuando se agregan datos, la incertidumbre del total agregado disminuye
    (por tanto es mas fácil pronosticar sobre la demanda de grupos de
    productos)



                                                                                   21
2. Descripción de datos: gráficas

 DESCRIPCION GRAFICA

    ¡ Una imagen vale más que mil palabras !

    Un aspecto importante de la "descripción" de una variable es la forma
     de su distribución, que le dice la frecuencia de valores de rangos
     diferentes de la variable. Típicamente, un investigador está interesado
     en qué la distribución pueda aproximarse bien por la distribución
     normal

    HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de
     frecuencia de la(s) variable(s) seleccionada(s)

    Otros gráficos
                                                                               22
2. Descripción de datos: gráficas

                                                                  H isto g ra m (In d ice s 8 v*2 0 c)
                                                    N A S D A Q = 2 0 *0 ,1 3 9 1 *n o rm a l(x; -0 ,0 3 7 8 ; 0 ,2 7 5 8 )
               6




               5




               4
   No of obs




               3




               2




               1




               0
                   -0 ,4 5 7 1 4 9 7 6 7 9           -0 ,1 7 8 9 5 7 5 4 8 8            0 ,0 9 9 2 3 4 6 7 0 4            0 ,3 7 7 4 2 6 8 8 9 5
                                    -0 ,3 1 8 0 5 3 6 5 8 3           -0 ,0 3 9 8 6 1 4 3 9 2            0 ,2 3 8 3 3 0 7 7 9 9            0 ,5 1 6 5 2 2 9 9 9 1

                                                                                  NA S DA Q                                                                         B iv ariate H is togram (S ports .s ta 14v *100c )




                                                                                                                                                                                                                         23
2. Descripción de datos: gráficas

     ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
     (... continuación)


     • Se pide analizar la siguiente tabla y entender el concepto de “efecto
     látigo), para ello leer el documento EFECTO LATIGO. DOC
     • Los datos son los siguientes:
                                                                                          D E M AN D A E N U N ID AD E S P O R S E M AN A
                                         Sem . 1 Sem . 2 Sem . 3 Sem . 4 Sem . 5                         Sem . 6 Sem . 7 Sem . 8 Sem . 9 Sem . 10 Sem . 11
  D e m a n d a m e rc a d o             0            22          15          10          13             17          19           10     15   12   8
  S to c k e n m in o ris ta             0
  P e d id o s d e l m in o ris ta
  S to c k e n M a yo ris ta             0
  P e d id o s d e l m a yo ris ta


  P u n to d e re p o s ic ió n p a ra e l m in o ris ta = 2 0 u n id a d e s . C a n tid a d d e p e d id o = 5 0 u n id a d e s .
  P u n to d e re p o s ic ió n p a ra e l m a y o ris ta = 3 0 u n id a d e s . C a n tid a d d e p e d id o = 1 0 0 u n id a d e s .
  T ie m p o s d e s u m in is tro p a ra e l m a y o ris ta y e l m in o ris ta (L e a d tim e ) = 1 s e m a n a




                                                                                                                                                         24
3. Control de Inventarios

   VER DESARROLLO EN CLASE.




                               25
4. Bayes, Odds y Razón de verosimilitud

   Experimento aleatorio: Un experimento en el cual el resultado es incierto,
    pero se conoce el conjunto de posibles resultados del mismo (denominado
    espacio muestral, )

   Evento: cualquier subconjunto del espacio muestral. Y se denomina evento
    elemental a cualquier evento formado por un solo elemento.

   Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la
    frecuencia con la que un evento A ocurre es el número de veces que el
    experimento aleatorio resulta en A.

   La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el
    número total de repeticiones.


                                                                                 26
4. Bayes, Odds y Razón de verosimilitud

  Probabilidad Condicional e independencia:
  PROBABILIDAD
  CONDICIONAL:                                     P A B
                                       P A/B                  ;
  Def: Dados dos eventos A, B se                    P B
  define la probabilidad condicional   P B     0
  de A dado B como:


  INDEPENDENCIA:
  Def: Dados dos eventos A, B se       P A/B       P A , y,
  dice que los dos eventos son         P B/A       P B
  independientes si
                                                                  27
4. Bayes, Odds y Razón de verosimilitud
¿La evaluación de la prob. de A cambia si tenemos
 conocimiento de la ocurrencia de B?

Def: Los eventos A, B se dicen independientes si:
                           P(A/B)=P(A)
                           P(B/A)=P(B)

Obs: (1) A y B son independientes ssi:
                        P(A B)=P(A)P(B)
   (2) A1, A2, …, An son independientes si para cualquier
 subconjunto de eventos A(1), A(2), …, A(k):

                           k         k

                       P   A    i
                                           P Ai
                           i 1       i 1                    28
4. Bayes, Odds y Razón de verosimilitud
  Regla de Bayes:
  PARTICIONES:
  Def: Dado un e.m. se dice que los eventos B1, B2, …, Bk
  forman una partición si:
             1. B1 B2 … Bk=
             2. Bi Bj = ; i j
  PROBABILIDAD TOTAL:
    P A    P A / B1 P B1   P A / B2 P B2     ...   P A / Bk P Bk


  TEOREMA DE BAYES:
                            P A/ Bj P Bj
                P Bj / A    k

                                 P A / Bi P Bi
                           i 1                                     29
4. Bayes, Odds y Razón de verosimilitud
   TEOREMA DE BAYES:


    Prob. posterior                                   Verosimilitudes

                                      P A Bi P Bi
                      P Bi A      n

                                        P A Bj P Bj
                                  j 1
       Predictor
      o evidencia                                         Prob. A priori


    P(A)=verosimilitud marginal



                                                                           30
4. Bayes, Odds y Razón de verosimilitud
   TEOREMA DE BAYES:
   Proporciona una regla matemática que explica cómo uno debe cambiar sus
   creencias teniendo en cuenta nueva evidencia. Es decir permite que los
   investigadores combinen nuevos datos con su conocimiento o experiencia
   existente. Un ejemplo didáctico es imaginarse que un recién nacido
   observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra
   vez o no. Lo natural será que asigne probabilidades a priori iguales a
   ambos resultados posibles, lo cual representa colocando un bloque blanco
   y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño
   coloca otro bloque blanco en el bolso. La probabilidad que un bloque
   extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia
   del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a
   2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque
   blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a
   3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan
   probable de que el sol salga o no salga cada mañana se modifica para
   convertirse en una casi-certeza de que el sol siempre se levantará.
                                                                               31
4. Bayes, Odds y Razón de verosimilitud

 Ejemplo:

 Una chica generalmente prefiere usar pantalón para ir a la Universidad, y
 falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se
 puede asegurar que:

          P(pantalón/va a la U)=0.8
          P(falda/va a una fiesta)=0.9

 Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una
 fiesta con probabilidad 1–p), el valor de p podría ser asignado
 subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a
 la frecuencia con la que va a la universidad los viernes (asignación
 frecuentista de la probabilidad)


                                                                              32
4. Bayes, Odds y Razón de verosimilitud
Ejemplo:
Predictor (evidencia):
          (1): Falda
          (2): Pantalón

                   P(va a la U)=p
Prob. a priori:
                   P(va a F) = 1-p

Prob. Posterior:                                         0.8 p
                   p*     P V a a la U pantalón
                                                      0.7 p   0.1

                   P(va a F/pantalón) = 1-P(va a la U/pantalón)

                   P(va a la U/falda)=1- P(va a F/falda)
                                             0.9(1     p)
                   p **    P V a a F falda
                                             0.9     0.7 p


                                                                    33
4. Bayes, Odds y Razón de verosimilitud

Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que
a una fiesta:
         p=0.5

         p      P V a a la U pantalón    0.88

La evidencia va a aumentar nuestra creencia de que va a la Universidad

         p **    P V a a Fiesta falda   0.82

O sea que es menos probable que la chica use pantalón si va a la U que use falda
si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U
dado que sale con pantalón que vaya a una fiesta si es que sale con falda
(0.88>0.82).

                                    ¿Paradoja?:
                                                                                34
4. Bayes, Odds y Razón de verosimilitud

La relación entre las probabilidades a posteriori p* y p** en función de la
probabilidad a priori p se observa en el siguiente gráfico.


                               En negro   p  , en rojo   p 
                    1


                 0.8


                 0.6


                 0.4


                 0.2


                                                                        p
                             0.2      0.4       0.6         0.8     1

                                                                              35
4. Bayes, Odds y Razón de verosimilitud
                                       ¿Paradoja?:

No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos)

Para esto se definen los odds (que tan probable es un evento frente a otro):

                                                      Razón de verosimiltud: L.R

                           P Bi A         P A Bi       P Bi
                          P Bj A          P A Bj      P Bj

    Odds Posterior                                              Odds Apriori

   Obs: si A es independiente con Bi y Bj : LR=1

   La información de LR es que es una medida de la información contenida
   exclusivamente en los datos, generalmente se aplica cuando Bi y Bj son
   complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y                        36
   DAÑADA, ETC.
4. Bayes, Odds y Razón de verosimilitud
Odds: (razón??): Indicador de cuánto mas probable es la ocurrencia
de un evento frente a otro
En el ejemplo:
           P U P antalón       P U   P P antalón U            P U
                                                         8
            P F P antalón      P F    P P antalón F           P F


            P F Falda       P F   P Falda F             P F
                                                  4.5
           P U Falda        P U   P Falda U             P U


         Es decir el predictor Pantalón es más verosímil que falda !!

Por ejemplo con p=1/2:
Con pantalón es 8 veces más probable acertar con la predicción que va a la
Universidad,
Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta
                                                                                37
4. Bayes, Odds y Razón de verosimilitud
Ejemplo:

Supongamos que la incidencia de una cierta enfermedad en una población es
de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de
falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5%
de las pruebas de personas no enfermas indicarán la presencia de la
enfermedad, mientras que el 1% de las pruebas en gente enferma no
detectarán la presencia de la enfermedad.

a) Si una persona se hace la prueba, y el test da positivo, cuál es la
probabilidad de que realmente esté enferma?

b) Si una persona se hace la prueba, y el test da negativo, cuál es la
probabilidad de que realmente esté sana?




                                                                                  38
4. Bayes, Odds y Razón de verosimilitud
En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo
  en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de
  las enfermedades posibles padece?

    Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que
    tuvo fiebre.

   El conocimiento no es determinista, las relaciones entre enfermedad y síntomas
    no son exactas.

Estas mismas características se pueden observar en otras aplicaciones:

 Control de Calidad
 Confiabilidad
 Sistemas expertos

                                                                                     39
4. Bayes, Odds y Razón de verosimilitud
  Modelos Bayesianos (un ejemplo)
  Se considera el envío de N artículos manufacturados de un lote de
  producción. Un número desconocido N de estos son defectuosos. Es
  muy costoso examinar todos los artículos, por lo cual para obtener
  información sobre la calidad del lote, se obtiene una muestra de n
  objetos sin reemplazo para ser inspeccionados. El dato observado es el
  número de artículos defectuosos en la muestra.

    Es la proporción de defectuosos en la muestra
  N es el parámetro (desconocido), y en principio puede tomar cualquier
   valor de 0 a N, así, aunque el e.m. esté completamente definido no se
   puede especificar la estructura de probabilidad completamente, sin
   embargo se puede determinar una familia {H(N , N, n)} de
   distribuciones de probabilidad para la variable aleatoria:
                   X= Número de defectuosos en la muestra


                                                                           40
4. Bayes, Odds y Razón de verosimilitud
 Modelos Bayesianos (un ejemplo)
 X= Número de defectuosos en la muestra
                                N     N       N
                                 k        n   k
                   P X    k
                                      N
                                      n

  En esta discusión: N es el parámetro,
  Posibles valores de : {0, 1/N, 2/N,…, 1}
  Aquí asumimos que no hay más información disponible acerca del
  verdadero valor del parámetro que la proporcionada por los datos. Sin
  embargo hay situaciones en las cuales se puede agregar algo mas: vg es
  posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los
  clientes nos proveen de registros precisos sobre el número de defectuosos
  que han recibido, podemos construir una distribución de frecuencias para la
  proporción de defectuosos pasados. Así se puede pensar en el valor de
  como en la realización de una v.a.                                         41
5. Variables Aleatorias

Def.- Dado un e.m.    , se denomina variable aleatoria (v.a.) a cualquier
función:
                         X :            IR
Las v.a. tienden a hacer “olvidar” el e.m.

DISTRIBUCIONES DE PROBABILIDAD:
Def.- Dada la v.a. X, se denomina función de distribución a la función:



        F x        P X       x     P    w        X w         x



                                                                            42
5. Variables Aleatorias

VARIABLES ALEATORIAS DISCRETAS:
Una v.a. es discreta si su rango es un conjunto finito o infinito numerable.

Provienen de   procesos de “contar”



VARIABLES ALEATORIAS CONTINUAS:
Una v.a. es contínua si F(x) es una función contínua

Provienen de   procesos de “medir”




                                                                               43
5. Variables Aleatorias

Función de probabilidad p(x):
VARIABLES ALEATORIAS DISCRETAS:
                          p(x)=P(X=x)
Función de densidad f(x):
VARIABLES ALEATORIAS CONTINUAS:
                                       b

                    P a    X   b           f x dx
                                       a


            f (x)
                                                P(a X b)




                                   a        b              44
5. Variables Aleatorias

 VARIABLES ALEATORIAS DISCRETAS:


                         p x         0
                               p x         1
                      todo x




 VARIABLES ALEATORIAS CONTINUAS:

                           f    x      0

                           f    x dx           1

                                                   45
5. Variables Aleatorias
Esperanza de una V.A. X:

               C aso discreto: E X                  x p x
                                           todo x


               C aso contínuo: E X          x f      x dx



Esperanza de una función g de la V.A. X:

              C aso discreto: E g X                      g x p x
                                                todo x



               C aso contínuo: E g X                 g x    f   x dx


                                                                       46
6. Distribuciones
  Distribuciones discretas más importantes
Experimento binomial:

    Muchas variables aleatorias discretas están basadas en un experimento
    (denominado experimento binomial) que satisface las siguientes
    condiciones:

   El experimento consiste en una secuencia de n intentos, donde n se fija
    antes del experimento.
   Los intentos son idénticos, y cada uno de ellos puede resultar en dos
    posibles resultados, que se denotan por éxito (E) o fracaso (F)
    (p(E)+p(F)=1).
   Los intentos son independientes, por lo que el resultado de cualquier
    intento en particular no influye sobre el resultado de otro intento.
   La probabilidad de éxito es constante de un intento a otro, y se
    representa por p.
                                                                              47
6. Distribuciones
  Distribuciones discretas más importantes
Bernoulli:
          0   si resu lta fracaso             p 0           1    p    E X      p
    X
         1     si resu lta éx ito             p 1           p         V ar X       p 1   p

Ejemplo típico: lanzamiento de una moneda

Binomial: Deben cumplirse las características de un experimento
           binomial

              X     # d e éx ito s en n in ten to s
                         n        x           n x
              p x             p       1   p         ;   x       0,1, ..., n
                         x
              E X        np

              V ar X         np 1         p
                                                                                             48
6. Distribuciones
  Distribuciones discretas más importantes
Ejemplo: Expresar en una tabla de valores la función de
        probabilidad y la función de distribución acumulada de la
        variable aleatoria X: Número de preguntas bien
        contestadas por un estudiante que responde al azar un
        examen tipo selección múltiple que consiste de 10
        preguntas, cada una con 4 alternativas de las cuales sólo
        una es correcta.

Ejemplo: Expresar en una tabla de valores la función de
        probabilidad y la función de distribución acumulada de la
        variable aleatoria X: Número de mujeres seleccionadas al
        seleccionar aleatoriamente 8 personas de un grupo de 500
        personas de las cuales 280 son mujeres.

En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso)
                                                                    49
6. Distribuciones
  Distribuciones discretas más importantes

Selección de objetos con reemplazo y la distribución binomial:

Elegir al azar con reemplazo significa que escogemos al azar un
elemento de un conjunto y lo regresamos para elegir de nuevo al
azar. Esto garantiza la independencia de las elecciones y nos
lleva a una distribución binomial.
Si una caja contiene N bolas de las cuales A son rojas, entonces
la probabilidad de escoger al azar una bola roja es: p = A/N.
Si repetimos el experimento sacando n bolas con reemplazo la
probabilidad de que x de ellas sean rojas es:
                        x           n x
               n    A           A
      P ( x)                1               (x   0 ,1,.... n )
               x    N           N                                  50
6. Distribuciones
  Distribuciones discretas más importantes

 Ejemplo: (Chuck–a-luck) En este juego se elige un número
          entre 1 y 6. Luego se lanza tres dados, si el número
          elegido sale en los 3 dados se cobra 3 dólares, si
          sale en 2 de los dados se cobra 2 dólares, y si sale en
          un dado se cobra un dólar. Si el número no sale en
          ninguno se paga 1 dólar

                   ¿ES UN JUEGO JUSTO?

 Sugerencia: Hallar la ganancia esperada del juego, si esta es
          positiva el juego es favorable al jugador, si sale
          negativa es desfavorable al jugador, si sale cero es
          indiferente.
                                                                    51
6. Distribuciones
  Distribuciones discretas más importantes
Geométrica:       X    # de intentos hasta obtener el primer éxito

                                                                               1
                                                                      E X
                                       x 1                                     p
          p x         p 1         p          ;     x   1, 2, ...
                                                                                   1           p
                                                                      V ar X               2
                                                                                       p

Binomial Negativa: X                  # d e in ten to s h asta o b ten er el r ésim o éx ito

                                                                                               r
              x   1       r                  x r
                                                                            E X
    p x               p       1        p           ;   x    r, r   1, ...                      p
              r   1
                                                                                                   r 1       p
                                                                            Var X                        2
                                                                                                     p


En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p)
                                                                                                                 52
6. Distribuciones
  Distribuciones discretas más importantes
Selección de objetos sin reemplazo y distribución hipergeométrica:


Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta
característica estudiada que los hace distintos del resto (es decir r objetos
de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan
al azar (sin reposición) n objetos (este es por ejemplo el caso de
muestreo).
Entonces la variable aleatoria X: número de objetos seleccionados que
tienen la característica estudiada, sigue una distribución hipergeométrica
con parámetros N, r, n.
                r   N    r
                x   n   x                                        nr
      p x                    ;   x   r,   n   x   N   r;   E X
                    N                                             N
                    n
                                                                           53
6. Distribuciones
  Distribuciones discretas más importantes

Selección de objetos sin reemplazo y distribución hipergeométrica:

En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al
    azar una muestra de 4 computadoras:

a.   Cuál es la probabilidad que exactamente 2 tengan fallas
b.   Cuál es la probabilidad que al menos una tenga falla
c.   Cuál es la probabilidad que a lo mucho 2 tengan fallas

En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N)


                                                                          54
6. Distribuciones
  Distribuciones discretas más importantes

Poisson: Una variable aleatoria X de Poisson “cuenta” el número de
eventos (independientes) que ocurren en una unidad de tiempo, de
espacio, de volumen, etc.
Por ejemplo: el número de llegadas de personas a la fila de un cajero
en un banco en una hora, el número de faltas de ortografía que comete
una mecanógrafa en una hoja, el número de accidentes de trabajo por
operario en un año determinado en una empresa, el número de
llamadas que llegan a una central telefónica por minuto.
Su distribución de probabilidades es:


                      x
                                                    E X
            p x           e   ;   x   0,1, 2, ...
                     x!                             V ar X

                                                                        55
6. Distribuciones
  Distribuciones discretas más importantes
     A una operadora de transporte terrestre ingresan en promedio 20
     camiones en una hora. El administrador ha determinado (con una
     prueba K-S) que el número de camiones que llegan por hora se
     distribuye aproximadamente con una distribución de Poisson. La
     capacidad de las instalaciones es para servir hasta 25 camiones
     por hora.

a. Cuál es la probabilidad que en una hora determinada ingresen
   exactamente 20 camiones?
b. Menos de 20 camiones?
c. Que la capacidad de las instalaciones se vea desbordada?


En EXCEL la sintaxis es: POISSON(x, , falso)

                                                                       56
6. Distribuciones
  Distribuciones discretas más importantes
 En un cruce de carreteras se producen accidentes a razón de 2 por semana
 (en media), siguiendo aproximadamente una distribución de Poisson.
 Reconociendo que la frecuencia anterior es intolerable se ha decidido
 instalar un semáforo en dicho cruce. La siguiente semana de la instalación
 sólo ocurre un accidente.
 a) ¿ Se puede afirmar que el semáforo es efectivo ?.
 b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos
 semanas ?.
 c) ¿ Y si se hubiera producido un accidente en 4 semanas ?




                                                                              57
6. Distribuciones
  Distribuciones discretas más importantes
Bombas sobre Londres en la II Guerra Mundial (Feller)
Supón que vivías en uno de los 100 bloques que aparecen en la gráfica
inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100.
Como cayeron 400 bombas, podemos entender el número de impactos en un
bloque como una variable aleatoria de Poisson con λ=400 1/100=4:
                                                           Observado

                                                          Predicho




                                                                            58
6. Distribuciones
  Distribuciones contínuas más importantes
Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a,
    b], si su función de densidad es:
                                                                                   2
                1                             a       b                b       a
    f   x               ;   a   X   b   E X               ;   V ar X
            b       a                             2                        2


Se representa con X U[a,b]
                                                                                       a   b

Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material
    desde una cantera hasta un centro de acopio se distribuye
    aproximadamente mediante una distribución uniforme y que el viaje dura
    entre 1 hora y 1 hora y 45 minutos.
a.  Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25
b.  Cuál es la probabilidad que un camión emplee más de 1h:15
c.  Si se demora más de una hora y media la empresa es multada con 5$. En
    un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario
    por multas que deberá pagar la empresa?                                    59
6. Distribuciones
  Distribuciones contínuas más importantes
Normal: Una variable aleatoria X tiene distribución normal con
parámetros y 2 si su función de densidad es:
                                                         2
                                                 x
                                     1           2
                                                     2
                      f x                    e               ;   x   IR
                                 2




                                         μ
                                                             2
Donde:        E X           ;    Var X


Se representa con X    N[ ,     2]


                                                                          60
6. Distribuciones
  Distribuciones contínuas más importantes
Normal: Un gran número de estudios indica que la distribución normal
proporciona una adecuada representación, por lo menos en una primera
aproximación, de las distribuciones de una gran cantidad de variables
físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales
como la temperatura y la precipitación pluvial, mediciones efectuadas en
organismos vivos, calificaciones en pruebas de actitud, mediciones físicas
de partes manufacturadas, errores de instrumentación, demanda de
productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al
suponer para una situación dada un modelo de probabilidad normal sin
previa comprobación.
Si bien es cierto que la distribución normal es la que tiene un mayor uso, es
también de la que más se abusa. Quizá esto de deba a la mala
interpretación de la palabra "normal“

Suponer de manera errónea una distribución normal puede llevar a errores
muy serios.

                                                                                61
6. Distribuciones
  Distribuciones contínuas más importantes
Normal: Esta función tiene un gran número de aplicaciones en estadística,
incluidas las pruebas de hipótesis.

En Excel la sintaxis es:

 Para la distribución acumulada: DISTR.NORM(x, , , acum)
 Para la inversa: DISTR.NORM.INV(1- , , )




                                                             1-



                                                                    x       62
6. Distribuciones
  Distribuciones contínuas más importantes
Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye
aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan
grande debe ser el inventario disponible a principio de un mes para que la
probabilidad de que la existencia se agote no sea mayor de 0.05?

(Ejemplo) El Bar "El Imperio" sirve chop a sus clientes. Se ha determinado que la
demanda diaria de barriles de cerveza sigue una distribución normal con una media
de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al
año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de
$0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de
barriles de cerveza desde el distribuidor es de 3 días. Determinar:
a) El tamaño del lote óptimo de compra.
b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante "El
Imperio" desea que el nivel de servicio sea de un 90 %.
c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 %
fuera deseado?
                                                                                    63
6. Distribuciones
  Distribuciones contínuas más importantes
Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de
exportación sigue una distribución normal, un determinado inspector conoce por su
dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro
inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm.
a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la
probabilidad de que esto ocurra en una determinada partida.
b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90%
de las naranjas.
c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza
midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se
encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la
probabilidad de que una partida sea aceptada.




                                                                                  64
6. Distribuciones
  Distribuciones contínuas más importantes
Exponencial: Una variable aleatoria X tiene una distribución exponencial con
      parámetro , si su densidad es:

                          1       x/
                  f   x       e        ;   x>0




                                           2
Donde: E X          ; Var X
Se suele representar con =1/
En el caso que X represente el tiempo entre llegadas, es el tiempo promedio
        entre llegadas y sería la frecuencia de llegadas por 1 ut

                                                                               65
6. Distribuciones
  Distribuciones contínuas más importantes
Exponencial: Esta distribución permite (entre otras cosas) establecer el tiempo
  entre dos sucesos, tal como el tiempo que tarda una máquina de cajero
  automático en entregar efectivo, el tiempo entre la llegada de dos camiones a
  una terminal, etc.

La sintaxis en EXCEL es:

   Para la distribución acumulada: DISTR.EXP(x, , acum)




                                                                             66
6. Distribuciones
  Distribuciones contínuas más importantes
Exponencial: (Ejemplo) El promedio de llegada de camiones a una bodega para
    ser descargados es de 3 camiones por cada hora. Se ha determinado que el
    tiempo que transcurre entre dos llegadas sucesivas de camiones es
    exponencial.
a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el
    próximo llegue antes de 10 minutos.
b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el
    próximo llegue después de cuarto de hora.
c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como
    máximo 20 camiones a descargar

NOTA: Si el tiempo entre dos llegadas es Exponencial( ), el número de llegadas
  por unidad de tiempo es Poisson( )


                                                                            67
6. Distribuciones
  Distribuciones contínuas más importantes
Beta: Una variable aleatoria X tiene una distribución exponencial con
       parámetros y , si su función de densidad es:

                                  1           1
       f x                    x       1   x       ;   0< x<1


                                                                        1
Donde: E X               ;    V ar X                  2
                                                               1

Se representa con X   ( , )


Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy,
        logística, etc
                                                                        68
6. Distribuciones
  Distribuciones contínuas más importantes
Beta:La distribución beta se usa generalmente para estudiar las variaciones, a
    través de varias muestras, de un porcentaje que representa algún
    fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar
    televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de
    impurezas en un producto, el porcentaje de tiempo que realmente trabaja
    un empleado en su horario de trabajo, la distribución del intervalo de
    tiempo necesario para completar una fase de proyecto PERT, etc.

La sintaxis en EXCEL es:

   Para la acumulada: DISTR.BETA(x; , )

   Para la inversa: DISTR.BETA.INV(p, , )




                                                                                     69
6. Distribuciones
  Distribuciones contínuas más importantes
 Beta:
 (Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que
 fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4).
 Determinar :
 a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad
 dada.
 b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en
 la ciudad un año cualquiera.

 (Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían
 información a otros sensores en diferentes formatos. El porcentaje X de las señales
 que se envían y que son directamente compatibles para todos los sensores del
 sistema sigue una distribución beta con α = β = 2.
 a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos
 enviadas en el sistema sean directamente compatibles para todos los sensores.
 b) Calcula la media y la varianza de X


                                                                                  70
6. Distribuciones
  Distribuciones conjuntas
Si se tienen las v.a. X1, X2, …, Xk se denomina al vector
X=(X1, X2, …, Xk) vector aleatorio.

Def.- La función de distribución conjunta de un vector
aleatorio X es:

   F (x1, x2, …, xk)=P(X1 x1, X2 x2, …, Xk xk)

OBS: Dada la f.d.c. de un vector aleatorio X, podemos
determinar:
                    P(X A) A IRk

                                                            71
6. Distribuciones
  Distribuciones conjuntas
                 Funciones de densidad:
CASO DISCRETO:
Def: Si X1, X2, …, Xk son v.a.d. definidas en el mismo
espacio muestral, la función de distribución de
probabilidades conjunta es:
     p(x1, x2, …, xk)=P(X1=x1, X2 =x2, …, Xk =xk)

CASO CONTINUO:
Def: En el caso contínuo se define la función de densidad
conjunta como: f(x1, x2, …, xk) tal que:
      P(X    A)          f   x1 , x 2 , ..., x k dx1 dx 2 ...dx k
                  A                                                  72
6. Distribuciones
  Distribuciones conjuntas
                 Distribuciones Marginales:
 CASO DISCRETO:
 Def: Si X1, X2, …, Xk son v.a.d. con f.d.p. conjunta
 p(x1, x2, …, xk), se denomina f.d.p. marginal de xi a:
           p i ( xi )                                             p x1 , x 2 , ..., x k
                           x1   x2       xi   1   xi   1       xk




 CASO CONTINUO:
 Def: En el caso contínuo se define la función de densidad
 marginal de xi a:
              f i ( xi )                     f        x1 , x 2 , ..., x n dx1 ...dx i 1 dx i 1 ...dx n

                                                                                                          73
6. Distribuciones
  Distribuciones conjuntas

                        Independencia:

 Def: X1, X2, …, Xk se denominan v.a. independientes si
 para cualquier subconjunto X1, X2, …, Xp:
                                     p

                f   x1 , ..., x p         f i xi
                                    i 1




                                                      74
7. INFERENCIA ESTADISTICA
   Estimación de parámetros

Cuando se supone conocida una distribución para las observaciones
dadas, el parámetro ( ) generalmente es desconocido, es decir se
supone conocida la “forma” de la distribución salvo el valor de su
parámetro.

Para estimar el valor del parámetro se usan las observaciones para
obtener un número, denominado el “estimador”, representado con ˆ

Pero, ¿cómo obtener buenos estimadores?

-Método de los momentos
-Método de la Máxima Verosimilitud
                                                                     75
7. INFERENCIA ESTADISTICA
   Estimación de parámetros
Estimadores de Máxima Verosimilitud (ML)

Dadas las observaciones X1, X2, …, Xn, obtenidas de una
población con densidad f(x; ), se denomina función de
verosimilitud de la muestra a:
                                                      n

           L( X ; )   f   x1 , x 2 , ..., x n /             f   xi
                                                      i 1




El estimador de máxima verosimilitud delˆ parámetro                  es el
valor de que maximiza L.
Es decir, se obtiene resolviendo la ecuación vectorial:
                           L
                               L( X ; )           0
                                                                             76
7. Inferencia estadística
    INTERVALOS DE CONFIANZA

   Los intervalos de confianza para un parámetro cualquiera (por
    ejemplo la media) nos dan un rango de valores alrededor del
    estimador dónde esperamos se encuentre el verdadero valor del
    parámetro (de la población), con cierto nivel dado de certeza.

   Es decir, un intervalo de confianza de (1- ) 100% de confianza
    para un parámetro es un intervalo de la forma: [LIC, LSC],
    donde:

                   P(LIC         LSC) = 1-


                                                                 77
7. Inferencia estadística
    INTERVALOS DE CONFIANZA

  Ejemplo:
   En una hacienda hay 2000 reses, se ha escogido una
   muestra de 50 reses y se ha obtenido que en promedio
   pesan 420 Kg. Se conoce que la desviación típica de
   los pesos de las reses es de 48 kg.
a. Hallar el IC del 90% para el peso promedio real de
   las reses de la hacienda.
b. Hallar el IC del 98% para el peso promedio real de
   las reses de la hacienda.

                                                     78
7. Inferencia estadística
    PRUEBAS DE HIPOTESIS

    ¿Qué es una prueba de hipótesis?



    Es un procedimiento estadístico diseñado para comprobar una
    hipótesis que se hace el investigador sobre un parámetro
    desconocido o sobre la distribución de una población.

   Las pruebas de hipótesis se realizan en todos los ámbitos en los
    cuales puede contrastarse la teoría frente a la observación,
    probar una hipótesis implica tomar una decisión al comparar la
    muestra observada con una suposición que se hace de la
    realidad.
                                                                   79
7. Inferencia estadística
    PRUEBAS DE HIPOTESIS

Los elementos de una prueba de hipótesis son:

-   Hipótesis Nula (Ho)

-   Hipótesis Alternativa (Ha)

-   Estadístico de Prueba (EP)

-   Región de rechazo (R.R.) - o nivel de significancia (p)

                                                              80
7. Inferencia estadística
  PRUEBAS DE HIPOTESIS

             Decisión y error en una P.H.

                                     Decisión

                       Rechazar Ho          Aceptar Ho
     Ho es verdadera    Error tipo I        Decisión Correcta

     Ho es falsa
                       Decisión Correcta    Error tipo II
                                                                81
7. Inferencia estadística
  PRUEBAS DE HIPOTESIS


Decisión y error en una P.H.

P(Error tipo I)=

P(Error tipo II)=



Nivel de significancia: Menor valor de alfa para el cual se
rechaza la hipótesis nula
                                                              82
7. Inferencia estadística
    PRUEBAS DE HIPOTESIS


   La significancia estadística de un resultado es la probabilidad
    que la relación observada (por ejemplo, entre las variables) o
    una diferencia (por ejemplo, entre las medias) en una muestra
    ocurrió por pura coincidencia (“la suerte de la lotería”), y que en
    la población de la que la que se escoge la muestra no existe tal
    relación o diferencias


   En muchas áreas de investigación, el valor p de .05 se toma
    habitualmente como un valor crítico del nivel del error aceptable

                                                                     83
7. Inferencia estadística
   PRUEBAS DE HIPOTESIS
Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición




                                                                          84
7. Inferencia estadística
   PRUEBAS DE HIPOTESIS
PRUEBA t
 La prueba t para muestras independientes
  La prueba t es el método mas comúnmente usado para evaluar las
    diferencias entre las medias de dos grupos.
  Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la
    muestra son muy pequeños (por ejemplo, tan pequeño como 10;
    algunos investigadores exigen por lo menos eso)
  El nivel p reportado en una t-prueba representa la probabilidad de error
    involucrada en aceptar nuestra hipótesis investigada sobre la existencia
    de una diferencia.




                                                                               85
7. Inferencia estadística
    PRUEBAS DE HIPOTESIS
PRUEBA t
   Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre
    las medias y las medidas de variación en los dos grupos pueden visualizarse
    en los diagramas de caja




                                                                                 86
7. Inferencia estadística
     PRUEBAS DE HIPOTESIS

    PRUEBA DE ANOVA

   A menudo sucede en la investigación práctica que se necesita comparar más
    de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar
    grupos creados por más de una variable independiente y controlando la
    influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de
    Droga, y tamaño de Dosis).
   En estos casos, se necesita analizar los datos usando el denominado Análisis
    de Varianza, que puede considerarse como una generalización de la prueba t




                                                                                   87
7. Inferencia estadística
     PRUEBAS DE HIPOTESIS

    PRUEBAS NO PARAMETRICAS
   Muchas veces no se puede asumir una distribución dada para
    una población de donde se han obtenido la(s) muestra(s), en ese
    caso se deben utilizar las denominadas pruebas no paramétricas
    o libres de distribución, a continuación se presenta una tabla
    donde se observan las pruebas no paramétricas equivalentes a
    las paramétricas.




                                                                      88
8. Pruebas de Bondad de ajuste

Muchas veces no se está claro si se cumplen los supuestos de
alguna distribución, otras veces es necesario asumir una
distribución teórica para modelizar la distribución de una
variable, para esto se tienen las pruebas de bondad de ajuste.

Las pruebas de bondad de ajuste más usadas son:

-Prueba 2
-Prueba   K-S (Kolmogorov – Smirnov)



                                                                 89
8. Prueba de Bondad de ajuste                  2


      Se pueden clasificar a las GOF (goodness-of-fit) en dos grupos:

(1)   Las que dividen al rango de los datosPrueba 2
                                             en “casillas” disjuntas, y
      luego el número de observaciones que caen en cada casilla es
      comparado con el número esperado bajo la distribución
      supuesta en la hipótesis nula. Es natural usarlas en el caso
      discreto.
                                            Prueba K-S
(2)   En estas pruebas se comparan la función de distribución
      empírica de la muestra y la función teórica dada en la hipótesis
      nula. El estadístico de prueba está basado en alguna medida de
      distancia entre las dos distribuciones. Se usan casi
      exclusivamente para el caso de distribuciones contínuas.

                                                                      90
8. Prueba de Bondad de ajuste          2


  En la prueba   2 lasn observaciones son agrupadas en k
  casillas disjuntas, c/u de las cuales debe contener por lo
  menos 5 observaciones, sea ni la frecuencia observada en
  la casilla i.

  Lo que se desea probar es:

  Ho: La distribución de la población es Fo, vs.
  Ha: La distribución de la población no puede ser Fo,

  Con la distribución Fo dada en Ho, se calculan las
  probabilidades de casilla pi, y luego la frecuencia esperada
  de casilla = n pi                                          91
8. Prueba de Bondad de ajuste                            2


   El estadístico de prueba es:
                                                         2
                               k
                       2
                                       F .O .   F .E .
                               i 1          F .E .
   Y la región de rechazo es:
                   2       2
                                     con k -1- L grados de libertad


   Siendo L el número de parámetros que se deben estimar.



 Nota: La distribución 2 con grados de libertad se define como una
 distribución Gamma con parámetros = /2 y =2
                                                                      92
8. Prueba de Bondad de ajuste 2

En resumen, la Prueba de bondad de ajuste       2 es:



Ho: La distribución de la población es Fo(x)

Ha: La distribución de la población no puede ser Fo(x)
                                          2
               k
          2
                        F .O .   F .E .
E.P.:
              i 0            F .E .

          2         2
R.R.:

Obs: La frecuencia observada de cada casilla F.O. debe ser   5
                                                                 93
8. Prueba de Bondad de ajuste K-S

 Ho: La distribución de la población es Fo

 Ha: La distribución de la población no puede ser Fo

 E.P.: D     m áxim a distancia Fo ( x ), F x


 R.R.:   D   Dn,



 La función F(x) es la distribución empírica de la
 muestra

                                                       94
8. Prueba de Bondad de ajuste K-S




                                    95
9. Métodos de pronóstico: regresión lineal y medias
   móviles.

 La previsión de la demanda (mas comúnmente conocida como el
 pronóstico de la demanda) es la estimación de los niveles futuros
 que adoptará la demanda y es un elemento de gran relevancia en
 la planificación de la empresa y, por tanto, en la definición de los
 objetivos de los diferentes departamentos de la empresa.

 Los métodos de estimación de la demanda se clasifican en dos
 tipos:

 •Los métodos cuantitativos
 •Los métodos cualitativos

 Ver documento “pronóstico de la demanda.doc”
                                                                   96
10. Generalización del teorema de Bayes
   La regla de Bayes también se puede aplicar a v.a.c..
    Supongamos que tenemos una v.a.c. x que es especificada por
    una distribución indexada por un parámetro

A priori:
  Podemos cuantificar nuestro conocimiento a priori acerca del
  valor del parámetro y estimar una distribución a priori
                                p
Verosimilitud
  Esta es la distribución (o verosimilitud) de la v.a. x, es decir:

                                p x

                                                                  97
10. Generalización del teorema de Bayes
A posteriori:
  Aplicando la regla de Bayes obtenemos la distribución
  posterior:
                                p    p    x
                      p   x =
                                    p x


    Donde el denominador es:        p x =     p   p x   d




   Cualquier tipo de inferencias pueden hacerse a partir de la
    distribución posterior del parámetro del modelo , donde el
    dato x incluye información tanto de la a priori como de la
    verosimilitud.
                                                                  98
10. Generalización del teorema de Bayes
  Esto es generalizado para una muestra aleatoria x1, x2, …, xn
  proveniente de una distribución que depende de los
  parámetros 1, 2, …, j.

A Priori: Cuantificamos nuestras creencias acerca de los
  parámetros en la forma de una distribución conjunta.
                        p( 1, 2, …, j)
  Donde no necesariamente son independientes.

Verosimilitud: Con la muestra, la distribución conjunta de las
  observaciones es:
                                                  n
              p x1 ,  , x n   1
                                   , ,   J
                                              =         p xi   1   , ,   J
                                                  i 1                         99
10. Generalización del teorema de Bayes

Posterior: Aplicando la regla de
   Bayes:
                                                         p       1   , ,   J    p x1 ,  , x n     1   , ,       J
        p           , ,            x1 ,  , x n =
                1              J
                                                                                p x1 , , x n


Donde el denominador es:

        p x1 ,  , x n =                   p      1   , ,   J       p x1 , , x n         d    1
                                                                                                    d         J



Notación:
    p       1
                , ,       J
                                   x1 ,  , x n         kp           1
                                                                         , ,    J
                                                                                     p x1 ,  , x n            1
                                                                                                                   , ,   J


                                                         p           1
                                                                         , ,    J
                                                                                     p x1 ,  , x n            1
                                                                                                                   , ,   J
                                                                                                                              100
10. Generalización del teorema de Bayes
   la estadística Bayesiana es nada más que un modelo formal de
    aprendizaje en un ambiente de incertidumbre aplicado a la
    inferencia estadística. Lo a priori expresa mis creencias sobre
    antes de observar los datos; mientras que la distribución
    expresa mis creencias actualizadas sobre después de observar
    los datos.
   A partir de esto, llevar a cabo un análisis Bayesiano es
    ilusoriamente simple y siempre se procede de la siguiente
    manera:
   Formular la distribución muestral p y | y la distribución a
    priori p      .
   Calcular la distribución posterior p | y según Bayes
   ¡Eso es todo! Toda la información acerca de está contenida
    ahora en la distribución posterior. Por ejemplo la probabilidad
    que      A es:
                        P    A| y        p   |y d
                                     A


                                                                  101
10. Generalización del teorema de Bayes
   Ya que la distribución posterior es la representación completa
    de sus creencias sobre , a veces es conveniente informar una
    sola estimación, por ejemplo el valor más probable de , este
    se denomina entonces el estimador bayesiano de .

   Aplicación: sea y = x1, x2, …, xn una muestra aleatoria de
    puntuaciones, con la suposición que estas provienen de una
    población normal con media y varianza 2,
                                                               2
                           xi             N               ,
                                       i .i . d .

                                                                                   n
                                n/2                 n                  1                              2
            p y        2                                ex p               2
                                                                                         xi
                                                                   2               i 1
   Si usamos la a priori:
                                1/ 2                1                  1                          2
              p        2                      0
                                                        exp                    2              0
                                                                   2       0
                                                                                                          102
10. Generalización del teorema de Bayes
 Donde 0 y 02 son la media y la varianza a priori
  conocidas, antes de conocer los datos
 La distribución posterior de   es:
                                       p y         p                       p y                       p
                 p       y
                                             p y                           p y                   p        d

   El numerador es:
                                                                                           n
                               n 1 /2         n        1                       1                              2        1               2
    p y   p          2                             0
                                                           exp                     2
                                                                                                     xi                        2   0
                                                                           2               i 1                     2       0


                                   2                           2
                         n/             x         1/       0       0                   2                      1
          C on                          2                      2
                                                                       ;                                  2                2
                              n/                  1/       0
                                                                                                 n/               1/   0




                                                                                                                                   103
10. Generalización del teorema de Bayes
                                       n
                           1                               2                               1                                     2
        Si h y                 2
                                               xi     x                                2           1       2
                                                                                                                   x         0
                       2           i 1                             2               0
                                                                                               n

   Entonces:                                                                                                      n
                                                               1/ 2            1                           1                         2
         p y       p                   p y           2                             exp                         2
                                                                                                       2           i 1

                                               n/2         n                   1
   Donde:      p y                2                                   0
                                                                                   exp                 h y


   Luego:                                          1/ 2       1                               1                         2
               p       y                   2                       exp                             2
                                                                                           2


   O también:
                                                                   1                                   2
                   p               y            exp                        2
                                                               2

                                                                                                                                         104
10. Generalización del teorema de Bayes
   En el siguiente gráfico se observan las densidades a priori y
    posterior de para diferentes muestras.

   Muestra: {1,0,6,0,3}

                               1


                             0.8

                             0.6


                             0.4


                             0.2

                                                                    105
                  -2    -1            1      2     3      4     5
11. TEORIA DE LA DECISION




 Def: La teoría de la decisión estudia los métodos analíticos que
 proveen las herramientas para analizar situaciones en las cuales
 hay que tomar una o más decisiones.
 La decisión tomada debe ser la mejor posible respecto a algún
 criterio de optimalidad ( o la mejor posible “en promedio”)




                                                               106
11. TEORIA DE LA DECISION




    AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES
   Decisiones bajo Certidumbre
   Decisiones bajo incertidumbre
   Decisiones bajo riesgo




                                              107
11. TEORIA DE LA DECISION
Decisiones bajo Certidumbre: Se conocen con certeza los
resultados o consecuencias de seleccionar cada alternativa



Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner
en una libreta de ahorros al 3.0% de interés anual o comprar un
certificado de depósito que paga el 5% anual. Asumiendo que
ambas alternativas son seguras el certificado de depósito nos da
un retorno mayor. La decisión óptima está clara, fácil de obtener!.




                                                                108
11. TEORIA DE LA DECISION

 Otros problemas de decisión bajo certidumbre son muy
 complicados, en ese caso solo se puede obtener una “buena”
 solución.

 Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar
 cierto producto en determinado intervalo de tiempo, se conoce la
 ubicación, la demanda y la ventana de tiempo de los clientes.
 También se tiene un depósito, desde donde deben salir los
 vehículos (que tienen una capacidad q conocida) cargados para
 satisfacer la demanda de los clientes. Se debe decidir cuántos
 vehículos enviar y por donde enviarlos.


                                                              109
11. TEORIA DE LA DECISION




        Red física: Ubicaciones de clientes


                                              110
11. TEORIA DE LA DECISION




                    0




        Grafo matemático: Nodos, arcos y pesos
                                                 111
11. TEORIA DE LA DECISION
                                                    64 2                               44 41 37
                                                                                              36
                                                   46                                  45    38
                                                 9475                                  43 40
                                                                                           39
                                                 87 3                                     42

                                      80                        71
                                                             101
                                                                             62                 73
                                 74          61              56        69              55
                                                        89                        82
                                       79                                                           72
                                                                                       97
                                                        99 70                                  94
                                                   54                   1
                                                                   91         81          95
                                18 1513
                                 48
                                                          83                      92 93         68
                                17 12
                                 16 11                            66
                                                                        67             96
                                  14 10                 100                       57                63    51   35 30 28
                                                                                                                 32
                                                        53         84        65                                 33 2927
                                                                                                                31
                                                                                          85
                                            88     87        58                                                34
                                                                                                86
                                           60      75                                  52        64
                                  98
                                                                   25 21
                                                                    23
                                                                      50                    77
                                             59                       20
                                  76                              26 22 19
                                                                    24 49                            90
                                                     78




         Obtención de rutas individuales
                                                                                                                          112
11. TEORIA DE LA DECISION




          Costo del ruteo: 19794




            Costo del ruteo: 1307
                                    113
11. TEORIA DE LA DECISION

Decisiones bajo Incertidumbre: No se conocen las
probabilidades asociadas con los diferentes resultados de cada
alternativa.

Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo
producto a su línea de producción. Las alternativas que se
estudian son: hacer una ampliación grande, hacer una ampliación
pequeña, o no hacer ninguna ampliación a las actuales
instalaciones para producir el nuevo producto. Si no conocemos
las probabilidades asociadas con cada uno de los resultados para
las distintas alternativas tenemos que tomar una decisión bajo una
completa incertidumbre.

                                                                 114
11. TEORIA DE LA DECISION

Decisiones bajo Riesgo: Se conocen las probabilidades asociadas
con los diferentes resultados de cada alternativa.

Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las
probabilidades asociadas a la posible demanda del nuevo
producto, por ejemplo a través de un estudio de mercado, tenemos
un problema de decisión bajo riesgo.




                                                              115
11. TEORIA DE LA DECISION
   El origen de la teoría de la decisión para la toma de decisiones se
    deriva de la economía, en el área de la función de la utilidad del
    pago. Propone que las decisiones deben tomarse calculando la
    utilidad y la probabilidad de rangos de opciones, y establece
    estrategias para una buena toma de decisiones.

    Proceso de Toma de Decisiones Estadísticas
   A diferencia de los procesos de toma de decisiones
    determinísticas tal como, optimización lineal resuelto mediante
    sistema de ecuaciones, sistemas paramétricos de ecuaciones y en
    la toma de decisión bajo pura incertidumbre, las variables son
    normalmente más numerosas y por lo tanto más difíciles de medir
    y controlar. Sin embargo, los pasos para resolverlos son los
    mismos. Estos son:
                                                                     116
11. TEORIA DE LA DECISION
 1. Simplificar
 2. Construir un modelo de decisión
 3. Probar el modelo
 4. Usar el modelo para encontrar soluciones:
  El modelo es una representación simplificada de la situación real
  No necesita estar completo o exacto en todas las relaciones
  Se concentra en las relaciones fundamentales e ignora las
  irrelevantes.
  Este es entendido con mayor facilidad que un suceso empírico
  (observado), por lo tanto permite que el problema sea resuelto con
  mayor facilidad y con un mínimo de esfuerzo y pérdida de
  tiempo.
 5. El modelo puede ser usado repetidas veces para problemas
  similares, y además puede ser ajustado y modificado.            117
11. TEORIA DE LA DECISION
Elementos de la teoría de decisiones:
   El análisis de decisiones es un proceso que le permite al decisor seleccionar
    una decisión (sólo una) entre un conjunto de alternativas posibles de decisión,
    cuando existe incertidumbre con respecto al futuro, con el objetivo de
    optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de
    decisión numérico. Los elementos de los problemas de análisis de decisiones
    son los siguientes:

   Hay un decisor responsable individual.
   Un número finito de eventos (futuros) posibles, llamados Estados de la
    Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en
    las cuales se toma una decisión se llaman estados de la naturaleza. Los estados
    de la naturaleza se identifican y agrupan en el conjunto ; los miembros se
    denotan como . El conjunto es un grupo de conjuntos mutuamente
    excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué
    puede hacer la naturaleza?

                                                                                  118
11. TEORIA DE LA DECISION
Elementos de la teoría de decisiones:
   Un número finito de alternativas posibles de decisión. Hay una acción
    a, miembro del conjunto A, que puede ser adoptada por el decisor. Sólo puede
    adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un
    conjunto más rico de alternativas que las que se presentaron inicialmente o que
    las aceptadas tradicionalmente.
   La manera más sencilla de formular el problema de decisión es usando una
    matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una
    matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos
    conjuntos de dominio dimensionales A y . Las filas y las columnas se asignan
    a las alternativas de decisión posibles y a los estados posibles de la
    naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta
    matriz; por lo tanto, puede requerir algo de práctica.
   Generalmente, esta función refleja una ganancia, si el problema se plantea en
    términos de pérdidas, estas se pueden expresar como ganancias negativas. Un
    valor de la matriz de pagos l(a, ) representa el pago asociado a esta
    combinación acción - estado de la naturaleza.

                                                                              119
11. TEORIA DE LA DECISION
Fuente de Errores en la Toma de Decisiones:

   La fuente principal de errores en los problemas de toma de
    decisiones arriesgadas son las presunciones falsas, no tener una
    estimación exacta de las probabilidades, depender de la
    expectativa, dificultades en medir la función de utilidad, y los
    errores de pronóstico.




                                                                  120
11. TEORIA DE LA DECISION
Acciones dominadas:

   En los problemas de decisión suelen existir muchas acciones
    posibles, por lo tanto es conveniente que previamente se lo
    reduzca tanto como sea posible.
   Decimos que una acción a’ es dominada por una acción a, si los
    pagos para a son mejores que los pagos para a’, sin importar el
    estado de la naturaleza. Es decir:

                          : l a,        l a ',


   Si los pagos son ganancias, al contrario si son costos


                                                                121
11. TEORIA DE LA DECISION
    EJEMPLO:
   Una compañía de computadoras compra chips a dos proveedores,
    A y B. En cada orden de 1000 chips (independientemente del
    proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
    El proveedor A vende el paquete de 1000 chips por $300 y el
    proveedor B lo vende por $302. Cada chip defectuoso se devuelve
    a un costo de $0.15 por chip. ¿A cuál proveedor conviene
    comprar los chips?                           Estados de la naturaleza


                                        % defectuosos
                       Proveedor 1%        3%        5%
      Acciones
                       A         -301.5    -304.5    -307.5
                       B         -303.5    -306.5    -309.5
     Acción dominada                                     Pagos       122
11. TEORIA DE LA DECISION
    EJEMPLO:
   Una compañía de computadoras compra chips a dos proveedores,
    A y B. En cada orden de 1000 chips (independientemente del
    proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
    El proveedor A vende el paquete de 1000 chips por $300 y el
    proveedor B lo vende por $302. Cada chip defectuoso adquirido
    al proveedor A es devuelto a un costo de $0.15 por chip, mientras
    que uno defectuoso adquirido al proveedor B es devuelto a un
    costo de $0.05 ¿A cuál proveedor conviene comprar los chips?


        TABLA DE PAGOS           1% DEFECTUOSOS     3% DEFECTUOSOS 5% DEFECTUOSOS
        ADQUIRIR A PROVEEDOR A             -301.5            -304.5         -307.5
        ADQUIRIR A PROVEEDOR B             -302.5            -303.5         -304.5




                                                                                     123
11. TEORIA DE LA DECISION
  OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:
 El pago es una medida cuantitativa del valor de las consecuencias del
  resultado para el tomador de decisiones, en este sentido muchas veces el
  pago se representa por la ganancia monetaria neta (utilidad). Si las
  consecuencias del resultado no son completamente ciertas aun cuando
  ocurra el estado de la naturaleza, entonces el pago se convierte en un
  valor esperado (en el sentido estadístico) de la medida de las
  consecuencias
 Sea l(a, ) el pago al tomar la acción a cuando el estado de la naturaleza
  es . En general, se usa una tabla de pagos para cada combinación de a y
     y ; en el contexto de la teoría de juegos el tomador de decisiones y la
  naturaleza se pueden ver como dos jugadores.
 Las acciones posibles y los estados de la naturaleza posibles se pueden
  ver como las estrategias disponibles para los respectivos jugadores,
  donde cada combinación de estrategias da como resultado un pago para
  el jugador 1 (el tomador de decisiones).
                                                                        124
11. TEORIA DE LA DECISION
   Así se tiene que:
    - El tomador de decisiones necesita elegir una de las acciones
    posibles
    - La naturaleza elegirá luego uno de sus estados (de la naturaleza)
    posibles, cada combinación de una acción a y un estado de la
    naturaleza da como resultado uno de los elementos de la tabla
    de pagos. Esta tabla de pagos debe usarse para encontrar una
    acción óptima para el tomador de decisiones según un criterio
    adecuado.
   Si consideramos que en la teoría de juegos ambos jugadores son
    racionales y eligen sus estrategias para promover su propio
    beneficio, esto se ajusta al tomador de decisiones pero no a la
    naturaleza ya que esta es un jugador pasivo que elige sus
    estrategias (estados de la naturaleza) de una manera aleatoria.
                                                                    125
11. TEORIA DE LA DECISION

    TIPOS DE MODELOS DE DECISION:

   Existen tipos diferentes de modelos de decisión que ayudan a
    analizar distintos escenarios, dependiendo de la cantidad y el
    grado de conocimiento que tengamos. Los tres tipos más
    ampliamente utilizados son:

    – Decisión tomada con pura incertidumbre,
    – Decisión tomada con riesgo,
    – Decisión tomada comprando información (empujando el
      problema hacia el "polo" determinista)


                                                                     126
11. TEORIA DE LA DECISION

    TOMA DE DECISIONES BAJO INCERTIDUMBRE:

    En las decisiones tomadas con pura incertidumbre, el decisor no
    tiene ningún conocimiento, ni siquiera de la probabilidad de
    ocurrencia de cualquier estado de la naturaleza. En este caso, el
    comportamiento del decisor se basa puramente en su actitud hacia
    lo desconocido. Algunos de estos comportamientos son los
    optimistas, los pesimistas y los de arrepentimiento, entre otros.

   Optimista: El vaso está medio lleno.
   Pesimista: El vaso está medio vacío.
   Gerente: El vaso es el doble de grande de lo necesario.

                                                                 127
11. TEORIA DE LA DECISION
    Comportamiento según los tipos de personalidad y la toma de
    decisiones con pura incertidumbre:

   Pesimismo, o Conservador (MAXIMIN). Las cosas malas
    siempre me suceden a mí.

   Optimismo, Agresivo (MAXIMAX). Las cosas buenas siempre
    me suceden a mí.

   Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage).
    Odio las lamentaciones. Debo minimizar las situaciones
    deplorables. Mi decisión debe ser tal que valga la pena repetirla.
    Sólo debería hacer las cosas que siento que podría repetir con
    placer.
                                                                    128
11. TEORIA DE LA DECISION
  MAXIMIN:
 Basado en la teoría de juegos, se selecciona la acción
  encontrando el pago mínimo sobre todos los estados posibles de
  la naturaleza y después encontrar el máximo de estos pagos
  mínimos.
 Es válido cuando se considera que se está compitiendo contra un
  oponente racional y malévolo, como puede ser el caso de la
  competencia con alguna otra empresa; sin embargo si se
  considera que el oponente es la propia naturaleza resulta
  demasiado conservador en este contexto ya que la naturaleza no
  es un oponente malévolo y el tomador de decisiones no necesita
  enfocar su atención solo en el peor pago de cada acción.
 En el caso de que la tabla de pagos sea de Costos o pérdidas,
  sería un criterio MINMAX                                      129
11. TEORIA DE LA DECISION
    MAXIMIN: Seleccionar la acción ak en la cual se tiene la
    ganancia maximin:
                l ak ,   r
                             M ax M in l a j ,                i
                                    j           i


   Ejemplo: Sea el problema de decisión con tabla de ganancias:


                                1           2
                                                Mínimo
                         a1 0           2                0
                         a2 -1 4                Mínimo            Máximo
                                                         -1

             La acción Maximin es a1
                                                                           130
11. TEORIA DE LA DECISION
    MAXIMAX: Seleccionar la acción ak en la cual se tiene la
    ganancia maximax:
                l ak ,   r
                             M ax M ax l a j ,               i
                                    j           i


   Ejemplo: En el problema anterior:


                                1           2
                                                Máximo
                         a1 0           2                2
                                                Máximo
                         a2 -1 4                         4
                                                                 Máximo
             La acción Maximax es a2
                                                                          131
11. TEORIA DE LA DECISION
    MINIMAX: Construir la tabla de pérdida de oportunidades LP, y
    seleccionar la acción ak en la cual se tiene la pérdida de
    oportunidades minimax:
                           LP ak ,   r
                                         M in M ax l a j ,        i
                                                 j        i



   Ejemplo: En el problema anterior:

       L      1        2      LP     1       2
                                                     Máximo
       a1 0        2          a1 0       2                    2
                                                     Máximo
       a2 -1 4                a2 1       0                    1
                                                                      Mínimo
                  La acción Minimax es a2
                                                                               132
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO
IO

Contenu connexe

Tendances (8)

Capitulo 1
Capitulo 1Capitulo 1
Capitulo 1
 
Cuadro comparativo jesus
Cuadro comparativo jesusCuadro comparativo jesus
Cuadro comparativo jesus
 
Computación iii tema 01
Computación iii tema 01Computación iii tema 01
Computación iii tema 01
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Cuadro dalia
Cuadro daliaCuadro dalia
Cuadro dalia
 
Estadística capitulo i
Estadística capitulo iEstadística capitulo i
Estadística capitulo i
 
Que Es La Estadistica
Que Es La EstadisticaQue Es La Estadistica
Que Es La Estadistica
 
MIC sesión 1
MIC sesión 1MIC sesión 1
MIC sesión 1
 

Similaire à IO (20)

Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i (1)
Capitulo i (1)Capitulo i (1)
Capitulo i (1)
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i (1)
Capitulo i (1)Capitulo i (1)
Capitulo i (1)
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo i
Capitulo iCapitulo i
Capitulo i
 
Capitulo 1
Capitulo 1Capitulo 1
Capitulo 1
 
estadisticas.pdf
estadisticas.pdfestadisticas.pdf
estadisticas.pdf
 
Estadística descriptiva
Estadística descriptivaEstadística descriptiva
Estadística descriptiva
 
Organización de los datos
Organización de los datosOrganización de los datos
Organización de los datos
 
ESTADÍSTICA APLICADA A LOS NEGOCIOS UTILIZANDO MICROSOFT EXCEL "CAPITULO 1"
ESTADÍSTICA APLICADA A LOS NEGOCIOS UTILIZANDO MICROSOFT EXCEL "CAPITULO 1"ESTADÍSTICA APLICADA A LOS NEGOCIOS UTILIZANDO MICROSOFT EXCEL "CAPITULO 1"
ESTADÍSTICA APLICADA A LOS NEGOCIOS UTILIZANDO MICROSOFT EXCEL "CAPITULO 1"
 
Seminario de tesis 2 diapositivas
Seminario de tesis 2 diapositivasSeminario de tesis 2 diapositivas
Seminario de tesis 2 diapositivas
 
Procesamiento de datos
Procesamiento de datosProcesamiento de datos
Procesamiento de datos
 
_Mundo de los Datos (1).pdf
_Mundo de los Datos  (1).pdf_Mundo de los Datos  (1).pdf
_Mundo de los Datos (1).pdf
 

Dernier

Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfcoloncopias5
 
Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Rosabel UA
 
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docx
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docxIII SEGUNDO CICLO PLAN DE TUTORÍA 2024.docx
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docxMaritza438836
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxLudy Ventocilla Napanga
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfManuel Molina
 
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfPresentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfSarayLuciaSnchezFigu
 
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdf
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdfFichas de matemática DE PRIMERO DE SECUNDARIA.pdf
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdfssuser50d1252
 
FICHA PL PACO YUNQUE.docx PRIMARIA CUARTO GRADO
FICHA  PL PACO YUNQUE.docx PRIMARIA CUARTO GRADOFICHA  PL PACO YUNQUE.docx PRIMARIA CUARTO GRADO
FICHA PL PACO YUNQUE.docx PRIMARIA CUARTO GRADOMARIBEL DIAZ
 
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxEJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxFabianValenciaJabo
 
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsxJuanpm27
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicialLorenaSanchez350426
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfAlfredoRamirez953210
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxMartín Ramírez
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfvictorbeltuce
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOweislaco
 

Dernier (20)

Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdfFisiologia.Articular. 3 Kapandji.6a.Ed.pdf
Fisiologia.Articular. 3 Kapandji.6a.Ed.pdf
 
Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024Actividad transversal 2-bloque 2. Actualización 2024
Actividad transversal 2-bloque 2. Actualización 2024
 
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docx
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docxIII SEGUNDO CICLO PLAN DE TUTORÍA 2024.docx
III SEGUNDO CICLO PLAN DE TUTORÍA 2024.docx
 
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docxSIMULACROS Y SIMULACIONES DE SISMO 2024.docx
SIMULACROS Y SIMULACIONES DE SISMO 2024.docx
 
DIA INTERNACIONAL DAS FLORESTAS .
DIA INTERNACIONAL DAS FLORESTAS         .DIA INTERNACIONAL DAS FLORESTAS         .
DIA INTERNACIONAL DAS FLORESTAS .
 
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdfTarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
Tarea 5_ Foro _Selección de herramientas digitales_Manuel.pdf
 
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdfPresentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
Presentacion minimalista aesthetic simple beige_20240415_224856_0000.pdf
 
La luz brilla en la oscuridad. Necesitamos luz
La luz brilla en la oscuridad. Necesitamos luzLa luz brilla en la oscuridad. Necesitamos luz
La luz brilla en la oscuridad. Necesitamos luz
 
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdf
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdfFichas de matemática DE PRIMERO DE SECUNDARIA.pdf
Fichas de matemática DE PRIMERO DE SECUNDARIA.pdf
 
FICHA PL PACO YUNQUE.docx PRIMARIA CUARTO GRADO
FICHA  PL PACO YUNQUE.docx PRIMARIA CUARTO GRADOFICHA  PL PACO YUNQUE.docx PRIMARIA CUARTO GRADO
FICHA PL PACO YUNQUE.docx PRIMARIA CUARTO GRADO
 
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docxEJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
EJEMPLO MODELO DE PLAN DE REFUERZO ESCOLAR.docx
 
Aedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptxAedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptx
 
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
3. Pedagogía de la Educación: Como objeto de la didáctica.ppsx
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicial
 
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdfEstrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
Estrategias de enseñanza - aprendizaje. Seminario de Tecnologia..pptx.pdf
 
recursos naturales america cuarto basico
recursos naturales america cuarto basicorecursos naturales america cuarto basico
recursos naturales america cuarto basico
 
VISITA À PROTEÇÃO CIVIL _
VISITA À PROTEÇÃO CIVIL                  _VISITA À PROTEÇÃO CIVIL                  _
VISITA À PROTEÇÃO CIVIL _
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
 
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdfMapa Mental de estrategias de articulación de las areas curriculares.pdf
Mapa Mental de estrategias de articulación de las areas curriculares.pdf
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
 

IO

  • 1. ESCUELA SUPERIOR POLITECNICA DEL LITORAL INGENIERIA EN LOGISTICA Y TRANSPORTE CURSO: INVESTIGACION DE OPERACIONES II I TERMINO 2008-2009 1
  • 2. 1. Introducción: La logística y la estadística ¿Qué es la Investigación de Operaciones (IO)? La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma de decisiones. Sentido Modelo común matemátic o Intuición Vs. Metodología formal Estos métodos analíticos incluyen:  Optimización: encontrar la mejor decisión posible de entre un conjunto de alternativas. INVESTIGACION DE OPERACIONES I (LP, MIP)  Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que ahorra tiempo y costos. INVESTIGACION DE OPERACIONES II  Probabilidad y estadística: ayuda a resumir / analizar información, medir riesgos, realizar predicciones, etc. 2
  • 3. 1. Introducción: La logística y la estadística DEFINICIONES, USOS:  La Estadística, es la rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como la toma de decisiones.  Nos permite obtener información referida a grandes grupos de individuos conociendo los datos de sólo unos pocos.  Permite describir con exactitud los valores de datos económicos, políticos, sociales, psicológicos, biológicos y físicos, y sirve como herramienta para relacionar y analizar dichos datos.  La Estadística responde a las necesidades del desarrollo científico y tecnológico de la sociedad 3
  • 4. 1. Introducción: La logística y la estadística APLICACIONES:  Las técnicas de Investigación de Mercados permiten saber si un producto cualquiera será bien acogido en el mercado antes de su salida a este, o bien medir la audiencia en Televisión y Radio.  El Control de Calidad permite medir las características de la calidad de un producto, compararlas con ciertos requisitos y tomar decisiones correctivas si hay diferencias entre el funcionamiento real y el esperado.  Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo, etc.  En técnicas de decisión, permite la construcción de los denominados Árboles de decisión, una técnica muy usada para tomar decisiones en ambientes de incertidumbre 4
  • 5. 1. Introducción: La logística y la estadística ESTADISTICA = MEDIDA DE LO DESCONOCIDO  La estadística está asociada a la medición de la Incertidumbre  En logística la incertidumbre está presente de muchas formas: en la demanda de los artículos que están en el inventario, en los tiempos de entrega de los pedidos, en los costos de adquisición de la materia prima, en el costo del dinero, en la eficiencia de los empleados.  Generalmente ante la incertidumbre sobre el comportamiento futuro de una variable se deben aumentar las medidas de protección de aquello que pueda resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo en la gestión de inventarios, el responsable logístico deberá aumentar las existencias a medida que la demanda se hace mas imprevisible. En otras palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien investigada y medida. 5
  • 6. 1. Introducción: La logística y la estadística  Específicamente la Gestión de la Cadena de Suministro (SCM – Supply Chain Management) tiene como objetivo final la entrega de un producto a un cliente. Esto quiere decir, que la cadena de suministro incluye las actividades asociadas desde la obtención de materiales para la transformación del producto, hasta su colocación en el mercado.  El flujo en la cadena no solo es de productos, también es de información. Y es en el tratamiento de la información en donde es importante la estadística (y los modelos estadísticos de toma de decisión) 6
  • 7. 1. Introducción: La logística y la estadística Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su naturaleza en: •Estadística descriptiva, y •Estadística inferencial. POBLACION Todos los elementos objetos de estudio Estadística descriptiva PARAMETROS MUESTRA Subconjunto de la Estadística descriptiva población Estadística inferencial ESTIMADORES 7
  • 8. 2. Descripción de datos: Escalas de medida  El primer paso para poder hacer cualquier análisis estadístico es la obtención de la data. El proceso estadístico por medio del cual se toma datos de una población se denomina muestreo, el conjunto de datos obtenido se denomina muestra.  La data está conformada por las mediciones de características de los elementos de la población, dichas características se denominan variables.  Las variables difieren en "qué tan bien" se pueden medir, ¿cuánta información medible puede proporcionar su escala de medida?  Específicamente las variables son clasificadas como: (a) nominales, (b) ordinales, (c) de escala 8
  • 9. 2. Descripción de datos: Escalas de medida (a) Nominal: se utilizan nombres para establecer categorías  Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de inventario, etc. 9
  • 10. 2. Descripción de datos: Escalas de medida (b) Ordinales: nos permiten ordenar los artículos que medimos en términos del que tiene menos y el que tiene más de la calidad representada por la variable  Ejemplos: nivel socio-económico, rango, etc. 10
  • 11. 2. Descripción de datos: Escalas de medida (c) De escala: no sólo nos permiten ordenar los artículos que son medidos, sino también cuantificar y comparar los tamaños de diferencias entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten las declaraciones como las de que “x es dos veces más de y”.  Ejemplos: temperatura, peso, estatura, ventas, etc. 11
  • 12. 2. Descripción de datos: Escalas de medida  Complejidad: la complejidad aumenta con cada una de las escalas de medición, desde la simpleza de la escala nominal hasta el refinamiento de la escala de razón. El tipo de técnicas estadísticas que se puede emplear en cada escala de medida es diferente (por ejemplo en pruebas de hipótesis) Escala Pruebas Ordinal Paramétricas Nominal Pruebas No paramétricas 12
  • 13. 2. Descripción de datos: base de datos Creación de la base de datos electrónica  El software estadístico especializado (SPSS, SAS, S-PLUS, R, MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo de datos a analizar. Este ordenamiento está referido a filas y a columnas  Cuando hablamos de casos nos referimos a c/u de los registros obtenidos al investigar, muestrear, entrevistar, etc.  Con variables indicamos a las características que pueden tener estos datos 13
  • 14. 2. Descripción de datos: base de datos CASOS: si se usa una hoja electrónica generalmente se los ubica en filas 14
  • 15. 2. Descripción de datos: base de datos VARIABLES: en columnas 15
  • 16. 2. Descripción de datos: base de datos PROCESAMIENTO EN SPSS:  El editor de datos tiene dos vistas diferentes: vista de datos y vista de variables. La primera tiene una estructura similar a la de una hoja de cálculo (Excel), y se usa para introducir los datos que se quieren analizar. El SPSS maneja los datos en términos de variables, cada una de las cuales corresponde a una columna de la pantalla. Esto quiere decir que si queremos introducir unos datos, cada variable debe ir en una columna.  Al introducir los datos en el visor de datos, podemos pensar en que estamos rellenando una “encuesta”: cada línea horizontal de la cuadrícula sería un “encuestado" (caso), al que le corresponde un valor de cada una de las variables que intervienen en el problema (columnas). 16
  • 17. 2. Descripción de datos: base de datos  Entreviste a la totalidad de sus compañeros de clase y para cada una de las variables que se presentan a continuación construya la boleta de encuesta, defina las escalas de medición de cada una de ellas, y la base de datos electrónica. Variables a medir.  Género del entrevistado  Edad  Ingresos mensuales Promedio  Estado civil  Posee vehículo  Periódico preferido para leer noticias 17
  • 18. 2. Descripción de datos: medidas Medidas numéricas:  De tendencia central: Permiten describir la región “media” hacia adonde se agrupan los datos Probablemente la estadística descriptiva mas usada es la media. La media es una medida muy informativa de la tendencia “central” de la variable si se reporta con sus intervalos de confianza. Otras son: la moda, la mediana.  De dispersión: Son una medida de que tan dispersos están los datos (que tan lejanos están entre ellos). Las mas usadas son: desviación típica, varianza, coeficiente de variación, rango. 18
  • 19. 2. Descripción de datos: medidas  Media: ( o X ) mas usada  Desviación típica: ( o S ) depende de la magnitud de la variable, no puede tener la misma medida de incertidumbre la venta de un producto cuya media sea de 10 unidades mensuales que otro cuya venta media sea de 10.000  Coeficiente de variación: / , Que tan predecible es una variable en el futuro. Ver el ejemplo siguiente (demanda en la cadena de abastecimiento). 19
  • 20. 2. Descripción de datos: medidas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento  Se tienen los siguientes datos referidos a la venta mensual que hace un minorista de dos productos A, B en un año: p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10% v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%  Podría suponerse que la incertidumbre es menor para el producto A (si se observa la desviación típica). Sin embargo en el producto A la variabilidad representa el 85.1% sobre la media, mientras que en B es el 50.9%, por lo que en realidad la venta del producto A tiene mayor incertidumbre que la de B  Si agregamos la venta de los dos productos: p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10% v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50% v en ta to tal 1100 900 355 675 272 811 734 108 546 780 310 506 49.60% 20
  • 21. 2. Descripción de datos: medidas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento Algunas concusiones que se pueden observar de este caso simple:  El coeficiente de variación es mas sensible para detectar la variabilidad de una serie de datos  Cuánto menor es la venta de un producto, suele ser mayor su incertidumbre ( y por tanto proporcionalmente requerirán más inventario)  Cuando se agregan datos, la incertidumbre del total agregado disminuye (por tanto es mas fácil pronosticar sobre la demanda de grupos de productos) 21
  • 22. 2. Descripción de datos: gráficas DESCRIPCION GRAFICA  ¡ Una imagen vale más que mil palabras !  Un aspecto importante de la "descripción" de una variable es la forma de su distribución, que le dice la frecuencia de valores de rangos diferentes de la variable. Típicamente, un investigador está interesado en qué la distribución pueda aproximarse bien por la distribución normal  HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de frecuencia de la(s) variable(s) seleccionada(s)  Otros gráficos 22
  • 23. 2. Descripción de datos: gráficas H isto g ra m (In d ice s 8 v*2 0 c) N A S D A Q = 2 0 *0 ,1 3 9 1 *n o rm a l(x; -0 ,0 3 7 8 ; 0 ,2 7 5 8 ) 6 5 4 No of obs 3 2 1 0 -0 ,4 5 7 1 4 9 7 6 7 9 -0 ,1 7 8 9 5 7 5 4 8 8 0 ,0 9 9 2 3 4 6 7 0 4 0 ,3 7 7 4 2 6 8 8 9 5 -0 ,3 1 8 0 5 3 6 5 8 3 -0 ,0 3 9 8 6 1 4 3 9 2 0 ,2 3 8 3 3 0 7 7 9 9 0 ,5 1 6 5 2 2 9 9 9 1 NA S DA Q B iv ariate H is togram (S ports .s ta 14v *100c ) 23
  • 24. 2. Descripción de datos: gráficas ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento (... continuación) • Se pide analizar la siguiente tabla y entender el concepto de “efecto látigo), para ello leer el documento EFECTO LATIGO. DOC • Los datos son los siguientes: D E M AN D A E N U N ID AD E S P O R S E M AN A Sem . 1 Sem . 2 Sem . 3 Sem . 4 Sem . 5 Sem . 6 Sem . 7 Sem . 8 Sem . 9 Sem . 10 Sem . 11 D e m a n d a m e rc a d o 0 22 15 10 13 17 19 10 15 12 8 S to c k e n m in o ris ta 0 P e d id o s d e l m in o ris ta S to c k e n M a yo ris ta 0 P e d id o s d e l m a yo ris ta P u n to d e re p o s ic ió n p a ra e l m in o ris ta = 2 0 u n id a d e s . C a n tid a d d e p e d id o = 5 0 u n id a d e s . P u n to d e re p o s ic ió n p a ra e l m a y o ris ta = 3 0 u n id a d e s . C a n tid a d d e p e d id o = 1 0 0 u n id a d e s . T ie m p o s d e s u m in is tro p a ra e l m a y o ris ta y e l m in o ris ta (L e a d tim e ) = 1 s e m a n a 24
  • 25. 3. Control de Inventarios  VER DESARROLLO EN CLASE. 25
  • 26. 4. Bayes, Odds y Razón de verosimilitud  Experimento aleatorio: Un experimento en el cual el resultado es incierto, pero se conoce el conjunto de posibles resultados del mismo (denominado espacio muestral, )  Evento: cualquier subconjunto del espacio muestral. Y se denomina evento elemental a cualquier evento formado por un solo elemento.  Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la frecuencia con la que un evento A ocurre es el número de veces que el experimento aleatorio resulta en A.  La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el número total de repeticiones. 26
  • 27. 4. Bayes, Odds y Razón de verosimilitud Probabilidad Condicional e independencia: PROBABILIDAD CONDICIONAL: P A B P A/B ; Def: Dados dos eventos A, B se P B define la probabilidad condicional P B 0 de A dado B como: INDEPENDENCIA: Def: Dados dos eventos A, B se P A/B P A , y, dice que los dos eventos son P B/A P B independientes si 27
  • 28. 4. Bayes, Odds y Razón de verosimilitud ¿La evaluación de la prob. de A cambia si tenemos conocimiento de la ocurrencia de B? Def: Los eventos A, B se dicen independientes si: P(A/B)=P(A) P(B/A)=P(B) Obs: (1) A y B son independientes ssi: P(A B)=P(A)P(B) (2) A1, A2, …, An son independientes si para cualquier subconjunto de eventos A(1), A(2), …, A(k): k k P A i P Ai i 1 i 1 28
  • 29. 4. Bayes, Odds y Razón de verosimilitud Regla de Bayes: PARTICIONES: Def: Dado un e.m. se dice que los eventos B1, B2, …, Bk forman una partición si: 1. B1 B2 … Bk= 2. Bi Bj = ; i j PROBABILIDAD TOTAL: P A P A / B1 P B1 P A / B2 P B2 ... P A / Bk P Bk TEOREMA DE BAYES: P A/ Bj P Bj P Bj / A k P A / Bi P Bi i 1 29
  • 30. 4. Bayes, Odds y Razón de verosimilitud TEOREMA DE BAYES: Prob. posterior Verosimilitudes P A Bi P Bi P Bi A n P A Bj P Bj j 1 Predictor o evidencia Prob. A priori P(A)=verosimilitud marginal 30
  • 31. 4. Bayes, Odds y Razón de verosimilitud TEOREMA DE BAYES: Proporciona una regla matemática que explica cómo uno debe cambiar sus creencias teniendo en cuenta nueva evidencia. Es decir permite que los investigadores combinen nuevos datos con su conocimiento o experiencia existente. Un ejemplo didáctico es imaginarse que un recién nacido observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra vez o no. Lo natural será que asigne probabilidades a priori iguales a ambos resultados posibles, lo cual representa colocando un bloque blanco y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño coloca otro bloque blanco en el bolso. La probabilidad que un bloque extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a 2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a 3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan probable de que el sol salga o no salga cada mañana se modifica para convertirse en una casi-certeza de que el sol siempre se levantará. 31
  • 32. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Una chica generalmente prefiere usar pantalón para ir a la Universidad, y falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se puede asegurar que: P(pantalón/va a la U)=0.8 P(falda/va a una fiesta)=0.9 Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una fiesta con probabilidad 1–p), el valor de p podría ser asignado subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a la frecuencia con la que va a la universidad los viernes (asignación frecuentista de la probabilidad) 32
  • 33. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Predictor (evidencia): (1): Falda (2): Pantalón P(va a la U)=p Prob. a priori: P(va a F) = 1-p Prob. Posterior: 0.8 p p* P V a a la U pantalón 0.7 p 0.1 P(va a F/pantalón) = 1-P(va a la U/pantalón) P(va a la U/falda)=1- P(va a F/falda) 0.9(1 p) p ** P V a a F falda 0.9 0.7 p 33
  • 34. 4. Bayes, Odds y Razón de verosimilitud Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que a una fiesta: p=0.5 p P V a a la U pantalón 0.88 La evidencia va a aumentar nuestra creencia de que va a la Universidad p ** P V a a Fiesta falda 0.82 O sea que es menos probable que la chica use pantalón si va a la U que use falda si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U dado que sale con pantalón que vaya a una fiesta si es que sale con falda (0.88>0.82). ¿Paradoja?: 34
  • 35. 4. Bayes, Odds y Razón de verosimilitud La relación entre las probabilidades a posteriori p* y p** en función de la probabilidad a priori p se observa en el siguiente gráfico. En negro p  , en rojo p  1 0.8 0.6 0.4 0.2 p 0.2 0.4 0.6 0.8 1 35
  • 36. 4. Bayes, Odds y Razón de verosimilitud ¿Paradoja?: No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos) Para esto se definen los odds (que tan probable es un evento frente a otro): Razón de verosimiltud: L.R P Bi A P A Bi P Bi P Bj A P A Bj P Bj Odds Posterior Odds Apriori Obs: si A es independiente con Bi y Bj : LR=1 La información de LR es que es una medida de la información contenida exclusivamente en los datos, generalmente se aplica cuando Bi y Bj son complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y 36 DAÑADA, ETC.
  • 37. 4. Bayes, Odds y Razón de verosimilitud Odds: (razón??): Indicador de cuánto mas probable es la ocurrencia de un evento frente a otro En el ejemplo: P U P antalón P U P P antalón U P U 8 P F P antalón P F P P antalón F P F P F Falda P F P Falda F P F 4.5 P U Falda P U P Falda U P U Es decir el predictor Pantalón es más verosímil que falda !! Por ejemplo con p=1/2: Con pantalón es 8 veces más probable acertar con la predicción que va a la Universidad, Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta 37
  • 38. 4. Bayes, Odds y Razón de verosimilitud Ejemplo: Supongamos que la incidencia de una cierta enfermedad en una población es de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5% de las pruebas de personas no enfermas indicarán la presencia de la enfermedad, mientras que el 1% de las pruebas en gente enferma no detectarán la presencia de la enfermedad. a) Si una persona se hace la prueba, y el test da positivo, cuál es la probabilidad de que realmente esté enferma? b) Si una persona se hace la prueba, y el test da negativo, cuál es la probabilidad de que realmente esté sana? 38
  • 39. 4. Bayes, Odds y Razón de verosimilitud En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de las enfermedades posibles padece?  Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que tuvo fiebre.  El conocimiento no es determinista, las relaciones entre enfermedad y síntomas no son exactas. Estas mismas características se pueden observar en otras aplicaciones:  Control de Calidad  Confiabilidad  Sistemas expertos 39
  • 40. 4. Bayes, Odds y Razón de verosimilitud Modelos Bayesianos (un ejemplo) Se considera el envío de N artículos manufacturados de un lote de producción. Un número desconocido N de estos son defectuosos. Es muy costoso examinar todos los artículos, por lo cual para obtener información sobre la calidad del lote, se obtiene una muestra de n objetos sin reemplazo para ser inspeccionados. El dato observado es el número de artículos defectuosos en la muestra.  Es la proporción de defectuosos en la muestra  N es el parámetro (desconocido), y en principio puede tomar cualquier valor de 0 a N, así, aunque el e.m. esté completamente definido no se puede especificar la estructura de probabilidad completamente, sin embargo se puede determinar una familia {H(N , N, n)} de distribuciones de probabilidad para la variable aleatoria: X= Número de defectuosos en la muestra 40
  • 41. 4. Bayes, Odds y Razón de verosimilitud Modelos Bayesianos (un ejemplo) X= Número de defectuosos en la muestra N N N k n k P X k N n En esta discusión: N es el parámetro, Posibles valores de : {0, 1/N, 2/N,…, 1} Aquí asumimos que no hay más información disponible acerca del verdadero valor del parámetro que la proporcionada por los datos. Sin embargo hay situaciones en las cuales se puede agregar algo mas: vg es posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los clientes nos proveen de registros precisos sobre el número de defectuosos que han recibido, podemos construir una distribución de frecuencias para la proporción de defectuosos pasados. Así se puede pensar en el valor de como en la realización de una v.a. 41
  • 42. 5. Variables Aleatorias Def.- Dado un e.m. , se denomina variable aleatoria (v.a.) a cualquier función: X : IR Las v.a. tienden a hacer “olvidar” el e.m. DISTRIBUCIONES DE PROBABILIDAD: Def.- Dada la v.a. X, se denomina función de distribución a la función: F x P X x P w X w x 42
  • 43. 5. Variables Aleatorias VARIABLES ALEATORIAS DISCRETAS: Una v.a. es discreta si su rango es un conjunto finito o infinito numerable. Provienen de procesos de “contar” VARIABLES ALEATORIAS CONTINUAS: Una v.a. es contínua si F(x) es una función contínua Provienen de procesos de “medir” 43
  • 44. 5. Variables Aleatorias Función de probabilidad p(x): VARIABLES ALEATORIAS DISCRETAS: p(x)=P(X=x) Función de densidad f(x): VARIABLES ALEATORIAS CONTINUAS: b P a X b f x dx a f (x) P(a X b) a b 44
  • 45. 5. Variables Aleatorias VARIABLES ALEATORIAS DISCRETAS: p x 0 p x 1 todo x VARIABLES ALEATORIAS CONTINUAS: f x 0 f x dx 1 45
  • 46. 5. Variables Aleatorias Esperanza de una V.A. X: C aso discreto: E X x p x todo x C aso contínuo: E X x f x dx Esperanza de una función g de la V.A. X: C aso discreto: E g X g x p x todo x C aso contínuo: E g X g x f x dx 46
  • 47. 6. Distribuciones Distribuciones discretas más importantes Experimento binomial: Muchas variables aleatorias discretas están basadas en un experimento (denominado experimento binomial) que satisface las siguientes condiciones:  El experimento consiste en una secuencia de n intentos, donde n se fija antes del experimento.  Los intentos son idénticos, y cada uno de ellos puede resultar en dos posibles resultados, que se denotan por éxito (E) o fracaso (F) (p(E)+p(F)=1).  Los intentos son independientes, por lo que el resultado de cualquier intento en particular no influye sobre el resultado de otro intento.  La probabilidad de éxito es constante de un intento a otro, y se representa por p. 47
  • 48. 6. Distribuciones Distribuciones discretas más importantes Bernoulli: 0 si resu lta fracaso p 0 1 p E X p X 1 si resu lta éx ito p 1 p V ar X p 1 p Ejemplo típico: lanzamiento de una moneda Binomial: Deben cumplirse las características de un experimento binomial X # d e éx ito s en n in ten to s n x n x p x p 1 p ; x 0,1, ..., n x E X np V ar X np 1 p 48
  • 49. 6. Distribuciones Distribuciones discretas más importantes Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de preguntas bien contestadas por un estudiante que responde al azar un examen tipo selección múltiple que consiste de 10 preguntas, cada una con 4 alternativas de las cuales sólo una es correcta. Ejemplo: Expresar en una tabla de valores la función de probabilidad y la función de distribución acumulada de la variable aleatoria X: Número de mujeres seleccionadas al seleccionar aleatoriamente 8 personas de un grupo de 500 personas de las cuales 280 son mujeres. En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso) 49
  • 50. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos con reemplazo y la distribución binomial: Elegir al azar con reemplazo significa que escogemos al azar un elemento de un conjunto y lo regresamos para elegir de nuevo al azar. Esto garantiza la independencia de las elecciones y nos lleva a una distribución binomial. Si una caja contiene N bolas de las cuales A son rojas, entonces la probabilidad de escoger al azar una bola roja es: p = A/N. Si repetimos el experimento sacando n bolas con reemplazo la probabilidad de que x de ellas sean rojas es: x n x n A A P ( x) 1 (x 0 ,1,.... n ) x N N 50
  • 51. 6. Distribuciones Distribuciones discretas más importantes Ejemplo: (Chuck–a-luck) En este juego se elige un número entre 1 y 6. Luego se lanza tres dados, si el número elegido sale en los 3 dados se cobra 3 dólares, si sale en 2 de los dados se cobra 2 dólares, y si sale en un dado se cobra un dólar. Si el número no sale en ninguno se paga 1 dólar ¿ES UN JUEGO JUSTO? Sugerencia: Hallar la ganancia esperada del juego, si esta es positiva el juego es favorable al jugador, si sale negativa es desfavorable al jugador, si sale cero es indiferente. 51
  • 52. 6. Distribuciones Distribuciones discretas más importantes Geométrica: X # de intentos hasta obtener el primer éxito 1 E X x 1 p p x p 1 p ; x 1, 2, ... 1 p V ar X 2 p Binomial Negativa: X # d e in ten to s h asta o b ten er el r ésim o éx ito r x 1 r x r E X p x p 1 p ; x r, r 1, ... p r 1 r 1 p Var X 2 p En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p) 52
  • 53. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos sin reemplazo y distribución hipergeométrica: Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta característica estudiada que los hace distintos del resto (es decir r objetos de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan al azar (sin reposición) n objetos (este es por ejemplo el caso de muestreo). Entonces la variable aleatoria X: número de objetos seleccionados que tienen la característica estudiada, sigue una distribución hipergeométrica con parámetros N, r, n. r N r x n x nr p x ; x r, n x N r; E X N N n 53
  • 54. 6. Distribuciones Distribuciones discretas más importantes Selección de objetos sin reemplazo y distribución hipergeométrica: En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al azar una muestra de 4 computadoras: a. Cuál es la probabilidad que exactamente 2 tengan fallas b. Cuál es la probabilidad que al menos una tenga falla c. Cuál es la probabilidad que a lo mucho 2 tengan fallas En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N) 54
  • 55. 6. Distribuciones Distribuciones discretas más importantes Poisson: Una variable aleatoria X de Poisson “cuenta” el número de eventos (independientes) que ocurren en una unidad de tiempo, de espacio, de volumen, etc. Por ejemplo: el número de llegadas de personas a la fila de un cajero en un banco en una hora, el número de faltas de ortografía que comete una mecanógrafa en una hoja, el número de accidentes de trabajo por operario en un año determinado en una empresa, el número de llamadas que llegan a una central telefónica por minuto. Su distribución de probabilidades es: x E X p x e ; x 0,1, 2, ... x! V ar X 55
  • 56. 6. Distribuciones Distribuciones discretas más importantes A una operadora de transporte terrestre ingresan en promedio 20 camiones en una hora. El administrador ha determinado (con una prueba K-S) que el número de camiones que llegan por hora se distribuye aproximadamente con una distribución de Poisson. La capacidad de las instalaciones es para servir hasta 25 camiones por hora. a. Cuál es la probabilidad que en una hora determinada ingresen exactamente 20 camiones? b. Menos de 20 camiones? c. Que la capacidad de las instalaciones se vea desbordada? En EXCEL la sintaxis es: POISSON(x, , falso) 56
  • 57. 6. Distribuciones Distribuciones discretas más importantes En un cruce de carreteras se producen accidentes a razón de 2 por semana (en media), siguiendo aproximadamente una distribución de Poisson. Reconociendo que la frecuencia anterior es intolerable se ha decidido instalar un semáforo en dicho cruce. La siguiente semana de la instalación sólo ocurre un accidente. a) ¿ Se puede afirmar que el semáforo es efectivo ?. b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos semanas ?. c) ¿ Y si se hubiera producido un accidente en 4 semanas ? 57
  • 58. 6. Distribuciones Distribuciones discretas más importantes Bombas sobre Londres en la II Guerra Mundial (Feller) Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en un bloque como una variable aleatoria de Poisson con λ=400 1/100=4: Observado Predicho 58
  • 59. 6. Distribuciones Distribuciones contínuas más importantes Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a, b], si su función de densidad es: 2 1 a b b a f x ; a X b E X ; V ar X b a 2 2 Se representa con X U[a,b] a b Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material desde una cantera hasta un centro de acopio se distribuye aproximadamente mediante una distribución uniforme y que el viaje dura entre 1 hora y 1 hora y 45 minutos. a. Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25 b. Cuál es la probabilidad que un camión emplee más de 1h:15 c. Si se demora más de una hora y media la empresa es multada con 5$. En un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario por multas que deberá pagar la empresa? 59
  • 60. 6. Distribuciones Distribuciones contínuas más importantes Normal: Una variable aleatoria X tiene distribución normal con parámetros y 2 si su función de densidad es: 2 x 1 2 2 f x e ; x IR 2 μ 2 Donde: E X ; Var X Se representa con X N[ , 2] 60
  • 61. 6. Distribuciones Distribuciones contínuas más importantes Normal: Un gran número de estudios indica que la distribución normal proporciona una adecuada representación, por lo menos en una primera aproximación, de las distribuciones de una gran cantidad de variables físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales como la temperatura y la precipitación pluvial, mediciones efectuadas en organismos vivos, calificaciones en pruebas de actitud, mediciones físicas de partes manufacturadas, errores de instrumentación, demanda de productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al suponer para una situación dada un modelo de probabilidad normal sin previa comprobación. Si bien es cierto que la distribución normal es la que tiene un mayor uso, es también de la que más se abusa. Quizá esto de deba a la mala interpretación de la palabra "normal“ Suponer de manera errónea una distribución normal puede llevar a errores muy serios. 61
  • 62. 6. Distribuciones Distribuciones contínuas más importantes Normal: Esta función tiene un gran número de aplicaciones en estadística, incluidas las pruebas de hipótesis. En Excel la sintaxis es:  Para la distribución acumulada: DISTR.NORM(x, , , acum)  Para la inversa: DISTR.NORM.INV(1- , , ) 1- x 62
  • 63. 6. Distribuciones Distribuciones contínuas más importantes Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan grande debe ser el inventario disponible a principio de un mes para que la probabilidad de que la existencia se agote no sea mayor de 0.05? (Ejemplo) El Bar "El Imperio" sirve chop a sus clientes. Se ha determinado que la demanda diaria de barriles de cerveza sigue una distribución normal con una media de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de $0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de barriles de cerveza desde el distribuidor es de 3 días. Determinar: a) El tamaño del lote óptimo de compra. b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante "El Imperio" desea que el nivel de servicio sea de un 90 %. c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 % fuera deseado? 63
  • 64. 6. Distribuciones Distribuciones contínuas más importantes Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de exportación sigue una distribución normal, un determinado inspector conoce por su dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm. a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la probabilidad de que esto ocurra en una determinada partida. b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90% de las naranjas. c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la probabilidad de que una partida sea aceptada. 64
  • 65. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: Una variable aleatoria X tiene una distribución exponencial con parámetro , si su densidad es: 1 x/ f x e ; x>0 2 Donde: E X ; Var X Se suele representar con =1/ En el caso que X represente el tiempo entre llegadas, es el tiempo promedio entre llegadas y sería la frecuencia de llegadas por 1 ut 65
  • 66. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: Esta distribución permite (entre otras cosas) establecer el tiempo entre dos sucesos, tal como el tiempo que tarda una máquina de cajero automático en entregar efectivo, el tiempo entre la llegada de dos camiones a una terminal, etc. La sintaxis en EXCEL es:  Para la distribución acumulada: DISTR.EXP(x, , acum) 66
  • 67. 6. Distribuciones Distribuciones contínuas más importantes Exponencial: (Ejemplo) El promedio de llegada de camiones a una bodega para ser descargados es de 3 camiones por cada hora. Se ha determinado que el tiempo que transcurre entre dos llegadas sucesivas de camiones es exponencial. a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue antes de 10 minutos. b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el próximo llegue después de cuarto de hora. c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como máximo 20 camiones a descargar NOTA: Si el tiempo entre dos llegadas es Exponencial( ), el número de llegadas por unidad de tiempo es Poisson( ) 67
  • 68. 6. Distribuciones Distribuciones contínuas más importantes Beta: Una variable aleatoria X tiene una distribución exponencial con parámetros y , si su función de densidad es: 1 1 f x x 1 x ; 0< x<1 1 Donde: E X ; V ar X 2 1 Se representa con X ( , ) Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy, logística, etc 68
  • 69. 6. Distribuciones Distribuciones contínuas más importantes Beta:La distribución beta se usa generalmente para estudiar las variaciones, a través de varias muestras, de un porcentaje que representa algún fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de impurezas en un producto, el porcentaje de tiempo que realmente trabaja un empleado en su horario de trabajo, la distribución del intervalo de tiempo necesario para completar una fase de proyecto PERT, etc. La sintaxis en EXCEL es:  Para la acumulada: DISTR.BETA(x; , )  Para la inversa: DISTR.BETA.INV(p, , ) 69
  • 70. 6. Distribuciones Distribuciones contínuas más importantes Beta: (Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4). Determinar : a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad dada. b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en la ciudad un año cualquiera. (Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían información a otros sensores en diferentes formatos. El porcentaje X de las señales que se envían y que son directamente compatibles para todos los sensores del sistema sigue una distribución beta con α = β = 2. a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos enviadas en el sistema sean directamente compatibles para todos los sensores. b) Calcula la media y la varianza de X 70
  • 71. 6. Distribuciones Distribuciones conjuntas Si se tienen las v.a. X1, X2, …, Xk se denomina al vector X=(X1, X2, …, Xk) vector aleatorio. Def.- La función de distribución conjunta de un vector aleatorio X es: F (x1, x2, …, xk)=P(X1 x1, X2 x2, …, Xk xk) OBS: Dada la f.d.c. de un vector aleatorio X, podemos determinar: P(X A) A IRk 71
  • 72. 6. Distribuciones Distribuciones conjuntas Funciones de densidad: CASO DISCRETO: Def: Si X1, X2, …, Xk son v.a.d. definidas en el mismo espacio muestral, la función de distribución de probabilidades conjunta es: p(x1, x2, …, xk)=P(X1=x1, X2 =x2, …, Xk =xk) CASO CONTINUO: Def: En el caso contínuo se define la función de densidad conjunta como: f(x1, x2, …, xk) tal que: P(X A)  f x1 , x 2 , ..., x k dx1 dx 2 ...dx k A 72
  • 73. 6. Distribuciones Distribuciones conjuntas Distribuciones Marginales: CASO DISCRETO: Def: Si X1, X2, …, Xk son v.a.d. con f.d.p. conjunta p(x1, x2, …, xk), se denomina f.d.p. marginal de xi a: p i ( xi )   p x1 , x 2 , ..., x k x1 x2 xi 1 xi 1 xk CASO CONTINUO: Def: En el caso contínuo se define la función de densidad marginal de xi a: f i ( xi )  f x1 , x 2 , ..., x n dx1 ...dx i 1 dx i 1 ...dx n 73
  • 74. 6. Distribuciones Distribuciones conjuntas Independencia: Def: X1, X2, …, Xk se denominan v.a. independientes si para cualquier subconjunto X1, X2, …, Xp: p f x1 , ..., x p f i xi i 1 74
  • 75. 7. INFERENCIA ESTADISTICA Estimación de parámetros Cuando se supone conocida una distribución para las observaciones dadas, el parámetro ( ) generalmente es desconocido, es decir se supone conocida la “forma” de la distribución salvo el valor de su parámetro. Para estimar el valor del parámetro se usan las observaciones para obtener un número, denominado el “estimador”, representado con ˆ Pero, ¿cómo obtener buenos estimadores? -Método de los momentos -Método de la Máxima Verosimilitud 75
  • 76. 7. INFERENCIA ESTADISTICA Estimación de parámetros Estimadores de Máxima Verosimilitud (ML) Dadas las observaciones X1, X2, …, Xn, obtenidas de una población con densidad f(x; ), se denomina función de verosimilitud de la muestra a: n L( X ; ) f x1 , x 2 , ..., x n / f xi i 1 El estimador de máxima verosimilitud delˆ parámetro es el valor de que maximiza L. Es decir, se obtiene resolviendo la ecuación vectorial: L L( X ; ) 0 76
  • 77. 7. Inferencia estadística INTERVALOS DE CONFIANZA  Los intervalos de confianza para un parámetro cualquiera (por ejemplo la media) nos dan un rango de valores alrededor del estimador dónde esperamos se encuentre el verdadero valor del parámetro (de la población), con cierto nivel dado de certeza.  Es decir, un intervalo de confianza de (1- ) 100% de confianza para un parámetro es un intervalo de la forma: [LIC, LSC], donde: P(LIC LSC) = 1- 77
  • 78. 7. Inferencia estadística INTERVALOS DE CONFIANZA  Ejemplo: En una hacienda hay 2000 reses, se ha escogido una muestra de 50 reses y se ha obtenido que en promedio pesan 420 Kg. Se conoce que la desviación típica de los pesos de las reses es de 48 kg. a. Hallar el IC del 90% para el peso promedio real de las reses de la hacienda. b. Hallar el IC del 98% para el peso promedio real de las reses de la hacienda. 78
  • 79. 7. Inferencia estadística PRUEBAS DE HIPOTESIS ¿Qué es una prueba de hipótesis? Es un procedimiento estadístico diseñado para comprobar una hipótesis que se hace el investigador sobre un parámetro desconocido o sobre la distribución de una población.  Las pruebas de hipótesis se realizan en todos los ámbitos en los cuales puede contrastarse la teoría frente a la observación, probar una hipótesis implica tomar una decisión al comparar la muestra observada con una suposición que se hace de la realidad. 79
  • 80. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Los elementos de una prueba de hipótesis son: - Hipótesis Nula (Ho) - Hipótesis Alternativa (Ha) - Estadístico de Prueba (EP) - Región de rechazo (R.R.) - o nivel de significancia (p) 80
  • 81. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Decisión y error en una P.H. Decisión Rechazar Ho Aceptar Ho Ho es verdadera Error tipo I Decisión Correcta Ho es falsa Decisión Correcta Error tipo II 81
  • 82. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Decisión y error en una P.H. P(Error tipo I)= P(Error tipo II)= Nivel de significancia: Menor valor de alfa para el cual se rechaza la hipótesis nula 82
  • 83. 7. Inferencia estadística PRUEBAS DE HIPOTESIS  La significancia estadística de un resultado es la probabilidad que la relación observada (por ejemplo, entre las variables) o una diferencia (por ejemplo, entre las medias) en una muestra ocurrió por pura coincidencia (“la suerte de la lotería”), y que en la población de la que la que se escoge la muestra no existe tal relación o diferencias  En muchas áreas de investigación, el valor p de .05 se toma habitualmente como un valor crítico del nivel del error aceptable 83
  • 84. 7. Inferencia estadística PRUEBAS DE HIPOTESIS Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición 84
  • 85. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA t La prueba t para muestras independientes  La prueba t es el método mas comúnmente usado para evaluar las diferencias entre las medias de dos grupos.  Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la muestra son muy pequeños (por ejemplo, tan pequeño como 10; algunos investigadores exigen por lo menos eso)  El nivel p reportado en una t-prueba representa la probabilidad de error involucrada en aceptar nuestra hipótesis investigada sobre la existencia de una diferencia. 85
  • 86. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA t  Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre las medias y las medidas de variación en los dos grupos pueden visualizarse en los diagramas de caja 86
  • 87. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBA DE ANOVA  A menudo sucede en la investigación práctica que se necesita comparar más de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar grupos creados por más de una variable independiente y controlando la influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de Droga, y tamaño de Dosis).  En estos casos, se necesita analizar los datos usando el denominado Análisis de Varianza, que puede considerarse como una generalización de la prueba t 87
  • 88. 7. Inferencia estadística PRUEBAS DE HIPOTESIS PRUEBAS NO PARAMETRICAS  Muchas veces no se puede asumir una distribución dada para una población de donde se han obtenido la(s) muestra(s), en ese caso se deben utilizar las denominadas pruebas no paramétricas o libres de distribución, a continuación se presenta una tabla donde se observan las pruebas no paramétricas equivalentes a las paramétricas. 88
  • 89. 8. Pruebas de Bondad de ajuste Muchas veces no se está claro si se cumplen los supuestos de alguna distribución, otras veces es necesario asumir una distribución teórica para modelizar la distribución de una variable, para esto se tienen las pruebas de bondad de ajuste. Las pruebas de bondad de ajuste más usadas son: -Prueba 2 -Prueba K-S (Kolmogorov – Smirnov) 89
  • 90. 8. Prueba de Bondad de ajuste 2 Se pueden clasificar a las GOF (goodness-of-fit) en dos grupos: (1) Las que dividen al rango de los datosPrueba 2 en “casillas” disjuntas, y luego el número de observaciones que caen en cada casilla es comparado con el número esperado bajo la distribución supuesta en la hipótesis nula. Es natural usarlas en el caso discreto. Prueba K-S (2) En estas pruebas se comparan la función de distribución empírica de la muestra y la función teórica dada en la hipótesis nula. El estadístico de prueba está basado en alguna medida de distancia entre las dos distribuciones. Se usan casi exclusivamente para el caso de distribuciones contínuas. 90
  • 91. 8. Prueba de Bondad de ajuste 2 En la prueba 2 lasn observaciones son agrupadas en k casillas disjuntas, c/u de las cuales debe contener por lo menos 5 observaciones, sea ni la frecuencia observada en la casilla i. Lo que se desea probar es: Ho: La distribución de la población es Fo, vs. Ha: La distribución de la población no puede ser Fo, Con la distribución Fo dada en Ho, se calculan las probabilidades de casilla pi, y luego la frecuencia esperada de casilla = n pi 91
  • 92. 8. Prueba de Bondad de ajuste 2 El estadístico de prueba es: 2 k 2 F .O . F .E . i 1 F .E . Y la región de rechazo es: 2 2 con k -1- L grados de libertad Siendo L el número de parámetros que se deben estimar. Nota: La distribución 2 con grados de libertad se define como una distribución Gamma con parámetros = /2 y =2 92
  • 93. 8. Prueba de Bondad de ajuste 2 En resumen, la Prueba de bondad de ajuste 2 es: Ho: La distribución de la población es Fo(x) Ha: La distribución de la población no puede ser Fo(x) 2 k 2 F .O . F .E . E.P.: i 0 F .E . 2 2 R.R.: Obs: La frecuencia observada de cada casilla F.O. debe ser 5 93
  • 94. 8. Prueba de Bondad de ajuste K-S Ho: La distribución de la población es Fo Ha: La distribución de la población no puede ser Fo E.P.: D m áxim a distancia Fo ( x ), F x R.R.: D Dn, La función F(x) es la distribución empírica de la muestra 94
  • 95. 8. Prueba de Bondad de ajuste K-S 95
  • 96. 9. Métodos de pronóstico: regresión lineal y medias móviles. La previsión de la demanda (mas comúnmente conocida como el pronóstico de la demanda) es la estimación de los niveles futuros que adoptará la demanda y es un elemento de gran relevancia en la planificación de la empresa y, por tanto, en la definición de los objetivos de los diferentes departamentos de la empresa. Los métodos de estimación de la demanda se clasifican en dos tipos: •Los métodos cuantitativos •Los métodos cualitativos Ver documento “pronóstico de la demanda.doc” 96
  • 97. 10. Generalización del teorema de Bayes  La regla de Bayes también se puede aplicar a v.a.c.. Supongamos que tenemos una v.a.c. x que es especificada por una distribución indexada por un parámetro A priori: Podemos cuantificar nuestro conocimiento a priori acerca del valor del parámetro y estimar una distribución a priori p Verosimilitud Esta es la distribución (o verosimilitud) de la v.a. x, es decir: p x 97
  • 98. 10. Generalización del teorema de Bayes A posteriori: Aplicando la regla de Bayes obtenemos la distribución posterior: p p x p x = p x Donde el denominador es: p x = p p x d  Cualquier tipo de inferencias pueden hacerse a partir de la distribución posterior del parámetro del modelo , donde el dato x incluye información tanto de la a priori como de la verosimilitud. 98
  • 99. 10. Generalización del teorema de Bayes Esto es generalizado para una muestra aleatoria x1, x2, …, xn proveniente de una distribución que depende de los parámetros 1, 2, …, j. A Priori: Cuantificamos nuestras creencias acerca de los parámetros en la forma de una distribución conjunta. p( 1, 2, …, j) Donde no necesariamente son independientes. Verosimilitud: Con la muestra, la distribución conjunta de las observaciones es: n p x1 ,  , x n 1 , , J = p xi 1 , , J i 1 99
  • 100. 10. Generalización del teorema de Bayes Posterior: Aplicando la regla de Bayes: p 1 , , J p x1 ,  , x n 1 , , J p , , x1 ,  , x n = 1 J p x1 , , x n Donde el denominador es: p x1 ,  , x n = p 1 , , J p x1 , , x n d 1 d J Notación: p 1 , , J x1 ,  , x n kp 1 , , J p x1 ,  , x n 1 , , J p 1 , , J p x1 ,  , x n 1 , , J 100
  • 101. 10. Generalización del teorema de Bayes  la estadística Bayesiana es nada más que un modelo formal de aprendizaje en un ambiente de incertidumbre aplicado a la inferencia estadística. Lo a priori expresa mis creencias sobre antes de observar los datos; mientras que la distribución expresa mis creencias actualizadas sobre después de observar los datos.  A partir de esto, llevar a cabo un análisis Bayesiano es ilusoriamente simple y siempre se procede de la siguiente manera:  Formular la distribución muestral p y | y la distribución a priori p .  Calcular la distribución posterior p | y según Bayes  ¡Eso es todo! Toda la información acerca de está contenida ahora en la distribución posterior. Por ejemplo la probabilidad que A es: P A| y p |y d A 101
  • 102. 10. Generalización del teorema de Bayes  Ya que la distribución posterior es la representación completa de sus creencias sobre , a veces es conveniente informar una sola estimación, por ejemplo el valor más probable de , este se denomina entonces el estimador bayesiano de .  Aplicación: sea y = x1, x2, …, xn una muestra aleatoria de puntuaciones, con la suposición que estas provienen de una población normal con media y varianza 2, 2 xi  N , i .i . d . n n/2 n 1 2 p y 2 ex p 2 xi 2 i 1  Si usamos la a priori: 1/ 2 1 1 2 p 2 0 exp 2 0 2 0 102
  • 103. 10. Generalización del teorema de Bayes  Donde 0 y 02 son la media y la varianza a priori conocidas, antes de conocer los datos  La distribución posterior de es: p y p p y p p y p y p y p d  El numerador es: n n 1 /2 n 1 1 2 1 2 p y p 2 0 exp 2 xi 2 0 2 i 1 2 0 2 2 n/ x 1/ 0 0 2 1 C on 2 2 ; 2 2 n/ 1/ 0 n/ 1/ 0 103
  • 104. 10. Generalización del teorema de Bayes n 1 2 1 2 Si h y 2 xi x 2 1 2 x 0 2 i 1 2 0 n  Entonces: n 1/ 2 1 1 2 p y p p y 2 exp 2 2 i 1 n/2 n 1  Donde: p y 2 0 exp h y  Luego: 1/ 2 1 1 2 p y 2 exp 2 2  O también: 1 2 p y exp 2 2 104
  • 105. 10. Generalización del teorema de Bayes  En el siguiente gráfico se observan las densidades a priori y posterior de para diferentes muestras.  Muestra: {1,0,6,0,3} 1 0.8 0.6 0.4 0.2 105 -2 -1 1 2 3 4 5
  • 106. 11. TEORIA DE LA DECISION Def: La teoría de la decisión estudia los métodos analíticos que proveen las herramientas para analizar situaciones en las cuales hay que tomar una o más decisiones. La decisión tomada debe ser la mejor posible respecto a algún criterio de optimalidad ( o la mejor posible “en promedio”) 106
  • 107. 11. TEORIA DE LA DECISION AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES  Decisiones bajo Certidumbre  Decisiones bajo incertidumbre  Decisiones bajo riesgo 107
  • 108. 11. TEORIA DE LA DECISION Decisiones bajo Certidumbre: Se conocen con certeza los resultados o consecuencias de seleccionar cada alternativa Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner en una libreta de ahorros al 3.0% de interés anual o comprar un certificado de depósito que paga el 5% anual. Asumiendo que ambas alternativas son seguras el certificado de depósito nos da un retorno mayor. La decisión óptima está clara, fácil de obtener!. 108
  • 109. 11. TEORIA DE LA DECISION Otros problemas de decisión bajo certidumbre son muy complicados, en ese caso solo se puede obtener una “buena” solución. Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar cierto producto en determinado intervalo de tiempo, se conoce la ubicación, la demanda y la ventana de tiempo de los clientes. También se tiene un depósito, desde donde deben salir los vehículos (que tienen una capacidad q conocida) cargados para satisfacer la demanda de los clientes. Se debe decidir cuántos vehículos enviar y por donde enviarlos. 109
  • 110. 11. TEORIA DE LA DECISION Red física: Ubicaciones de clientes 110
  • 111. 11. TEORIA DE LA DECISION 0 Grafo matemático: Nodos, arcos y pesos 111
  • 112. 11. TEORIA DE LA DECISION 64 2 44 41 37 36 46 45 38 9475 43 40 39 87 3 42 80 71 101 62 73 74 61 56 69 55 89 82 79 72 97 99 70 94 54 1 91 81 95 18 1513 48 83 92 93 68 17 12 16 11 66 67 96 14 10 100 57 63 51 35 30 28 32 53 84 65 33 2927 31 85 88 87 58 34 86 60 75 52 64 98 25 21 23 50 77 59 20 76 26 22 19 24 49 90 78 Obtención de rutas individuales 112
  • 113. 11. TEORIA DE LA DECISION Costo del ruteo: 19794 Costo del ruteo: 1307 113
  • 114. 11. TEORIA DE LA DECISION Decisiones bajo Incertidumbre: No se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo producto a su línea de producción. Las alternativas que se estudian son: hacer una ampliación grande, hacer una ampliación pequeña, o no hacer ninguna ampliación a las actuales instalaciones para producir el nuevo producto. Si no conocemos las probabilidades asociadas con cada uno de los resultados para las distintas alternativas tenemos que tomar una decisión bajo una completa incertidumbre. 114
  • 115. 11. TEORIA DE LA DECISION Decisiones bajo Riesgo: Se conocen las probabilidades asociadas con los diferentes resultados de cada alternativa. Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las probabilidades asociadas a la posible demanda del nuevo producto, por ejemplo a través de un estudio de mercado, tenemos un problema de decisión bajo riesgo. 115
  • 116. 11. TEORIA DE LA DECISION  El origen de la teoría de la decisión para la toma de decisiones se deriva de la economía, en el área de la función de la utilidad del pago. Propone que las decisiones deben tomarse calculando la utilidad y la probabilidad de rangos de opciones, y establece estrategias para una buena toma de decisiones. Proceso de Toma de Decisiones Estadísticas  A diferencia de los procesos de toma de decisiones determinísticas tal como, optimización lineal resuelto mediante sistema de ecuaciones, sistemas paramétricos de ecuaciones y en la toma de decisión bajo pura incertidumbre, las variables son normalmente más numerosas y por lo tanto más difíciles de medir y controlar. Sin embargo, los pasos para resolverlos son los mismos. Estos son: 116
  • 117. 11. TEORIA DE LA DECISION  1. Simplificar  2. Construir un modelo de decisión  3. Probar el modelo  4. Usar el modelo para encontrar soluciones: El modelo es una representación simplificada de la situación real No necesita estar completo o exacto en todas las relaciones Se concentra en las relaciones fundamentales e ignora las irrelevantes. Este es entendido con mayor facilidad que un suceso empírico (observado), por lo tanto permite que el problema sea resuelto con mayor facilidad y con un mínimo de esfuerzo y pérdida de tiempo.  5. El modelo puede ser usado repetidas veces para problemas similares, y además puede ser ajustado y modificado. 117
  • 118. 11. TEORIA DE LA DECISION Elementos de la teoría de decisiones:  El análisis de decisiones es un proceso que le permite al decisor seleccionar una decisión (sólo una) entre un conjunto de alternativas posibles de decisión, cuando existe incertidumbre con respecto al futuro, con el objetivo de optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de decisión numérico. Los elementos de los problemas de análisis de decisiones son los siguientes:  Hay un decisor responsable individual.  Un número finito de eventos (futuros) posibles, llamados Estados de la Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en las cuales se toma una decisión se llaman estados de la naturaleza. Los estados de la naturaleza se identifican y agrupan en el conjunto ; los miembros se denotan como . El conjunto es un grupo de conjuntos mutuamente excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué puede hacer la naturaleza? 118
  • 119. 11. TEORIA DE LA DECISION Elementos de la teoría de decisiones:  Un número finito de alternativas posibles de decisión. Hay una acción a, miembro del conjunto A, que puede ser adoptada por el decisor. Sólo puede adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un conjunto más rico de alternativas que las que se presentaron inicialmente o que las aceptadas tradicionalmente.  La manera más sencilla de formular el problema de decisión es usando una matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos conjuntos de dominio dimensionales A y . Las filas y las columnas se asignan a las alternativas de decisión posibles y a los estados posibles de la naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta matriz; por lo tanto, puede requerir algo de práctica.  Generalmente, esta función refleja una ganancia, si el problema se plantea en términos de pérdidas, estas se pueden expresar como ganancias negativas. Un valor de la matriz de pagos l(a, ) representa el pago asociado a esta combinación acción - estado de la naturaleza. 119
  • 120. 11. TEORIA DE LA DECISION Fuente de Errores en la Toma de Decisiones:  La fuente principal de errores en los problemas de toma de decisiones arriesgadas son las presunciones falsas, no tener una estimación exacta de las probabilidades, depender de la expectativa, dificultades en medir la función de utilidad, y los errores de pronóstico. 120
  • 121. 11. TEORIA DE LA DECISION Acciones dominadas:  En los problemas de decisión suelen existir muchas acciones posibles, por lo tanto es conveniente que previamente se lo reduzca tanto como sea posible.  Decimos que una acción a’ es dominada por una acción a, si los pagos para a son mejores que los pagos para a’, sin importar el estado de la naturaleza. Es decir: : l a, l a ',  Si los pagos son ganancias, al contrario si son costos 121
  • 122. 11. TEORIA DE LA DECISION EJEMPLO:  Una compañía de computadoras compra chips a dos proveedores, A y B. En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos. El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso se devuelve a un costo de $0.15 por chip. ¿A cuál proveedor conviene comprar los chips? Estados de la naturaleza % defectuosos Proveedor 1% 3% 5% Acciones A -301.5 -304.5 -307.5 B -303.5 -306.5 -309.5 Acción dominada Pagos 122
  • 123. 11. TEORIA DE LA DECISION EJEMPLO:  Una compañía de computadoras compra chips a dos proveedores, A y B. En cada orden de 1000 chips (independientemente del proveedor) puede haber 1%, 3%, o 5% de chips defectuosos. El proveedor A vende el paquete de 1000 chips por $300 y el proveedor B lo vende por $302. Cada chip defectuoso adquirido al proveedor A es devuelto a un costo de $0.15 por chip, mientras que uno defectuoso adquirido al proveedor B es devuelto a un costo de $0.05 ¿A cuál proveedor conviene comprar los chips? TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5 ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5 123
  • 124. 11. TEORIA DE LA DECISION OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:  El pago es una medida cuantitativa del valor de las consecuencias del resultado para el tomador de decisiones, en este sentido muchas veces el pago se representa por la ganancia monetaria neta (utilidad). Si las consecuencias del resultado no son completamente ciertas aun cuando ocurra el estado de la naturaleza, entonces el pago se convierte en un valor esperado (en el sentido estadístico) de la medida de las consecuencias  Sea l(a, ) el pago al tomar la acción a cuando el estado de la naturaleza es . En general, se usa una tabla de pagos para cada combinación de a y y ; en el contexto de la teoría de juegos el tomador de decisiones y la naturaleza se pueden ver como dos jugadores.  Las acciones posibles y los estados de la naturaleza posibles se pueden ver como las estrategias disponibles para los respectivos jugadores, donde cada combinación de estrategias da como resultado un pago para el jugador 1 (el tomador de decisiones). 124
  • 125. 11. TEORIA DE LA DECISION  Así se tiene que: - El tomador de decisiones necesita elegir una de las acciones posibles - La naturaleza elegirá luego uno de sus estados (de la naturaleza) posibles, cada combinación de una acción a y un estado de la naturaleza da como resultado uno de los elementos de la tabla de pagos. Esta tabla de pagos debe usarse para encontrar una acción óptima para el tomador de decisiones según un criterio adecuado.  Si consideramos que en la teoría de juegos ambos jugadores son racionales y eligen sus estrategias para promover su propio beneficio, esto se ajusta al tomador de decisiones pero no a la naturaleza ya que esta es un jugador pasivo que elige sus estrategias (estados de la naturaleza) de una manera aleatoria. 125
  • 126. 11. TEORIA DE LA DECISION TIPOS DE MODELOS DE DECISION:  Existen tipos diferentes de modelos de decisión que ayudan a analizar distintos escenarios, dependiendo de la cantidad y el grado de conocimiento que tengamos. Los tres tipos más ampliamente utilizados son: – Decisión tomada con pura incertidumbre, – Decisión tomada con riesgo, – Decisión tomada comprando información (empujando el problema hacia el "polo" determinista) 126
  • 127. 11. TEORIA DE LA DECISION TOMA DE DECISIONES BAJO INCERTIDUMBRE: En las decisiones tomadas con pura incertidumbre, el decisor no tiene ningún conocimiento, ni siquiera de la probabilidad de ocurrencia de cualquier estado de la naturaleza. En este caso, el comportamiento del decisor se basa puramente en su actitud hacia lo desconocido. Algunos de estos comportamientos son los optimistas, los pesimistas y los de arrepentimiento, entre otros.  Optimista: El vaso está medio lleno.  Pesimista: El vaso está medio vacío.  Gerente: El vaso es el doble de grande de lo necesario. 127
  • 128. 11. TEORIA DE LA DECISION Comportamiento según los tipos de personalidad y la toma de decisiones con pura incertidumbre:  Pesimismo, o Conservador (MAXIMIN). Las cosas malas siempre me suceden a mí.  Optimismo, Agresivo (MAXIMAX). Las cosas buenas siempre me suceden a mí.  Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage). Odio las lamentaciones. Debo minimizar las situaciones deplorables. Mi decisión debe ser tal que valga la pena repetirla. Sólo debería hacer las cosas que siento que podría repetir con placer. 128
  • 129. 11. TEORIA DE LA DECISION MAXIMIN:  Basado en la teoría de juegos, se selecciona la acción encontrando el pago mínimo sobre todos los estados posibles de la naturaleza y después encontrar el máximo de estos pagos mínimos.  Es válido cuando se considera que se está compitiendo contra un oponente racional y malévolo, como puede ser el caso de la competencia con alguna otra empresa; sin embargo si se considera que el oponente es la propia naturaleza resulta demasiado conservador en este contexto ya que la naturaleza no es un oponente malévolo y el tomador de decisiones no necesita enfocar su atención solo en el peor pago de cada acción.  En el caso de que la tabla de pagos sea de Costos o pérdidas, sería un criterio MINMAX 129
  • 130. 11. TEORIA DE LA DECISION MAXIMIN: Seleccionar la acción ak en la cual se tiene la ganancia maximin: l ak , r M ax M in l a j , i j i  Ejemplo: Sea el problema de decisión con tabla de ganancias: 1 2 Mínimo a1 0 2 0 a2 -1 4 Mínimo Máximo -1 La acción Maximin es a1 130
  • 131. 11. TEORIA DE LA DECISION MAXIMAX: Seleccionar la acción ak en la cual se tiene la ganancia maximax: l ak , r M ax M ax l a j , i j i  Ejemplo: En el problema anterior: 1 2 Máximo a1 0 2 2 Máximo a2 -1 4 4 Máximo La acción Maximax es a2 131
  • 132. 11. TEORIA DE LA DECISION MINIMAX: Construir la tabla de pérdida de oportunidades LP, y seleccionar la acción ak en la cual se tiene la pérdida de oportunidades minimax: LP ak , r M in M ax l a j , i j i  Ejemplo: En el problema anterior: L 1 2 LP 1 2 Máximo a1 0 2 a1 0 2 2 Máximo a2 -1 4 a2 1 0 1 Mínimo La acción Minimax es a2 132