TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
IO
1. ESCUELA SUPERIOR POLITECNICA
DEL LITORAL
INGENIERIA EN LOGISTICA Y TRANSPORTE
CURSO: INVESTIGACION DE OPERACIONES II
I TERMINO 2008-2009
1
2. 1. Introducción: La logística y la estadística
¿Qué es la Investigación de Operaciones (IO)?
La IO consiste en el uso de métodos analíticos avanzados que ayudan en la toma
de decisiones.
Sentido Modelo
común matemátic
o
Intuición Vs. Metodología formal
Estos métodos analíticos incluyen:
Optimización: encontrar la mejor decisión posible de entre un conjunto de
alternativas.
INVESTIGACION DE OPERACIONES I (LP, MIP)
Simulación: imitación de la realidad (comportamientos, materiales, ideas, …) que
ahorra tiempo y costos.
INVESTIGACION DE OPERACIONES II
Probabilidad y estadística: ayuda a resumir / analizar información, medir
riesgos, realizar predicciones, etc. 2
3. 1. Introducción: La logística y la estadística
DEFINICIONES, USOS:
La Estadística, es la rama de las matemáticas que se ocupa de reunir,
organizar y analizar datos numéricos y que ayuda a resolver problemas como
la toma de decisiones.
Nos permite obtener información referida a grandes grupos de individuos
conociendo los datos de sólo unos pocos.
Permite describir con exactitud los valores de datos económicos, políticos,
sociales, psicológicos, biológicos y físicos, y sirve como herramienta para
relacionar y analizar dichos datos.
La Estadística responde a las necesidades del desarrollo científico y
tecnológico de la sociedad
3
4. 1. Introducción: La logística y la estadística
APLICACIONES:
Las técnicas de Investigación de Mercados permiten saber si un producto
cualquiera será bien acogido en el mercado antes de su salida a este, o bien
medir la audiencia en Televisión y Radio.
El Control de Calidad permite medir las características de la calidad de un
producto, compararlas con ciertos requisitos y tomar decisiones correctivas si
hay diferencias entre el funcionamiento real y el esperado.
Análisis de confiabilidad, cálculo actuarial, bioestadística, Series de tiempo,
etc.
En técnicas de decisión, permite la construcción de los denominados Árboles
de decisión, una técnica muy usada para tomar decisiones en ambientes de
incertidumbre
4
5. 1. Introducción: La logística y la estadística
ESTADISTICA = MEDIDA DE LO DESCONOCIDO
La estadística está asociada a la medición de la Incertidumbre
En logística la incertidumbre está presente de muchas formas: en la demanda
de los artículos que están en el inventario, en los tiempos de entrega de los
pedidos, en los costos de adquisición de la materia prima, en el costo del
dinero, en la eficiencia de los empleados.
Generalmente ante la incertidumbre sobre el comportamiento futuro de una
variable se deben aumentar las medidas de protección de aquello que pueda
resultar afectado por los cambios imprevisibles de esta variable. Por ejemplo
en la gestión de inventarios, el responsable logístico deberá aumentar las
existencias a medida que la demanda se hace mas imprevisible. En otras
palabras, la incertidumbre se paga, ¡es un coste!, y por tanto debe ser bien
investigada y medida.
5
6. 1. Introducción: La logística y la estadística
Específicamente la Gestión de la Cadena de Suministro (SCM – Supply
Chain Management) tiene como objetivo final la entrega de un producto a
un cliente. Esto quiere decir, que la cadena de suministro incluye las
actividades asociadas desde la obtención de materiales para la
transformación del producto, hasta su colocación en el mercado.
El flujo en la cadena no solo es de productos, también es de información.
Y es en el tratamiento de la información en donde es importante la
estadística (y los modelos estadísticos de toma de decisión)
6
7. 1. Introducción: La logística y la estadística
Las técnicas estadísticas básicas suelen clasificarse de acuerdo a su
naturaleza en:
•Estadística descriptiva, y
•Estadística inferencial.
POBLACION
Todos los elementos
objetos de estudio
Estadística descriptiva PARAMETROS
MUESTRA
Subconjunto de la
Estadística descriptiva población
Estadística inferencial
ESTIMADORES
7
8. 2. Descripción de datos: Escalas de medida
El primer paso para poder hacer cualquier análisis estadístico es
la obtención de la data. El proceso estadístico por medio del
cual se toma datos de una población se denomina muestreo, el
conjunto de datos obtenido se denomina muestra.
La data está conformada por las mediciones de características de
los elementos de la población, dichas características se
denominan variables.
Las variables difieren en "qué tan bien" se pueden medir,
¿cuánta información medible puede proporcionar su escala de
medida?
Específicamente las variables son clasificadas como:
(a) nominales, (b) ordinales, (c) de escala
8
9. 2. Descripción de datos: Escalas de medida
(a) Nominal: se utilizan nombres para establecer categorías
Ejemplos: género, la raza, el color, la ciudad, tipo de artículo de
inventario, etc.
9
10. 2. Descripción de datos: Escalas de medida
(b) Ordinales: nos permiten ordenar los artículos que medimos en términos
del que tiene menos y el que tiene más de la calidad representada por la
variable
Ejemplos: nivel socio-económico, rango, etc.
10
11. 2. Descripción de datos: Escalas de medida
(c) De escala: no sólo nos permiten ordenar los artículos que son
medidos, sino también cuantificar y comparar los tamaños de diferencias
entre ellos. Ofrecen un punto de cero absoluto identificable, así permiten
las declaraciones como las de que “x es dos veces más de y”.
Ejemplos: temperatura, peso, estatura, ventas, etc.
11
12. 2. Descripción de datos: Escalas de medida
Complejidad: la complejidad aumenta con cada una de las escalas de
medición, desde la simpleza de la escala nominal hasta el refinamiento
de la escala de razón. El tipo de técnicas estadísticas que se puede
emplear en cada escala de medida es diferente (por ejemplo en pruebas
de hipótesis)
Escala
Pruebas
Ordinal Paramétricas
Nominal
Pruebas
No paramétricas
12
13. 2. Descripción de datos: base de datos
Creación de la base de datos electrónica
El software estadístico especializado (SPSS, SAS, S-PLUS, R,
MINITAB, STATISTICA, etc.) requiere un ordenamiento del archivo
de datos a analizar. Este ordenamiento está referido a filas y a
columnas
Cuando hablamos de casos nos referimos a c/u de los registros
obtenidos al investigar, muestrear, entrevistar, etc.
Con variables indicamos a las características que pueden tener estos
datos
13
14. 2. Descripción de datos: base de datos
CASOS: si se usa una hoja electrónica generalmente se los
ubica en filas
14
16. 2. Descripción de datos: base de datos
PROCESAMIENTO EN SPSS:
El editor de datos tiene dos vistas diferentes: vista de datos y vista de
variables. La primera tiene una estructura similar a la de una hoja de
cálculo (Excel), y se usa para introducir los datos que se quieren
analizar. El SPSS maneja los datos en términos de variables, cada una de
las cuales corresponde a una columna de la pantalla. Esto quiere decir
que si queremos introducir unos datos, cada variable debe ir en una
columna.
Al introducir los datos en el visor de datos, podemos pensar en que
estamos rellenando una “encuesta”: cada línea horizontal de la
cuadrícula sería un “encuestado" (caso), al que le corresponde un valor
de cada una de las variables que intervienen en el problema (columnas).
16
17. 2. Descripción de datos: base de datos
Entreviste a la totalidad de sus compañeros de clase y para cada una de
las variables que se presentan a continuación construya la boleta de
encuesta, defina las escalas de medición de cada una de ellas, y la base
de datos electrónica.
Variables a medir.
Género del entrevistado
Edad
Ingresos mensuales Promedio
Estado civil
Posee vehículo
Periódico preferido para leer noticias
17
18. 2. Descripción de datos: medidas
Medidas numéricas:
De tendencia central: Permiten describir la región “media” hacia adonde se
agrupan los datos
Probablemente la estadística descriptiva mas usada es la media. La media es
una medida muy informativa de la tendencia “central” de la variable si se
reporta con sus intervalos de confianza. Otras son: la moda, la mediana.
De dispersión: Son una medida de que tan dispersos están los datos (que tan
lejanos están entre ellos).
Las mas usadas son: desviación típica, varianza, coeficiente de
variación, rango.
18
19. 2. Descripción de datos: medidas
Media: ( o X ) mas usada
Desviación típica: ( o S ) depende de la magnitud de la variable, no
puede tener la misma medida de incertidumbre la venta de un producto
cuya media sea de 10 unidades mensuales que otro cuya venta media sea
de 10.000
Coeficiente de variación: / , Que tan predecible es una variable en el
futuro. Ver el ejemplo siguiente (demanda en la cadena de
abastecimiento).
19
20. 2. Descripción de datos: medidas
ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
Se tienen los siguientes datos referidos a la venta mensual que hace un
minorista de dos productos A, B en un año:
p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V
v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10%
v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%
Podría suponerse que la incertidumbre es menor para el producto A (si se
observa la desviación típica). Sin embargo en el producto A la
variabilidad representa el 85.1% sobre la media, mientras que en B es el
50.9%, por lo que en realidad la venta del producto A tiene mayor
incertidumbre que la de B
Si agregamos la venta de los dos productos:
p erío d o 1 2 3 4 5 6 7 8 9 10 11 12 m ed ia d es. T íp C V
v en ta A 0 0 15 25 12 11 4 8 6 0 10 16 8.9 7.59 85.10%
v en ta B 1100 900 340 650 260 800 730 100 540 780 300 490 582.5 296.5 50.50%
v en ta to tal 1100 900 355 675 272 811 734 108 546 780 310 506 49.60%
20
21. 2. Descripción de datos: medidas
ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
Algunas concusiones que se pueden observar de este caso simple:
El coeficiente de variación es mas sensible para detectar la variabilidad de
una serie de datos
Cuánto menor es la venta de un producto, suele ser mayor su
incertidumbre ( y por tanto proporcionalmente requerirán más inventario)
Cuando se agregan datos, la incertidumbre del total agregado disminuye
(por tanto es mas fácil pronosticar sobre la demanda de grupos de
productos)
21
22. 2. Descripción de datos: gráficas
DESCRIPCION GRAFICA
¡ Una imagen vale más que mil palabras !
Un aspecto importante de la "descripción" de una variable es la forma
de su distribución, que le dice la frecuencia de valores de rangos
diferentes de la variable. Típicamente, un investigador está interesado
en qué la distribución pueda aproximarse bien por la distribución
normal
HISTOGRAMAS 2D, 3D: representación gráfica de la distribución de
frecuencia de la(s) variable(s) seleccionada(s)
Otros gráficos
22
23. 2. Descripción de datos: gráficas
H isto g ra m (In d ice s 8 v*2 0 c)
N A S D A Q = 2 0 *0 ,1 3 9 1 *n o rm a l(x; -0 ,0 3 7 8 ; 0 ,2 7 5 8 )
6
5
4
No of obs
3
2
1
0
-0 ,4 5 7 1 4 9 7 6 7 9 -0 ,1 7 8 9 5 7 5 4 8 8 0 ,0 9 9 2 3 4 6 7 0 4 0 ,3 7 7 4 2 6 8 8 9 5
-0 ,3 1 8 0 5 3 6 5 8 3 -0 ,0 3 9 8 6 1 4 3 9 2 0 ,2 3 8 3 3 0 7 7 9 9 0 ,5 1 6 5 2 2 9 9 9 1
NA S DA Q B iv ariate H is togram (S ports .s ta 14v *100c )
23
24. 2. Descripción de datos: gráficas
ANALISIS DE UN CASO: la demanda en la cadena de abastecimiento
(... continuación)
• Se pide analizar la siguiente tabla y entender el concepto de “efecto
látigo), para ello leer el documento EFECTO LATIGO. DOC
• Los datos son los siguientes:
D E M AN D A E N U N ID AD E S P O R S E M AN A
Sem . 1 Sem . 2 Sem . 3 Sem . 4 Sem . 5 Sem . 6 Sem . 7 Sem . 8 Sem . 9 Sem . 10 Sem . 11
D e m a n d a m e rc a d o 0 22 15 10 13 17 19 10 15 12 8
S to c k e n m in o ris ta 0
P e d id o s d e l m in o ris ta
S to c k e n M a yo ris ta 0
P e d id o s d e l m a yo ris ta
P u n to d e re p o s ic ió n p a ra e l m in o ris ta = 2 0 u n id a d e s . C a n tid a d d e p e d id o = 5 0 u n id a d e s .
P u n to d e re p o s ic ió n p a ra e l m a y o ris ta = 3 0 u n id a d e s . C a n tid a d d e p e d id o = 1 0 0 u n id a d e s .
T ie m p o s d e s u m in is tro p a ra e l m a y o ris ta y e l m in o ris ta (L e a d tim e ) = 1 s e m a n a
24
25. 3. Control de Inventarios
VER DESARROLLO EN CLASE.
25
26. 4. Bayes, Odds y Razón de verosimilitud
Experimento aleatorio: Un experimento en el cual el resultado es incierto,
pero se conoce el conjunto de posibles resultados del mismo (denominado
espacio muestral, )
Evento: cualquier subconjunto del espacio muestral. Y se denomina evento
elemental a cualquier evento formado por un solo elemento.
Si el experimento aleatorio se realiza n veces, en las mismas condiciones, la
frecuencia con la que un evento A ocurre es el número de veces que el
experimento aleatorio resulta en A.
La frecuencia relativa de A es la frecuencia con la que ocurre A sobre el
número total de repeticiones.
26
27. 4. Bayes, Odds y Razón de verosimilitud
Probabilidad Condicional e independencia:
PROBABILIDAD
CONDICIONAL: P A B
P A/B ;
Def: Dados dos eventos A, B se P B
define la probabilidad condicional P B 0
de A dado B como:
INDEPENDENCIA:
Def: Dados dos eventos A, B se P A/B P A , y,
dice que los dos eventos son P B/A P B
independientes si
27
28. 4. Bayes, Odds y Razón de verosimilitud
¿La evaluación de la prob. de A cambia si tenemos
conocimiento de la ocurrencia de B?
Def: Los eventos A, B se dicen independientes si:
P(A/B)=P(A)
P(B/A)=P(B)
Obs: (1) A y B son independientes ssi:
P(A B)=P(A)P(B)
(2) A1, A2, …, An son independientes si para cualquier
subconjunto de eventos A(1), A(2), …, A(k):
k k
P A i
P Ai
i 1 i 1 28
29. 4. Bayes, Odds y Razón de verosimilitud
Regla de Bayes:
PARTICIONES:
Def: Dado un e.m. se dice que los eventos B1, B2, …, Bk
forman una partición si:
1. B1 B2 … Bk=
2. Bi Bj = ; i j
PROBABILIDAD TOTAL:
P A P A / B1 P B1 P A / B2 P B2 ... P A / Bk P Bk
TEOREMA DE BAYES:
P A/ Bj P Bj
P Bj / A k
P A / Bi P Bi
i 1 29
30. 4. Bayes, Odds y Razón de verosimilitud
TEOREMA DE BAYES:
Prob. posterior Verosimilitudes
P A Bi P Bi
P Bi A n
P A Bj P Bj
j 1
Predictor
o evidencia Prob. A priori
P(A)=verosimilitud marginal
30
31. 4. Bayes, Odds y Razón de verosimilitud
TEOREMA DE BAYES:
Proporciona una regla matemática que explica cómo uno debe cambiar sus
creencias teniendo en cuenta nueva evidencia. Es decir permite que los
investigadores combinen nuevos datos con su conocimiento o experiencia
existente. Un ejemplo didáctico es imaginarse que un recién nacido
observa su primera puesta del sol, y que el se pregunta si el sol saldrá otra
vez o no. Lo natural será que asigne probabilidades a priori iguales a
ambos resultados posibles, lo cual representa colocando un bloque blanco
y uno negro en un bolso. El día siguiente, cuando ve que sale el sol, el niño
coloca otro bloque blanco en el bolso. La probabilidad que un bloque
extraído aleatoriamente del bolso sea blanco (es decir, el grado de creencia
del niño en que el sol saldrá en todos los días futuros) ha cambiado de 1/2 a
2/3. Después de la salida del sol el día siguiente, el niño agrega otro bloque
blanco, y la probabilidad (y por tanto el grado de creencia) pasa de 2/3 a
3/4. Y así sucesivamente. Gradualmente, la creencia inicial de que es tan
probable de que el sol salga o no salga cada mañana se modifica para
convertirse en una casi-certeza de que el sol siempre se levantará.
31
32. 4. Bayes, Odds y Razón de verosimilitud
Ejemplo:
Una chica generalmente prefiere usar pantalón para ir a la Universidad, y
falda si va a una fiesta. Es mas, según la frecuencia con que lo hace, se
puede asegurar que:
P(pantalón/va a la U)=0.8
P(falda/va a una fiesta)=0.9
Los viernes en la tarde esta chica sale a la U con probabilidad p (y a una
fiesta con probabilidad 1–p), el valor de p podría ser asignado
subjetivamente por un experto (alguien que mira a la chica) o de acuerdo a
la frecuencia con la que va a la universidad los viernes (asignación
frecuentista de la probabilidad)
32
33. 4. Bayes, Odds y Razón de verosimilitud
Ejemplo:
Predictor (evidencia):
(1): Falda
(2): Pantalón
P(va a la U)=p
Prob. a priori:
P(va a F) = 1-p
Prob. Posterior: 0.8 p
p* P V a a la U pantalón
0.7 p 0.1
P(va a F/pantalón) = 1-P(va a la U/pantalón)
P(va a la U/falda)=1- P(va a F/falda)
0.9(1 p)
p ** P V a a F falda
0.9 0.7 p
33
34. 4. Bayes, Odds y Razón de verosimilitud
Por ejemplo, si la chica los viernes va con tanta frecuencia a la Universidad que
a una fiesta:
p=0.5
p P V a a la U pantalón 0.88
La evidencia va a aumentar nuestra creencia de que va a la Universidad
p ** P V a a Fiesta falda 0.82
O sea que es menos probable que la chica use pantalón si va a la U que use falda
si va a una fiesta (0.8<0.9), pero en cambio es más probable que vaya a la U
dado que sale con pantalón que vaya a una fiesta si es que sale con falda
(0.88>0.82).
¿Paradoja?:
34
35. 4. Bayes, Odds y Razón de verosimilitud
La relación entre las probabilidades a posteriori p* y p** en función de la
probabilidad a priori p se observa en el siguiente gráfico.
En negro p , en rojo p
1
0.8
0.6
0.4
0.2
p
0.2 0.4 0.6 0.8 1
35
36. 4. Bayes, Odds y Razón de verosimilitud
¿Paradoja?:
No, lo que pasa es que no se han analizado los falsos positivos (falsos negativos)
Para esto se definen los odds (que tan probable es un evento frente a otro):
Razón de verosimiltud: L.R
P Bi A P A Bi P Bi
P Bj A P A Bj P Bj
Odds Posterior Odds Apriori
Obs: si A es independiente con Bi y Bj : LR=1
La información de LR es que es una medida de la información contenida
exclusivamente en los datos, generalmente se aplica cuando Bi y Bj son
complementarios, por ejemplo SANO y ENFERMO, FUNCIONANDO Y 36
DAÑADA, ETC.
37. 4. Bayes, Odds y Razón de verosimilitud
Odds: (razón??): Indicador de cuánto mas probable es la ocurrencia
de un evento frente a otro
En el ejemplo:
P U P antalón P U P P antalón U P U
8
P F P antalón P F P P antalón F P F
P F Falda P F P Falda F P F
4.5
P U Falda P U P Falda U P U
Es decir el predictor Pantalón es más verosímil que falda !!
Por ejemplo con p=1/2:
Con pantalón es 8 veces más probable acertar con la predicción que va a la
Universidad,
Con falda es 4.5 veces más probable acertar con la predicción que va a fiesta
37
38. 4. Bayes, Odds y Razón de verosimilitud
Ejemplo:
Supongamos que la incidencia de una cierta enfermedad en una población es
de 0.001. Una prueba de diagnóstico para esta enfermedad tiene una tasa de
falsos positivos de 0.05 y una tasa de falsos negativos de 0.01 (es decir un 5%
de las pruebas de personas no enfermas indicarán la presencia de la
enfermedad, mientras que el 1% de las pruebas en gente enferma no
detectarán la presencia de la enfermedad.
a) Si una persona se hace la prueba, y el test da positivo, cuál es la
probabilidad de que realmente esté enferma?
b) Si una persona se hace la prueba, y el test da negativo, cuál es la
probabilidad de que realmente esté sana?
38
39. 4. Bayes, Odds y Razón de verosimilitud
En las aplicaciones la incertidumbre es común, y no es la excepción. Por ejemplo
en el diagnóstico médico: dado que el paciente presenta unos síntomas, cuál de
las enfermedades posibles padece?
Los hechos o datos no se conocen con exactitud. Puede o no estar seguro que
tuvo fiebre.
El conocimiento no es determinista, las relaciones entre enfermedad y síntomas
no son exactas.
Estas mismas características se pueden observar en otras aplicaciones:
Control de Calidad
Confiabilidad
Sistemas expertos
39
40. 4. Bayes, Odds y Razón de verosimilitud
Modelos Bayesianos (un ejemplo)
Se considera el envío de N artículos manufacturados de un lote de
producción. Un número desconocido N de estos son defectuosos. Es
muy costoso examinar todos los artículos, por lo cual para obtener
información sobre la calidad del lote, se obtiene una muestra de n
objetos sin reemplazo para ser inspeccionados. El dato observado es el
número de artículos defectuosos en la muestra.
Es la proporción de defectuosos en la muestra
N es el parámetro (desconocido), y en principio puede tomar cualquier
valor de 0 a N, así, aunque el e.m. esté completamente definido no se
puede especificar la estructura de probabilidad completamente, sin
embargo se puede determinar una familia {H(N , N, n)} de
distribuciones de probabilidad para la variable aleatoria:
X= Número de defectuosos en la muestra
40
41. 4. Bayes, Odds y Razón de verosimilitud
Modelos Bayesianos (un ejemplo)
X= Número de defectuosos en la muestra
N N N
k n k
P X k
N
n
En esta discusión: N es el parámetro,
Posibles valores de : {0, 1/N, 2/N,…, 1}
Aquí asumimos que no hay más información disponible acerca del
verdadero valor del parámetro que la proporcionada por los datos. Sin
embargo hay situaciones en las cuales se puede agregar algo mas: vg es
posible que en el pasado hemos tenido muchos envíos de tamaño N. Si los
clientes nos proveen de registros precisos sobre el número de defectuosos
que han recibido, podemos construir una distribución de frecuencias para la
proporción de defectuosos pasados. Así se puede pensar en el valor de
como en la realización de una v.a. 41
42. 5. Variables Aleatorias
Def.- Dado un e.m. , se denomina variable aleatoria (v.a.) a cualquier
función:
X : IR
Las v.a. tienden a hacer “olvidar” el e.m.
DISTRIBUCIONES DE PROBABILIDAD:
Def.- Dada la v.a. X, se denomina función de distribución a la función:
F x P X x P w X w x
42
43. 5. Variables Aleatorias
VARIABLES ALEATORIAS DISCRETAS:
Una v.a. es discreta si su rango es un conjunto finito o infinito numerable.
Provienen de procesos de “contar”
VARIABLES ALEATORIAS CONTINUAS:
Una v.a. es contínua si F(x) es una función contínua
Provienen de procesos de “medir”
43
44. 5. Variables Aleatorias
Función de probabilidad p(x):
VARIABLES ALEATORIAS DISCRETAS:
p(x)=P(X=x)
Función de densidad f(x):
VARIABLES ALEATORIAS CONTINUAS:
b
P a X b f x dx
a
f (x)
P(a X b)
a b 44
45. 5. Variables Aleatorias
VARIABLES ALEATORIAS DISCRETAS:
p x 0
p x 1
todo x
VARIABLES ALEATORIAS CONTINUAS:
f x 0
f x dx 1
45
46. 5. Variables Aleatorias
Esperanza de una V.A. X:
C aso discreto: E X x p x
todo x
C aso contínuo: E X x f x dx
Esperanza de una función g de la V.A. X:
C aso discreto: E g X g x p x
todo x
C aso contínuo: E g X g x f x dx
46
47. 6. Distribuciones
Distribuciones discretas más importantes
Experimento binomial:
Muchas variables aleatorias discretas están basadas en un experimento
(denominado experimento binomial) que satisface las siguientes
condiciones:
El experimento consiste en una secuencia de n intentos, donde n se fija
antes del experimento.
Los intentos son idénticos, y cada uno de ellos puede resultar en dos
posibles resultados, que se denotan por éxito (E) o fracaso (F)
(p(E)+p(F)=1).
Los intentos son independientes, por lo que el resultado de cualquier
intento en particular no influye sobre el resultado de otro intento.
La probabilidad de éxito es constante de un intento a otro, y se
representa por p.
47
48. 6. Distribuciones
Distribuciones discretas más importantes
Bernoulli:
0 si resu lta fracaso p 0 1 p E X p
X
1 si resu lta éx ito p 1 p V ar X p 1 p
Ejemplo típico: lanzamiento de una moneda
Binomial: Deben cumplirse las características de un experimento
binomial
X # d e éx ito s en n in ten to s
n x n x
p x p 1 p ; x 0,1, ..., n
x
E X np
V ar X np 1 p
48
49. 6. Distribuciones
Distribuciones discretas más importantes
Ejemplo: Expresar en una tabla de valores la función de
probabilidad y la función de distribución acumulada de la
variable aleatoria X: Número de preguntas bien
contestadas por un estudiante que responde al azar un
examen tipo selección múltiple que consiste de 10
preguntas, cada una con 4 alternativas de las cuales sólo
una es correcta.
Ejemplo: Expresar en una tabla de valores la función de
probabilidad y la función de distribución acumulada de la
variable aleatoria X: Número de mujeres seleccionadas al
seleccionar aleatoriamente 8 personas de un grupo de 500
personas de las cuales 280 son mujeres.
En EXCEL la sintaxis es: DISTR.BINOM(x, n, p, falso)
49
50. 6. Distribuciones
Distribuciones discretas más importantes
Selección de objetos con reemplazo y la distribución binomial:
Elegir al azar con reemplazo significa que escogemos al azar un
elemento de un conjunto y lo regresamos para elegir de nuevo al
azar. Esto garantiza la independencia de las elecciones y nos
lleva a una distribución binomial.
Si una caja contiene N bolas de las cuales A son rojas, entonces
la probabilidad de escoger al azar una bola roja es: p = A/N.
Si repetimos el experimento sacando n bolas con reemplazo la
probabilidad de que x de ellas sean rojas es:
x n x
n A A
P ( x) 1 (x 0 ,1,.... n )
x N N 50
51. 6. Distribuciones
Distribuciones discretas más importantes
Ejemplo: (Chuck–a-luck) En este juego se elige un número
entre 1 y 6. Luego se lanza tres dados, si el número
elegido sale en los 3 dados se cobra 3 dólares, si
sale en 2 de los dados se cobra 2 dólares, y si sale en
un dado se cobra un dólar. Si el número no sale en
ninguno se paga 1 dólar
¿ES UN JUEGO JUSTO?
Sugerencia: Hallar la ganancia esperada del juego, si esta es
positiva el juego es favorable al jugador, si sale
negativa es desfavorable al jugador, si sale cero es
indiferente.
51
52. 6. Distribuciones
Distribuciones discretas más importantes
Geométrica: X # de intentos hasta obtener el primer éxito
1
E X
x 1 p
p x p 1 p ; x 1, 2, ...
1 p
V ar X 2
p
Binomial Negativa: X # d e in ten to s h asta o b ten er el r ésim o éx ito
r
x 1 r x r
E X
p x p 1 p ; x r, r 1, ... p
r 1
r 1 p
Var X 2
p
En EXCEL la sintaxis es: NEGBINOMDIST(x-r, r, p)
52
53. 6. Distribuciones
Distribuciones discretas más importantes
Selección de objetos sin reemplazo y distribución hipergeométrica:
Hipergeométrica: Si en un grupo de N objetos, r de ellos tienen cierta
característica estudiada que los hace distintos del resto (es decir r objetos
de un tipo y N-r objetos de otro tipo), y de estos N objetos se seleccionan
al azar (sin reposición) n objetos (este es por ejemplo el caso de
muestreo).
Entonces la variable aleatoria X: número de objetos seleccionados que
tienen la característica estudiada, sigue una distribución hipergeométrica
con parámetros N, r, n.
r N r
x n x nr
p x ; x r, n x N r; E X
N N
n
53
54. 6. Distribuciones
Distribuciones discretas más importantes
Selección de objetos sin reemplazo y distribución hipergeométrica:
En un lote de 50 computadoras el 10% tiene fallas, si se inspecciona al
azar una muestra de 4 computadoras:
a. Cuál es la probabilidad que exactamente 2 tengan fallas
b. Cuál es la probabilidad que al menos una tenga falla
c. Cuál es la probabilidad que a lo mucho 2 tengan fallas
En EXCEL la sintaxis es: DISTR.HIPERGEOM(x. n, r, N)
54
55. 6. Distribuciones
Distribuciones discretas más importantes
Poisson: Una variable aleatoria X de Poisson “cuenta” el número de
eventos (independientes) que ocurren en una unidad de tiempo, de
espacio, de volumen, etc.
Por ejemplo: el número de llegadas de personas a la fila de un cajero
en un banco en una hora, el número de faltas de ortografía que comete
una mecanógrafa en una hoja, el número de accidentes de trabajo por
operario en un año determinado en una empresa, el número de
llamadas que llegan a una central telefónica por minuto.
Su distribución de probabilidades es:
x
E X
p x e ; x 0,1, 2, ...
x! V ar X
55
56. 6. Distribuciones
Distribuciones discretas más importantes
A una operadora de transporte terrestre ingresan en promedio 20
camiones en una hora. El administrador ha determinado (con una
prueba K-S) que el número de camiones que llegan por hora se
distribuye aproximadamente con una distribución de Poisson. La
capacidad de las instalaciones es para servir hasta 25 camiones
por hora.
a. Cuál es la probabilidad que en una hora determinada ingresen
exactamente 20 camiones?
b. Menos de 20 camiones?
c. Que la capacidad de las instalaciones se vea desbordada?
En EXCEL la sintaxis es: POISSON(x, , falso)
56
57. 6. Distribuciones
Distribuciones discretas más importantes
En un cruce de carreteras se producen accidentes a razón de 2 por semana
(en media), siguiendo aproximadamente una distribución de Poisson.
Reconociendo que la frecuencia anterior es intolerable se ha decidido
instalar un semáforo en dicho cruce. La siguiente semana de la instalación
sólo ocurre un accidente.
a) ¿ Se puede afirmar que el semáforo es efectivo ?.
b) ¿ Cuál sería la conclusión si se hubiera producido un accidente en dos
semanas ?.
c) ¿ Y si se hubiera producido un accidente en 4 semanas ?
57
58. 6. Distribuciones
Distribuciones discretas más importantes
Bombas sobre Londres en la II Guerra Mundial (Feller)
Supón que vivías en uno de los 100 bloques que aparecen en la gráfica
inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100.
Como cayeron 400 bombas, podemos entender el número de impactos en un
bloque como una variable aleatoria de Poisson con λ=400 1/100=4:
Observado
Predicho
58
59. 6. Distribuciones
Distribuciones contínuas más importantes
Uniforme: Una variable aleatoria tiene distribución uniforme en el intervalo [a,
b], si su función de densidad es:
2
1 a b b a
f x ; a X b E X ; V ar X
b a 2 2
Se representa con X U[a,b]
a b
Ejemplo: Se conoce que el tiempo que emplea un camión en llevar material
desde una cantera hasta un centro de acopio se distribuye
aproximadamente mediante una distribución uniforme y que el viaje dura
entre 1 hora y 1 hora y 45 minutos.
a. Cuál es la probabilidad que un camión emplee entre 1h:10 y 1h:25
b. Cuál es la probabilidad que un camión emplee más de 1h:15
c. Si se demora más de una hora y media la empresa es multada con 5$. En
un día normal salen 20 de estos camiones. ¿cuál es el costo esperado diario
por multas que deberá pagar la empresa? 59
60. 6. Distribuciones
Distribuciones contínuas más importantes
Normal: Una variable aleatoria X tiene distribución normal con
parámetros y 2 si su función de densidad es:
2
x
1 2
2
f x e ; x IR
2
μ
2
Donde: E X ; Var X
Se representa con X N[ , 2]
60
61. 6. Distribuciones
Distribuciones contínuas más importantes
Normal: Un gran número de estudios indica que la distribución normal
proporciona una adecuada representación, por lo menos en una primera
aproximación, de las distribuciones de una gran cantidad de variables
físicas. Algunos ejemplos específicos incluyen datos meteorológicos tales
como la temperatura y la precipitación pluvial, mediciones efectuadas en
organismos vivos, calificaciones en pruebas de actitud, mediciones físicas
de partes manufacturadas, errores de instrumentación, demanda de
productos y otras, etc. Sin embargo, debe tenerse mucho cuidado al
suponer para una situación dada un modelo de probabilidad normal sin
previa comprobación.
Si bien es cierto que la distribución normal es la que tiene un mayor uso, es
también de la que más se abusa. Quizá esto de deba a la mala
interpretación de la palabra "normal“
Suponer de manera errónea una distribución normal puede llevar a errores
muy serios.
61
62. 6. Distribuciones
Distribuciones contínuas más importantes
Normal: Esta función tiene un gran número de aplicaciones en estadística,
incluidas las pruebas de hipótesis.
En Excel la sintaxis es:
Para la distribución acumulada: DISTR.NORM(x, , , acum)
Para la inversa: DISTR.NORM.INV(1- , , )
1-
x 62
63. 6. Distribuciones
Distribuciones contínuas más importantes
Normal: (Ejemplo) La demanda mensual de cierto producto se distribuye
aproximadamente normal con media de 200 y desviación estándar de 40. ¿Qué tan
grande debe ser el inventario disponible a principio de un mes para que la
probabilidad de que la existencia se agote no sea mayor de 0.05?
(Ejemplo) El Bar "El Imperio" sirve chop a sus clientes. Se ha determinado que la
demanda diaria de barriles de cerveza sigue una distribución normal con una media
de 18 barriles y una desviación estándar de 4 barriles. La empresa opera 330 días al
año. El costo de emisión de un pedido es $40 y el costo de mantenimiento es de
$0.20 por barril por día. El tiempo de provisión requerido para recibir un pedido de
barriles de cerveza desde el distribuidor es de 3 días. Determinar:
a) El tamaño del lote óptimo de compra.
b) El stock de seguridad y el punto de reabastecimiento si el Bar y Restaurante "El
Imperio" desea que el nivel de servicio sea de un 90 %.
c) ¿Cuál sería el incremento en el stock de seguridad si un nivel de servicio de 95 %
fuera deseado?
63
64. 6. Distribuciones
Distribuciones contínuas más importantes
Normal: (Ejemplo) Teniendo en cuenta que el diámetro de las naranjas de
exportación sigue una distribución normal, un determinado inspector conoce por su
dilatada experiencia que el 30% de las naranjas que examina tienen un diámetro
inferior a 60 mm y el 20% tienen el diámetro superior a 100 mm.
a) El país A exige que el diámetro esté comprendido entre 75 y 90 mm. Calcular la
probabilidad de que esto ocurra en una determinada partida.
b) Calcular el intervalo de extremos simétricos respecto a la media que cubra el 90%
de las naranjas.
c) El país B exige que el diámetro no baje de los 50 mm. La inspección se realiza
midiendo el diámetro de 10 naranjas y rechazando una determinada partida si se
encuentran más de dos naranjas con un diámetro inferior a 50 mm. Calcular la
probabilidad de que una partida sea aceptada.
64
65. 6. Distribuciones
Distribuciones contínuas más importantes
Exponencial: Una variable aleatoria X tiene una distribución exponencial con
parámetro , si su densidad es:
1 x/
f x e ; x>0
2
Donde: E X ; Var X
Se suele representar con =1/
En el caso que X represente el tiempo entre llegadas, es el tiempo promedio
entre llegadas y sería la frecuencia de llegadas por 1 ut
65
66. 6. Distribuciones
Distribuciones contínuas más importantes
Exponencial: Esta distribución permite (entre otras cosas) establecer el tiempo
entre dos sucesos, tal como el tiempo que tarda una máquina de cajero
automático en entregar efectivo, el tiempo entre la llegada de dos camiones a
una terminal, etc.
La sintaxis en EXCEL es:
Para la distribución acumulada: DISTR.EXP(x, , acum)
66
67. 6. Distribuciones
Distribuciones contínuas más importantes
Exponencial: (Ejemplo) El promedio de llegada de camiones a una bodega para
ser descargados es de 3 camiones por cada hora. Se ha determinado que el
tiempo que transcurre entre dos llegadas sucesivas de camiones es
exponencial.
a. Encuentre la probabilidad de que dado que en un momento llegó un camión, el
próximo llegue antes de 10 minutos.
b. Encuentre la probabilidad de que dado que en un momento llegó un camión, el
próximo llegue después de cuarto de hora.
c. Calcule la probabilidad de que durante una jornada de 8 horas lleguen como
máximo 20 camiones a descargar
NOTA: Si el tiempo entre dos llegadas es Exponencial( ), el número de llegadas
por unidad de tiempo es Poisson( )
67
68. 6. Distribuciones
Distribuciones contínuas más importantes
Beta: Una variable aleatoria X tiene una distribución exponencial con
parámetros y , si su función de densidad es:
1 1
f x x 1 x ; 0< x<1
1
Donde: E X ; V ar X 2
1
Se representa con X ( , )
Otras: Poisson truncada, Weibull, Erlang, Lognormal, Pareto, Cauchy,
logística, etc
68
69. 6. Distribuciones
Distribuciones contínuas más importantes
Beta:La distribución beta se usa generalmente para estudiar las variaciones, a
través de varias muestras, de un porcentaje que representa algún
fenómeno, por ejemplo, el tiempo diario que la gente dedica a mirar
televisión, el porcentaje de artículos con fallas en un lote, el porcentaje de
impurezas en un producto, el porcentaje de tiempo que realmente trabaja
un empleado en su horario de trabajo, la distribución del intervalo de
tiempo necesario para completar una fase de proyecto PERT, etc.
La sintaxis en EXCEL es:
Para la acumulada: DISTR.BETA(x; , )
Para la inversa: DISTR.BETA.INV(p, , )
69
70. 6. Distribuciones
Distribuciones contínuas más importantes
Beta:
(Ejemplo) Se ha determinado que la proporción anual de nuevos restaurantes que
fracasan y quiebran en una ciudad sigue una distribución beta β (1, 4).
Determinar :
a) La proporción anual de nuevos restaurantes que se espera fracasen en la ciudad
dada.
b) La probabilidad de que al menos el 25% de los nuevos restaurantes fracasen en
la ciudad un año cualquiera.
(Ejemplo) Los sensores infrarrojos de un sistema robótico computarizad envían
información a otros sensores en diferentes formatos. El porcentaje X de las señales
que se envían y que son directamente compatibles para todos los sensores del
sistema sigue una distribución beta con α = β = 2.
a) Calcule la probabilidad de que más del 30% de las señales de infrarrojos
enviadas en el sistema sean directamente compatibles para todos los sensores.
b) Calcula la media y la varianza de X
70
71. 6. Distribuciones
Distribuciones conjuntas
Si se tienen las v.a. X1, X2, …, Xk se denomina al vector
X=(X1, X2, …, Xk) vector aleatorio.
Def.- La función de distribución conjunta de un vector
aleatorio X es:
F (x1, x2, …, xk)=P(X1 x1, X2 x2, …, Xk xk)
OBS: Dada la f.d.c. de un vector aleatorio X, podemos
determinar:
P(X A) A IRk
71
72. 6. Distribuciones
Distribuciones conjuntas
Funciones de densidad:
CASO DISCRETO:
Def: Si X1, X2, …, Xk son v.a.d. definidas en el mismo
espacio muestral, la función de distribución de
probabilidades conjunta es:
p(x1, x2, …, xk)=P(X1=x1, X2 =x2, …, Xk =xk)
CASO CONTINUO:
Def: En el caso contínuo se define la función de densidad
conjunta como: f(x1, x2, …, xk) tal que:
P(X A) f x1 , x 2 , ..., x k dx1 dx 2 ...dx k
A 72
73. 6. Distribuciones
Distribuciones conjuntas
Distribuciones Marginales:
CASO DISCRETO:
Def: Si X1, X2, …, Xk son v.a.d. con f.d.p. conjunta
p(x1, x2, …, xk), se denomina f.d.p. marginal de xi a:
p i ( xi ) p x1 , x 2 , ..., x k
x1 x2 xi 1 xi 1 xk
CASO CONTINUO:
Def: En el caso contínuo se define la función de densidad
marginal de xi a:
f i ( xi ) f x1 , x 2 , ..., x n dx1 ...dx i 1 dx i 1 ...dx n
73
74. 6. Distribuciones
Distribuciones conjuntas
Independencia:
Def: X1, X2, …, Xk se denominan v.a. independientes si
para cualquier subconjunto X1, X2, …, Xp:
p
f x1 , ..., x p f i xi
i 1
74
75. 7. INFERENCIA ESTADISTICA
Estimación de parámetros
Cuando se supone conocida una distribución para las observaciones
dadas, el parámetro ( ) generalmente es desconocido, es decir se
supone conocida la “forma” de la distribución salvo el valor de su
parámetro.
Para estimar el valor del parámetro se usan las observaciones para
obtener un número, denominado el “estimador”, representado con ˆ
Pero, ¿cómo obtener buenos estimadores?
-Método de los momentos
-Método de la Máxima Verosimilitud
75
76. 7. INFERENCIA ESTADISTICA
Estimación de parámetros
Estimadores de Máxima Verosimilitud (ML)
Dadas las observaciones X1, X2, …, Xn, obtenidas de una
población con densidad f(x; ), se denomina función de
verosimilitud de la muestra a:
n
L( X ; ) f x1 , x 2 , ..., x n / f xi
i 1
El estimador de máxima verosimilitud delˆ parámetro es el
valor de que maximiza L.
Es decir, se obtiene resolviendo la ecuación vectorial:
L
L( X ; ) 0
76
77. 7. Inferencia estadística
INTERVALOS DE CONFIANZA
Los intervalos de confianza para un parámetro cualquiera (por
ejemplo la media) nos dan un rango de valores alrededor del
estimador dónde esperamos se encuentre el verdadero valor del
parámetro (de la población), con cierto nivel dado de certeza.
Es decir, un intervalo de confianza de (1- ) 100% de confianza
para un parámetro es un intervalo de la forma: [LIC, LSC],
donde:
P(LIC LSC) = 1-
77
78. 7. Inferencia estadística
INTERVALOS DE CONFIANZA
Ejemplo:
En una hacienda hay 2000 reses, se ha escogido una
muestra de 50 reses y se ha obtenido que en promedio
pesan 420 Kg. Se conoce que la desviación típica de
los pesos de las reses es de 48 kg.
a. Hallar el IC del 90% para el peso promedio real de
las reses de la hacienda.
b. Hallar el IC del 98% para el peso promedio real de
las reses de la hacienda.
78
79. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
¿Qué es una prueba de hipótesis?
Es un procedimiento estadístico diseñado para comprobar una
hipótesis que se hace el investigador sobre un parámetro
desconocido o sobre la distribución de una población.
Las pruebas de hipótesis se realizan en todos los ámbitos en los
cuales puede contrastarse la teoría frente a la observación,
probar una hipótesis implica tomar una decisión al comparar la
muestra observada con una suposición que se hace de la
realidad.
79
80. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
Los elementos de una prueba de hipótesis son:
- Hipótesis Nula (Ho)
- Hipótesis Alternativa (Ha)
- Estadístico de Prueba (EP)
- Región de rechazo (R.R.) - o nivel de significancia (p)
80
81. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
Decisión y error en una P.H.
Decisión
Rechazar Ho Aceptar Ho
Ho es verdadera Error tipo I Decisión Correcta
Ho es falsa
Decisión Correcta Error tipo II
81
82. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
Decisión y error en una P.H.
P(Error tipo I)=
P(Error tipo II)=
Nivel de significancia: Menor valor de alfa para el cual se
rechaza la hipótesis nula
82
83. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
La significancia estadística de un resultado es la probabilidad
que la relación observada (por ejemplo, entre las variables) o
una diferencia (por ejemplo, entre las medias) en una muestra
ocurrió por pura coincidencia (“la suerte de la lotería”), y que en
la población de la que la que se escoge la muestra no existe tal
relación o diferencias
En muchas áreas de investigación, el valor p de .05 se toma
habitualmente como un valor crítico del nivel del error aceptable
83
84. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
Pruebas inferenciales mas frecuentes de acuerdo a la escala de medición
84
85. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
PRUEBA t
La prueba t para muestras independientes
La prueba t es el método mas comúnmente usado para evaluar las
diferencias entre las medias de dos grupos.
Teóricamente, la t-prueba puede usarse aun cuando los tamaños de la
muestra son muy pequeños (por ejemplo, tan pequeño como 10;
algunos investigadores exigen por lo menos eso)
El nivel p reportado en una t-prueba representa la probabilidad de error
involucrada en aceptar nuestra hipótesis investigada sobre la existencia
de una diferencia.
85
86. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
PRUEBA t
Gráficos de la prueba t. En el análisis de la prueba t, las comparaciones entre
las medias y las medidas de variación en los dos grupos pueden visualizarse
en los diagramas de caja
86
87. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
PRUEBA DE ANOVA
A menudo sucede en la investigación práctica que se necesita comparar más
de dos grupos (por ejemplo, medicina 1, medicina 2, y placebo), o comparar
grupos creados por más de una variable independiente y controlando la
influencia separada de cada uno de ellos (por ejemplo, Género, el tipo de
Droga, y tamaño de Dosis).
En estos casos, se necesita analizar los datos usando el denominado Análisis
de Varianza, que puede considerarse como una generalización de la prueba t
87
88. 7. Inferencia estadística
PRUEBAS DE HIPOTESIS
PRUEBAS NO PARAMETRICAS
Muchas veces no se puede asumir una distribución dada para
una población de donde se han obtenido la(s) muestra(s), en ese
caso se deben utilizar las denominadas pruebas no paramétricas
o libres de distribución, a continuación se presenta una tabla
donde se observan las pruebas no paramétricas equivalentes a
las paramétricas.
88
89. 8. Pruebas de Bondad de ajuste
Muchas veces no se está claro si se cumplen los supuestos de
alguna distribución, otras veces es necesario asumir una
distribución teórica para modelizar la distribución de una
variable, para esto se tienen las pruebas de bondad de ajuste.
Las pruebas de bondad de ajuste más usadas son:
-Prueba 2
-Prueba K-S (Kolmogorov – Smirnov)
89
90. 8. Prueba de Bondad de ajuste 2
Se pueden clasificar a las GOF (goodness-of-fit) en dos grupos:
(1) Las que dividen al rango de los datosPrueba 2
en “casillas” disjuntas, y
luego el número de observaciones que caen en cada casilla es
comparado con el número esperado bajo la distribución
supuesta en la hipótesis nula. Es natural usarlas en el caso
discreto.
Prueba K-S
(2) En estas pruebas se comparan la función de distribución
empírica de la muestra y la función teórica dada en la hipótesis
nula. El estadístico de prueba está basado en alguna medida de
distancia entre las dos distribuciones. Se usan casi
exclusivamente para el caso de distribuciones contínuas.
90
91. 8. Prueba de Bondad de ajuste 2
En la prueba 2 lasn observaciones son agrupadas en k
casillas disjuntas, c/u de las cuales debe contener por lo
menos 5 observaciones, sea ni la frecuencia observada en
la casilla i.
Lo que se desea probar es:
Ho: La distribución de la población es Fo, vs.
Ha: La distribución de la población no puede ser Fo,
Con la distribución Fo dada en Ho, se calculan las
probabilidades de casilla pi, y luego la frecuencia esperada
de casilla = n pi 91
92. 8. Prueba de Bondad de ajuste 2
El estadístico de prueba es:
2
k
2
F .O . F .E .
i 1 F .E .
Y la región de rechazo es:
2 2
con k -1- L grados de libertad
Siendo L el número de parámetros que se deben estimar.
Nota: La distribución 2 con grados de libertad se define como una
distribución Gamma con parámetros = /2 y =2
92
93. 8. Prueba de Bondad de ajuste 2
En resumen, la Prueba de bondad de ajuste 2 es:
Ho: La distribución de la población es Fo(x)
Ha: La distribución de la población no puede ser Fo(x)
2
k
2
F .O . F .E .
E.P.:
i 0 F .E .
2 2
R.R.:
Obs: La frecuencia observada de cada casilla F.O. debe ser 5
93
94. 8. Prueba de Bondad de ajuste K-S
Ho: La distribución de la población es Fo
Ha: La distribución de la población no puede ser Fo
E.P.: D m áxim a distancia Fo ( x ), F x
R.R.: D Dn,
La función F(x) es la distribución empírica de la
muestra
94
96. 9. Métodos de pronóstico: regresión lineal y medias
móviles.
La previsión de la demanda (mas comúnmente conocida como el
pronóstico de la demanda) es la estimación de los niveles futuros
que adoptará la demanda y es un elemento de gran relevancia en
la planificación de la empresa y, por tanto, en la definición de los
objetivos de los diferentes departamentos de la empresa.
Los métodos de estimación de la demanda se clasifican en dos
tipos:
•Los métodos cuantitativos
•Los métodos cualitativos
Ver documento “pronóstico de la demanda.doc”
96
97. 10. Generalización del teorema de Bayes
La regla de Bayes también se puede aplicar a v.a.c..
Supongamos que tenemos una v.a.c. x que es especificada por
una distribución indexada por un parámetro
A priori:
Podemos cuantificar nuestro conocimiento a priori acerca del
valor del parámetro y estimar una distribución a priori
p
Verosimilitud
Esta es la distribución (o verosimilitud) de la v.a. x, es decir:
p x
97
98. 10. Generalización del teorema de Bayes
A posteriori:
Aplicando la regla de Bayes obtenemos la distribución
posterior:
p p x
p x =
p x
Donde el denominador es: p x = p p x d
Cualquier tipo de inferencias pueden hacerse a partir de la
distribución posterior del parámetro del modelo , donde el
dato x incluye información tanto de la a priori como de la
verosimilitud.
98
99. 10. Generalización del teorema de Bayes
Esto es generalizado para una muestra aleatoria x1, x2, …, xn
proveniente de una distribución que depende de los
parámetros 1, 2, …, j.
A Priori: Cuantificamos nuestras creencias acerca de los
parámetros en la forma de una distribución conjunta.
p( 1, 2, …, j)
Donde no necesariamente son independientes.
Verosimilitud: Con la muestra, la distribución conjunta de las
observaciones es:
n
p x1 , , x n 1
, , J
= p xi 1 , , J
i 1 99
100. 10. Generalización del teorema de Bayes
Posterior: Aplicando la regla de
Bayes:
p 1 , , J p x1 , , x n 1 , , J
p , , x1 , , x n =
1 J
p x1 , , x n
Donde el denominador es:
p x1 , , x n = p 1 , , J p x1 , , x n d 1
d J
Notación:
p 1
, , J
x1 , , x n kp 1
, , J
p x1 , , x n 1
, , J
p 1
, , J
p x1 , , x n 1
, , J
100
101. 10. Generalización del teorema de Bayes
la estadística Bayesiana es nada más que un modelo formal de
aprendizaje en un ambiente de incertidumbre aplicado a la
inferencia estadística. Lo a priori expresa mis creencias sobre
antes de observar los datos; mientras que la distribución
expresa mis creencias actualizadas sobre después de observar
los datos.
A partir de esto, llevar a cabo un análisis Bayesiano es
ilusoriamente simple y siempre se procede de la siguiente
manera:
Formular la distribución muestral p y | y la distribución a
priori p .
Calcular la distribución posterior p | y según Bayes
¡Eso es todo! Toda la información acerca de está contenida
ahora en la distribución posterior. Por ejemplo la probabilidad
que A es:
P A| y p |y d
A
101
102. 10. Generalización del teorema de Bayes
Ya que la distribución posterior es la representación completa
de sus creencias sobre , a veces es conveniente informar una
sola estimación, por ejemplo el valor más probable de , este
se denomina entonces el estimador bayesiano de .
Aplicación: sea y = x1, x2, …, xn una muestra aleatoria de
puntuaciones, con la suposición que estas provienen de una
población normal con media y varianza 2,
2
xi N ,
i .i . d .
n
n/2 n 1 2
p y 2 ex p 2
xi
2 i 1
Si usamos la a priori:
1/ 2 1 1 2
p 2 0
exp 2 0
2 0
102
103. 10. Generalización del teorema de Bayes
Donde 0 y 02 son la media y la varianza a priori
conocidas, antes de conocer los datos
La distribución posterior de es:
p y p p y p
p y
p y p y p d
El numerador es:
n
n 1 /2 n 1 1 2 1 2
p y p 2 0
exp 2
xi 2 0
2 i 1 2 0
2 2
n/ x 1/ 0 0 2 1
C on 2 2
; 2 2
n/ 1/ 0
n/ 1/ 0
103
104. 10. Generalización del teorema de Bayes
n
1 2 1 2
Si h y 2
xi x 2 1 2
x 0
2 i 1 2 0
n
Entonces: n
1/ 2 1 1 2
p y p p y 2 exp 2
2 i 1
n/2 n 1
Donde: p y 2 0
exp h y
Luego: 1/ 2 1 1 2
p y 2 exp 2
2
O también:
1 2
p y exp 2
2
104
105. 10. Generalización del teorema de Bayes
En el siguiente gráfico se observan las densidades a priori y
posterior de para diferentes muestras.
Muestra: {1,0,6,0,3}
1
0.8
0.6
0.4
0.2
105
-2 -1 1 2 3 4 5
106. 11. TEORIA DE LA DECISION
Def: La teoría de la decisión estudia los métodos analíticos que
proveen las herramientas para analizar situaciones en las cuales
hay que tomar una o más decisiones.
La decisión tomada debe ser la mejor posible respecto a algún
criterio de optimalidad ( o la mejor posible “en promedio”)
106
107. 11. TEORIA DE LA DECISION
AMBIENTES SOBRE LOS CUALES SE TOMA DECISIONES
Decisiones bajo Certidumbre
Decisiones bajo incertidumbre
Decisiones bajo riesgo
107
108. 11. TEORIA DE LA DECISION
Decisiones bajo Certidumbre: Se conocen con certeza los
resultados o consecuencias de seleccionar cada alternativa
Ejemplo: Se tienen 1000$ a invertir en un año, se los puede poner
en una libreta de ahorros al 3.0% de interés anual o comprar un
certificado de depósito que paga el 5% anual. Asumiendo que
ambas alternativas son seguras el certificado de depósito nos da
un retorno mayor. La decisión óptima está clara, fácil de obtener!.
108
109. 11. TEORIA DE LA DECISION
Otros problemas de decisión bajo certidumbre son muy
complicados, en ese caso solo se puede obtener una “buena”
solución.
Ejemplo: Se tienen 100 clientes, a los cuales se debe entregar
cierto producto en determinado intervalo de tiempo, se conoce la
ubicación, la demanda y la ventana de tiempo de los clientes.
También se tiene un depósito, desde donde deben salir los
vehículos (que tienen una capacidad q conocida) cargados para
satisfacer la demanda de los clientes. Se debe decidir cuántos
vehículos enviar y por donde enviarlos.
109
110. 11. TEORIA DE LA DECISION
Red física: Ubicaciones de clientes
110
111. 11. TEORIA DE LA DECISION
0
Grafo matemático: Nodos, arcos y pesos
111
113. 11. TEORIA DE LA DECISION
Costo del ruteo: 19794
Costo del ruteo: 1307
113
114. 11. TEORIA DE LA DECISION
Decisiones bajo Incertidumbre: No se conocen las
probabilidades asociadas con los diferentes resultados de cada
alternativa.
Ejemplo: Un empresa estudia la posibilidad de añadir un nuevo
producto a su línea de producción. Las alternativas que se
estudian son: hacer una ampliación grande, hacer una ampliación
pequeña, o no hacer ninguna ampliación a las actuales
instalaciones para producir el nuevo producto. Si no conocemos
las probabilidades asociadas con cada uno de los resultados para
las distintas alternativas tenemos que tomar una decisión bajo una
completa incertidumbre.
114
115. 11. TEORIA DE LA DECISION
Decisiones bajo Riesgo: Se conocen las probabilidades asociadas
con los diferentes resultados de cada alternativa.
Ejemplo: Si en el ejemplo anterior se conocen estimaciones de las
probabilidades asociadas a la posible demanda del nuevo
producto, por ejemplo a través de un estudio de mercado, tenemos
un problema de decisión bajo riesgo.
115
116. 11. TEORIA DE LA DECISION
El origen de la teoría de la decisión para la toma de decisiones se
deriva de la economía, en el área de la función de la utilidad del
pago. Propone que las decisiones deben tomarse calculando la
utilidad y la probabilidad de rangos de opciones, y establece
estrategias para una buena toma de decisiones.
Proceso de Toma de Decisiones Estadísticas
A diferencia de los procesos de toma de decisiones
determinísticas tal como, optimización lineal resuelto mediante
sistema de ecuaciones, sistemas paramétricos de ecuaciones y en
la toma de decisión bajo pura incertidumbre, las variables son
normalmente más numerosas y por lo tanto más difíciles de medir
y controlar. Sin embargo, los pasos para resolverlos son los
mismos. Estos son:
116
117. 11. TEORIA DE LA DECISION
1. Simplificar
2. Construir un modelo de decisión
3. Probar el modelo
4. Usar el modelo para encontrar soluciones:
El modelo es una representación simplificada de la situación real
No necesita estar completo o exacto en todas las relaciones
Se concentra en las relaciones fundamentales e ignora las
irrelevantes.
Este es entendido con mayor facilidad que un suceso empírico
(observado), por lo tanto permite que el problema sea resuelto con
mayor facilidad y con un mínimo de esfuerzo y pérdida de
tiempo.
5. El modelo puede ser usado repetidas veces para problemas
similares, y además puede ser ajustado y modificado. 117
118. 11. TEORIA DE LA DECISION
Elementos de la teoría de decisiones:
El análisis de decisiones es un proceso que le permite al decisor seleccionar
una decisión (sólo una) entre un conjunto de alternativas posibles de decisión,
cuando existe incertidumbre con respecto al futuro, con el objetivo de
optimizar el pago (retorno) resultante, en términos de algún tipo de criterio de
decisión numérico. Los elementos de los problemas de análisis de decisiones
son los siguientes:
Hay un decisor responsable individual.
Un número finito de eventos (futuros) posibles, llamados Estados de la
Naturaleza, es decir, un conjunto de escenarios posibles. Las circunstancias en
las cuales se toma una decisión se llaman estados de la naturaleza. Los estados
de la naturaleza se identifican y agrupan en el conjunto ; los miembros se
denotan como . El conjunto es un grupo de conjuntos mutuamente
excluyentes. Es decir, sólo puede ocurrir un estado de la naturaleza. ¿Qué
puede hacer la naturaleza?
118
119. 11. TEORIA DE LA DECISION
Elementos de la teoría de decisiones:
Un número finito de alternativas posibles de decisión. Hay una acción
a, miembro del conjunto A, que puede ser adoptada por el decisor. Sólo puede
adoptar una. ¿Qué puedo hacer? Una buena decisión requiere buscar un
conjunto más rico de alternativas que las que se presentaron inicialmente o que
las aceptadas tradicionalmente.
La manera más sencilla de formular el problema de decisión es usando una
matriz de beneficios (o tabla de pagos). Suponemos que se puede construir una
matriz de beneficios L bien definida, monetaria (y luego de utilidad) sobre dos
conjuntos de dominio dimensionales A y . Las filas y las columnas se asignan
a las alternativas de decisión posibles y a los estados posibles de la
naturaleza, respectivamente. Normalmente no es tarea sencilla construir esta
matriz; por lo tanto, puede requerir algo de práctica.
Generalmente, esta función refleja una ganancia, si el problema se plantea en
términos de pérdidas, estas se pueden expresar como ganancias negativas. Un
valor de la matriz de pagos l(a, ) representa el pago asociado a esta
combinación acción - estado de la naturaleza.
119
120. 11. TEORIA DE LA DECISION
Fuente de Errores en la Toma de Decisiones:
La fuente principal de errores en los problemas de toma de
decisiones arriesgadas son las presunciones falsas, no tener una
estimación exacta de las probabilidades, depender de la
expectativa, dificultades en medir la función de utilidad, y los
errores de pronóstico.
120
121. 11. TEORIA DE LA DECISION
Acciones dominadas:
En los problemas de decisión suelen existir muchas acciones
posibles, por lo tanto es conveniente que previamente se lo
reduzca tanto como sea posible.
Decimos que una acción a’ es dominada por una acción a, si los
pagos para a son mejores que los pagos para a’, sin importar el
estado de la naturaleza. Es decir:
: l a, l a ',
Si los pagos son ganancias, al contrario si son costos
121
122. 11. TEORIA DE LA DECISION
EJEMPLO:
Una compañía de computadoras compra chips a dos proveedores,
A y B. En cada orden de 1000 chips (independientemente del
proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
El proveedor A vende el paquete de 1000 chips por $300 y el
proveedor B lo vende por $302. Cada chip defectuoso se devuelve
a un costo de $0.15 por chip. ¿A cuál proveedor conviene
comprar los chips? Estados de la naturaleza
% defectuosos
Proveedor 1% 3% 5%
Acciones
A -301.5 -304.5 -307.5
B -303.5 -306.5 -309.5
Acción dominada Pagos 122
123. 11. TEORIA DE LA DECISION
EJEMPLO:
Una compañía de computadoras compra chips a dos proveedores,
A y B. En cada orden de 1000 chips (independientemente del
proveedor) puede haber 1%, 3%, o 5% de chips defectuosos.
El proveedor A vende el paquete de 1000 chips por $300 y el
proveedor B lo vende por $302. Cada chip defectuoso adquirido
al proveedor A es devuelto a un costo de $0.15 por chip, mientras
que uno defectuoso adquirido al proveedor B es devuelto a un
costo de $0.05 ¿A cuál proveedor conviene comprar los chips?
TABLA DE PAGOS 1% DEFECTUOSOS 3% DEFECTUOSOS 5% DEFECTUOSOS
ADQUIRIR A PROVEEDOR A -301.5 -304.5 -307.5
ADQUIRIR A PROVEEDOR B -302.5 -303.5 -304.5
123
124. 11. TEORIA DE LA DECISION
OBSERVACIONES A PARTIR DE LA TEORIA DE JUEGOS:
El pago es una medida cuantitativa del valor de las consecuencias del
resultado para el tomador de decisiones, en este sentido muchas veces el
pago se representa por la ganancia monetaria neta (utilidad). Si las
consecuencias del resultado no son completamente ciertas aun cuando
ocurra el estado de la naturaleza, entonces el pago se convierte en un
valor esperado (en el sentido estadístico) de la medida de las
consecuencias
Sea l(a, ) el pago al tomar la acción a cuando el estado de la naturaleza
es . En general, se usa una tabla de pagos para cada combinación de a y
y ; en el contexto de la teoría de juegos el tomador de decisiones y la
naturaleza se pueden ver como dos jugadores.
Las acciones posibles y los estados de la naturaleza posibles se pueden
ver como las estrategias disponibles para los respectivos jugadores,
donde cada combinación de estrategias da como resultado un pago para
el jugador 1 (el tomador de decisiones).
124
125. 11. TEORIA DE LA DECISION
Así se tiene que:
- El tomador de decisiones necesita elegir una de las acciones
posibles
- La naturaleza elegirá luego uno de sus estados (de la naturaleza)
posibles, cada combinación de una acción a y un estado de la
naturaleza da como resultado uno de los elementos de la tabla
de pagos. Esta tabla de pagos debe usarse para encontrar una
acción óptima para el tomador de decisiones según un criterio
adecuado.
Si consideramos que en la teoría de juegos ambos jugadores son
racionales y eligen sus estrategias para promover su propio
beneficio, esto se ajusta al tomador de decisiones pero no a la
naturaleza ya que esta es un jugador pasivo que elige sus
estrategias (estados de la naturaleza) de una manera aleatoria.
125
126. 11. TEORIA DE LA DECISION
TIPOS DE MODELOS DE DECISION:
Existen tipos diferentes de modelos de decisión que ayudan a
analizar distintos escenarios, dependiendo de la cantidad y el
grado de conocimiento que tengamos. Los tres tipos más
ampliamente utilizados son:
– Decisión tomada con pura incertidumbre,
– Decisión tomada con riesgo,
– Decisión tomada comprando información (empujando el
problema hacia el "polo" determinista)
126
127. 11. TEORIA DE LA DECISION
TOMA DE DECISIONES BAJO INCERTIDUMBRE:
En las decisiones tomadas con pura incertidumbre, el decisor no
tiene ningún conocimiento, ni siquiera de la probabilidad de
ocurrencia de cualquier estado de la naturaleza. En este caso, el
comportamiento del decisor se basa puramente en su actitud hacia
lo desconocido. Algunos de estos comportamientos son los
optimistas, los pesimistas y los de arrepentimiento, entre otros.
Optimista: El vaso está medio lleno.
Pesimista: El vaso está medio vacío.
Gerente: El vaso es el doble de grande de lo necesario.
127
128. 11. TEORIA DE LA DECISION
Comportamiento según los tipos de personalidad y la toma de
decisiones con pura incertidumbre:
Pesimismo, o Conservador (MAXIMIN). Las cosas malas
siempre me suceden a mí.
Optimismo, Agresivo (MAXIMAX). Las cosas buenas siempre
me suceden a mí.
Mínimo arrepentimiento: (Pérdida de Oportunidad de Savage).
Odio las lamentaciones. Debo minimizar las situaciones
deplorables. Mi decisión debe ser tal que valga la pena repetirla.
Sólo debería hacer las cosas que siento que podría repetir con
placer.
128
129. 11. TEORIA DE LA DECISION
MAXIMIN:
Basado en la teoría de juegos, se selecciona la acción
encontrando el pago mínimo sobre todos los estados posibles de
la naturaleza y después encontrar el máximo de estos pagos
mínimos.
Es válido cuando se considera que se está compitiendo contra un
oponente racional y malévolo, como puede ser el caso de la
competencia con alguna otra empresa; sin embargo si se
considera que el oponente es la propia naturaleza resulta
demasiado conservador en este contexto ya que la naturaleza no
es un oponente malévolo y el tomador de decisiones no necesita
enfocar su atención solo en el peor pago de cada acción.
En el caso de que la tabla de pagos sea de Costos o pérdidas,
sería un criterio MINMAX 129
130. 11. TEORIA DE LA DECISION
MAXIMIN: Seleccionar la acción ak en la cual se tiene la
ganancia maximin:
l ak , r
M ax M in l a j , i
j i
Ejemplo: Sea el problema de decisión con tabla de ganancias:
1 2
Mínimo
a1 0 2 0
a2 -1 4 Mínimo Máximo
-1
La acción Maximin es a1
130
131. 11. TEORIA DE LA DECISION
MAXIMAX: Seleccionar la acción ak en la cual se tiene la
ganancia maximax:
l ak , r
M ax M ax l a j , i
j i
Ejemplo: En el problema anterior:
1 2
Máximo
a1 0 2 2
Máximo
a2 -1 4 4
Máximo
La acción Maximax es a2
131
132. 11. TEORIA DE LA DECISION
MINIMAX: Construir la tabla de pérdida de oportunidades LP, y
seleccionar la acción ak en la cual se tiene la pérdida de
oportunidades minimax:
LP ak , r
M in M ax l a j , i
j i
Ejemplo: En el problema anterior:
L 1 2 LP 1 2
Máximo
a1 0 2 a1 0 2 2
Máximo
a2 -1 4 a2 1 0 1
Mínimo
La acción Minimax es a2
132