Variables aleatorias discretas y continuas
Prochain SlideShare
Loading in...5
×

Vous aimez ? Partagez donc ce contenu avec votre réseau

Partager
  • Full Name Full Name Comment goes here.
    Êtes-vous sûr de vouloir
    Votre message apparaîtra ici
    Be the first to comment
No Downloads

Vues

Total des vues
32,931
Sur Slideshare
32,927
From Embeds
4
Nombre d'ajouts
1

Actions

Partages
Téléchargements
227
Commentaires
0
J'aime
1

Ajouts 4

http://aulas.uniminuto.edu 4

Signaler un contenu

Signalé comme inapproprié Signaler comme inapproprié
Signaler comme inapproprié

Indiquez la raison pour laquelle vous avez signalé cette présentation comme n'étant pas appropriée.

Annuler
    No notes for slide

Transcript

  • 1. VARIABLES ALEATORIAS DISCRETAS Y CONTINUASSucesos y Probabilidades El espacio de los sucesos. Un experimento, enestadística, es cualquierproceso que proporcionadatos, numéricos o nonuméricos. Un conjunto cuyoselementos representantodos los posibles resultadosde un experimento se llamaespacio muestral y se
  • 2. representa como S. Elespacio muestral de unexperimento siempre existey no es necesariamenteúnico pues, dependiendo denuestra valoración de losresultados, podemosconstruir diferentes espaciosmuestrales. Los elementos del espaciomuestral se llaman puntosmuestrales y son losdistintos resultados delexperimento.
  • 3. Si consideramos elconjunto de las partes de(P(S)) sus elementos son lossucesos. Un suceso, portanto, es un subconjunto delespacio muestral. Existen dos tipos desucesos: · Sucesos simples, que son aquellos que comprenden un sólo punto muestral.
  • 4. · Sucesos compuestos, que son los que engloban más de un punto del espacio muestral. Todo suceso compuesto se puede considerar como unión de puntos del espacio muestral o unión de sucesos simples.Azar, suceso aleatorio yprobabilidad. El azar, en el lenguajenormal, se considera comola característica de unsuceso imprevisible.
  • 5. En estadística estadefinición se modificaañadiendo una propiedadadicional: El azar es lacaracterística de unexperimento que produceresultados diversos,impredecibles en cadasituación concreta, perocuyas frecuencias, a la larga,tienden a estabilizarse haciaun valor "límite" en elinfinito. Como consecuencia, sedefinen los sucesos
  • 6. aleatorios como losresultados de unexperimento cuya variación(la de los resultados) esdebida al azar. La probabilidad de unsuceso sólo se define para elcaso de sucesos aleatorios.Hay varias formas de definirla probabilidad. En primer lugar podemosconsiderar la definiciónintuitiva que nos dice que laprobabilidad de un suceso es
  • 7. la posibilidad de que ésteocurra. Esta primeradefinición no parece de granutilidad por ser difícilmentecuantificable. También podemosconsiderar la definiciónclásica de probabilidad. Enesta definición se empiezapor considerar todos losresultados posibles de unexperimento; después secontabilizan los resultadosfavorables a nuestro suceso,es decir, todos aquellos en
  • 8. que el experimento resultaen el suceso considerado;por último, suponiendo queexiste simetría recíproca detodos los resultados, esdecir, que todos losresultados posibles sonigualmente posibles, sedefine la probabilidad comoel número de casosfavorables dividido por elnúmero de casos posibles. Esta segunda definiciónpresenta el inconvenientede que no siempre es
  • 9. posible saber cuantos sonlos resultados posibles de unexperimento y no siempretodos los resultados posiblesson igualmente probables. Por tanto, consideraremosla probabilidad definida deotra forma. Supongamosque realizamos muchasveces un experimento yvamos anotando el valor dela frecuencia relativa que,como sabemos, tiende aestabilizarse. Suponiendoque pudiéramos realizar el
  • 10. experimento infinitas veces,el valor de estabilización delas frecuencias en el infinitosería la probabilidad de lossucesos. Es decir, laprobabilidad es el valor de lafrecuencia relativa en elinfinito. Es importanteseñalar, que este valor deestabilización no es un límiteen el sentido matemático dela expresión pues, por ser unsuceso aleatorio, nadiepuede garantizar unaecuación matemática para el
  • 11. valor de la frecuenciarelativa. Todo el cálculo deprobabilidades y, con él,toda la estadística se basanen tres propiedades que seasignan a las probabilidades,que se llaman axiomas deKolmogorov 1. La probabilidad de un suceso es siempre mayor o igual que cero y menor o igual que uno
  • 12. Si A es un suceso2. La probabilidad del espacio muestral es igual a uno: Si S es el espacio muestral Es evidente, pues si realizamos un experimento siempre a de suceder alguna cosa. Esta propiedad se expresa como que la probabilidad de un suceso cierto es
  • 13. igual a uno. Si S tiene unúnico elemento ése es unsuceso cierto. Comoconsecuencia, siguiendo elrazonamiento anterior, laprobabilidad de que noocurra nada, lo cual esimposible, o en notaciónde conjuntos laprobabilidad del conjuntovacío ( ) es cero. P( ) = 0Se llama suceso imposiblea aquel cuya probabilidadvale cero.
  • 14. 3. Si A y B son sucesos mutuamente excluyentes, es decir, nunca ocurren simultáneamente (A B = ) la probabilidad de su unión, es decir, de que ocurra uno u otro es la suma de sus probabilidades. P(A B) = P(A) + P(B) Otras propiedades de lasprobabilidades.
  • 15. · Si A y B son dos sucesos cualesquiera:· Se llama suceso contrario del suceso A al suceso A que se define como A’ = S – A. La probabilidad del suceso contrario es:
  • 16. · Se llama probabilidad condicional del suceso B respecto del suceso A a la probabilidad de que, dado que el resultado de un experimento haya sido A sea, simultáneamente, B. Este valor se representa como P(B|A). Por transposición de términos en la ecuación anterior y en la correspondiente a la
  • 17. probabilidad condicional de A respecto de B llegamos a:· Se dice que dos sucesos A y B son independientes si y sólo si la probabilidad de su intersección es igual al producto de sus probabilidades
  • 18. Sucesos Sucesosdependiente independiente s sVariables aleatorias Como dijimos, unexperimento estadístico escualquier proceso queproporciona datos. Para suutilización en estadística,estos datos tienen quedespojarse de detallesaccesorios para convertirse
  • 19. en descripciones numéricasdel resultado; la utilizaciónde clasificacionescualitativas, restringe a lamera descripción lasposibilidades de manejoestadístico. Estas descripcionesnuméricas sonobservaciones aleatorias. Alas observaciones aleatoriasse les considera como laexpresión en cada casoconcreto de una variablealeatoria que toma valores
  • 20. en los resultados delexperimento. Así pues, una variablealeatoria es una funcióncuyos valores son númerosreales determinados por loselementos del espaciomuestral, es decir, unavariable aleatoria es unavariable matemática cuyosvalores posibles son lasdescripciones numéricas detodos los resultados posiblesde un experimentoestadístico.
  • 21. A los valores posibles dela variable aleatoria se lesasigna una probabilidad quees la frecuencia delresultado al quecorresponden. Se pueden distinguirdistintos tipos de variablesaleatorias según doscriterios de clasificación: 1. Variables cuantitativas que son las que resultan de experimentos cuyos
  • 22. resultados son directamente numéricos. 2. Variables cualitativas que son las que proceden de experimentos cuyos resultados expresan una cualidad no numérica que necesita ser cuantificada. Otra clasificación másoperativa de las variablesaleatorias sería: A. Variable discreta: Aquella que se define
  • 23. sobre un espaciomuestral numerable,finito o infinito. Espacionumerable es aquelcuyos elementos sepueden ordenar,asignándoles a cada unoun número de la serie delos números naturales(del 1 al n ó del 1 al I).Todas las variables conun número finito devalores y todas las quetomen valores ennúmeros enteros o
  • 24. racionales (fraccionarios), son variables discretas. B. Variable continua: Es aquella que se define sobre un espacio asimilable al conjunto de los números reales, es decir, un espacio no numerable (o un espacio infinito de tipo C o infinito dos) En general, la regla de oroes que todas las variablesque proceden de
  • 25. experimentos en los que secuenta son discretas y todaslas variables que procedende experimentos en los quese mide son continuas.Variables aleatoriasdiscretas Función de probabilidad Una variable aleatoriadiscreta toma cada uno desus valores con unadeterminada probabilidad.
  • 26. La relación entre valores yprobabilidades en unavariable X se puede expresarde forma tabular de lasiguiente manera:Valores x1 x2 ... xi de XP(X = x) P(x1) P(x2) P(xi) Este método puede sercomplicado, e inclusoimposible, si los valores de la
  • 27. variable son muchos oinfinitos. En algunos casos, existeuna forma sistemática deaplicación de los valores dela probabilidad a los valoresde la variable, de modo talque se puede establecer unaecuación que ligue ambos. Aesta ecuación se le llamafunción de probabilidad. Portanto, la función deprobabilidad de una variablealeatoria discreta X es unafunción tal que, al sustituir x
  • 28. por un valor de la variable, elvalor que toma la función esla probabilidad de que lavariable X asuma el valor x.Habitualmente, la función deprobabilidad se representacomo f(x). f(x) = P(X = x) Las funciones deprobabilidad sólo se definenpara los valores de lavariable aleatoria y debencumplir tres propiedades:
  • 29. 1. Como consecuencia del primer axioma. 2. Como consecuencia del segundo axioma. 3. P(X = x) = f(x) Por definición.Función de distribución
  • 30. La función de distribuciónF(x) de una variable aleatoriadiscreta X, con función deprobabilidad f(x), es unafunción de la variable en laque al sustituir x por unvalor, el valor de la funciónes la probabilidad de que lavariable tome valoresmenores o iguales que dichovalor x.
  • 31. La función de distribuciónse define para todos losnúmeros reales, no sólo paralos valores de la variable. Sumáximo es siempre 1 puescuando el valor que sesustituye es mayor o igualque el valor máximo de lavariable, la probabilidad deque ésta tome valoresmenores o iguales que elsustituido es la probabilidaddel espacio muestral.Normalmente, sus valores sedan de forma tabular.
  • 32. Supongamos, por ejemploque los valores de la variableX sean x1, x2, x3,... , xnVariables aleatoriascontinuasFunción de densidad
  • 33. Una variable aleatoriacontinua tiene lacaracterística de tomar cadauno de sus valores conprobabilidad infinitesimal, aefectos prácticos, 0. Portanto, no se puedenexpresar en forma tabular.Sin embargo, aunque no sepueden considerarprobabilidades de valoresconcretos, puede calcularsela probabilidad de que lavariable tome valores endeterminados intervalos (los
  • 34. intervalos en cuestiónpueden ser abiertos ocerrados, sin que semodifique la probabilidadtotal).P(a ≤ X ≤ b) = P(X = a) + P(a <X < b) + P(X = b) = P(a < X <b) Tal como ocurría en elcaso de las variablesdiscretas, cuando existe unaasignación regular deprobabilidad se puede
  • 35. definir una función que nospermita calcularprobabilidades paracualquier intervalo devalores, a esta función se lellama función de densidad,f(x) La función de densidad deuna variable aleatoriacontinua X es una funcióncontinua tal que su integralentre los extremos de unintervalo nos da el valor dela probabilidad de que X
  • 36. tome valores en eseintervalo. La representación gráficade la función de densidad enun sistema de ejescartesianos es la de unacurva continua, construidade forma tal que la altura dela curva, sobre el eje de lasX, en cada punto es elcociente entre el diferencialde la probabilidad en dicho
  • 37. punto y el diferencial de x.Esta construcción es unaextensión por diferenciacióndel concepto de histograma. Como consecuencia, laintegral de f(x) sobre todo elcampo de variación de X esigual a 1. Es evidente que f(x) essiempre positiva pues si nolo fuera cabría la posibilidadde encontrar intervalos paralos cuales la integral seríanegativa y eso significaríaprobabilidad negativa, en
  • 38. abierta contradicción con ladefinición de probabilidad. La función de densidadsiempre se define para todoslos valores en el intervalo(-∞,∞) Esto no ofreceproblemas si el campo devariación de X se extiendepor todo el intervalo; si nofuera así, la función sedefine como igual a ceropara todos los valores noincluidos en el campo devariación de X.
  • 39. La función de densidaddebe cumplir trescondiciones análogas a lasde la función deprobabilidad: como consecuencia delprimer axioma como consecuencia delsegundo axioma
  • 40. por definiciónFunción de distribución Para variables continuastambién se define la funciónde distribución, de lasiguiente manera:
  • 41. Las características de F(x)son iguales a las expuestaspara el caso de las variablesdiscretas, salvo que,obviamente, nunca seexpresan en forma tabular. En general, cualquiera quesea el tipo de variable, lasfunciones de distribuciónnos pueden servir paracalcular probabilidades. Por
  • 42. ejemplo, en el caso de lasvariables continuas:Dada su definición, resultaque, para variablescontinuas, la función dedensidad es la derivadarespecto a X de la función dedistribución. Las funciones dedistribución de las variables
  • 43. continuas más interesantesestán tabuladas.Distribución conjunta dedos variables Cuando tenemos dosvariables aleatorias X e Y, siqueremos estudiarlasconjuntamente debemos
  • 44. establecer una relación queligue los valores de una conlos de la otra. Esta relaciónpodrá ser lógica o no, útil ono, en cualquier caso, dadasdos variables cualesquiera yuna relación que las ligue sepuede pensar en realizar unestudio estadístico conjunto,es decir, aun cuando en lapráctica sólo se utilicenvariables unidas por nexoslógicos, desde un punto devista puramente teórico,
  • 45. toda relación imaginablepuede ser estudiada. Así pues, en una situacióncomo esta, para variablesdiscretas, se puedeestablecer una función deprobabilidad para lasposibles parejas de valoresde ambas variables; a estafunción se le llama funciónde probabilidad conjunta,f(x,y). Una función deprobabilidad conjunta de lasvariables X e Y es una
  • 46. función de las dos variablestal que, al sustituir la x porun valor de la variable X y lay por un valor de la variableY, el valor de la función nosda la probabilidad de que X eY tomen simultáneamenteesa pareja de valoresanteriormente citados. Las propiedades que debecumplir la función deprobabilidad conjunta son:
  • 47. 1. Como consecuencia del primer axioma. 2. Como consecuencia del segundo axioma. 3. Por definición. Donde X x Y es elproducto cartesiano de X
  • 48. por Y, o sea, el conjunto detodos las parejas de valoresx,y . Si X e Y son variablescontinuas, la función que sedefine es una función dedensidad conjunta y es unafunción que al integrarlarespecto de x e y sobre unosintervalos nos d laprobabilidad de que lavariable tome valores enesos intervalos.
  • 49. Que debe de cumplir unascondiciones similares a lasanteriores: 1. Como consecuencia del primer axioma. 2. Como consecuencia del segundo axioma.
  • 50. 3. Por definición.Variables aleatoriasindependientes Dos variables aleatorias Xe Y, discretas o continuas
  • 51. cuyas funciones deprobabilidad o densidad song(x) y h(y), respectivamente,con función de probabilidado densidad conjunta f(x , y),son estadísticamenteindependientes si y sólo si
  • 52. Variables Variablesindependient dependientes esValor esperado de unavariable Supongamos quehemos realizado n veces unexperimento aleatorio quegenera una variable X. Elvalor medio del experimentoen estas n repeticiones es la
  • 53. suma de los productos de losvalores de la variable por sufrecuencia relativa. Cuandon sea igual a infinito, el valormedio del experimento sellama valor esperado oesperanza matemática, E[X]. Si X es una variablediscreta con función dprobabilidad f(x), el valoresperado de X se calculasegún decíamosanteriormente sumando losproductos de los valores de
  • 54. la variable por susrespectivas probabilidades.En el caso de una variablecontinuaPropiedades del valoresperado
  • 55. · Al multiplicar todos los valores de una variable por una misma constante, el valor esperado de ésta queda multiplicado por el valor de la constante.· Al sumar a todos los valores de una variable una misma constante, el valor esperado de ésta
  • 56. queda incrementado por el valor de la constante.· Si tenemos dos variables X e Y, discretas o continuas, el valor esperado de su suma o diferencia es la suma o diferencia de sus valores esperados
  • 57. E[X ± Y] = E[X] ± E[Y]· Si las variables anteriores, X e Y son variables aleatorias independientes ocurre que el valor esperado de su producto es igual al producto de sus valores esperados.
  • 58. E[X Y] = E[X] E[Y] Es importante indicar quela independencia de lasvariables es condiciónsuficiente pero no necesariapara que el valor esperadodel producto de dosvariables sea igual alproducto de sus valoresesperados, es decir, ésta es
  • 59. una propiedad de lasvariables independientespero se cumple en variablesque no son independientes.Momentos de una variableMomentos respecto delorigen Dada una variablealeatoria X con función deprobabilidad o densidad f(x)podemos definir una funciónde X que sea igual a la
  • 60. variable elevada a unexponente entero nonegativo. El valor esperado de z(x)es el k-ésimo momento de lavariable X respecto a suorigen y se llama
  • 61. · k=0 · k=1a este primer momentorespecto al origen que esigual al valor esperado se lellama también mediaaritmética de la variable y
  • 62. se le denomina μX,simplemente μ. En la mayoría de los casos,la media μ expresa latendencia central de lavariable o el orden demagnitud de sus valores. El resto de los momentosrespecto al origen tienenescaso interés en la mayoríade los casos.Momentos respecto a lamedia
  • 63. Dada una variablealeatoria X con función deprobabilidad o densidad f(x)podemos definir una funciónde X que sea igual a ladiferencia entre la variable ysu media aritmética elevadaa un exponente entero nonegativo.
  • 64. El valor esperado de z(x)es el k-ésimo momento de lavariable X respecto a lamedia y se llama μk. Ø k=0
  • 65. Ø k=1es decir, en cualquiervariable aleatoria suprimer momento respectode la media es igual a 0.Esta propiedad se utilizarreiteradamente en lasdemostracionesestadísticas.Ø k=2
  • 66. este segundo momentorespecto de la media se lellama también varianza. La varianza de unavariable mide ladispersión de sus valores
  • 67. respecto al valor centralμ. Para calcular la varianzapor un método mássencillo se utiliza laexpresión: Es decir, la varianza deuna variable es igual a lamedia de los cuadradosmenos el cuadrado de lamedia.
  • 68. El principal problemade la varianza es que seexpresa en unidadescuadráticas que nosiempre tienen unainterpretación clara. Paraobviar este problema sedefine otra medida de la
  • 69. dispersión que es ladesviación típica, σX, osimplemente σ, que secalcula como la raízcuadrada positiva de lavarianza; evidentemente,la desviación típica semide en las mismasunidades que la variable No obstante, ladesviación típica noresuelve todos losproblemas que se pueden
  • 70. plantear, como porejemplo la comparaciónde situaciones en las quela unidad de medida o elorden de magnitud deesta sea diferente. Pararesolver esta cuestión sedefine una medidaadimensional de lavariabilidad que es elcoeficiente de variación,C V, que se calcula comoel cociente entre ladesviación típica y lamedia (a veces este
  • 71. cociente se expresa entanto por cientomultiplicándolo por 100). En este contexto de lamedida de la variación seplantea el problema demedir la variaciónconjunta de variables devariables asociadas. Supongamos quetenemos dos variables
  • 72. aleatorias X e Y, discretaso continuas, con funciónde probabilidad odensidad conjunta f(x,y) ydefinimos una funciónz(x,y) igual al producto delas desviaciones de cadavalor a su mediarespectiva (es decir, z(x,y)tiene la misma estructura 2que (X - μ) = (X - μ) (X - μ)si sustituimos una vez a Xpor Y).
  • 73. Al valor esperado dez(x,y) se le llamacovarianza de lasvariables X e Y y serepresenta como σxy ocov(x,y). La covarianza es unamedida de la variación
  • 74. común a dos variables y,por tanto, una medida delgrado y tipo de surelación. · σxy es positiva si los valores altos de X están asociados a los valores altos de Y y viceversa. · σxy es negativa si los valores altos de X están asociados a los valores bajos de Y y viceversa. · Si X e Y son variables aleatorias
  • 75. independientes cov(x,y) =0. · La independencia es condición suficiente pero no necesaria para que la cov(x,y) sea nula.cov(x,y) cov(x,y) cov(x,y) =0 >0 <0 Se puede deducir, algebraicamente, un medio más sencillo para
  • 76. calcular la covarianza dedos variables. En el caso de lacovarianza tenemos elmismo problema que senos presentó con lavarianza, es decir, lacovarianza se expresa entérminos del producto delas unidades de medida deambas variables, lo cual
  • 77. no siempre es fácilmenteinterpretable. Por otraparte también es difícilcomparar situacionesdiferentes entre sí. Eneste caso, ambosproblemas se solucionande una vez mediante ladefinición del coeficientede correlación, ρ, que sedefine como el cocienteentre la covarianza y elproducto de lasdesviaciones típicas de lasdos variables.
  • 78. La correlación tomavalores entre -1 y 1,siendo su signo igual al dela covarianza.Correlaciones con valorabsoluto 1 implican queexiste una asociaciónmatemática linealperfecta, positiva onegativa, entre las dos
  • 79. variables y correlacionesiguales a 0 implicanausencia de asociación.Obviamente, las variablesindependientes tienencorrelación 0, peronuevamente, laindependencia escondición suficiente perono necesaria. Correlaciones convalores absolutosintermedios indican ciertogrado de asociación entre
  • 80. los valores de lasvariables.Propiedades de lavarianza Si X es una variablealeatoria con función deprobabilidad o densidadf(x), la varianza de unafunción de la variable X ,m(x) , se calcula según laexpresión:
  • 81. Casos concretos:1. Cuando a todos los valores de una variable se les suma una constante, la varianza de la variable conserva el mismo valor (ver imagen en las propiedades de la media)2. Cuando a todos los valores de una variable se les
  • 82. multiplica por una constante, la varianza de la variable queda multiplicada por el valor de la constante elevado al cuadrado (ver imagen en las propiedades de la media)3. Si X e Y son dos variables aleatorias con función de
  • 83. densidad o probabilidad conjunta f(x,y), la varianza de la función m(x,y) = a X ± b Y, donde a y b son constantes reales se calcula como:En el caso de que a = b=1
  • 84. Si además ocurre que Xe Y seanindependientes σxy = 0 ,luego
  • 85. Volviendo al tema de losmomentos respecto alorigen, veamos los dossiguientes que también soninteresantes, Ø k=3 = asimetría
  • 86. El tercer momentorespecto de la media midela asimetría de ladistribución, es decir, siexisten o noobservaciones muyextremas en algún sentidocon frecuenciasrazonablemente altas. Sila asimetría es negativa, lavariable toma valores muybajos con mayorfrecuencia que valoresmuy altos y se dice quetiene una cola izquierda
  • 87. pesada o que esasimétrica hacia laizquierda. Si la asimetríaes positiva, la variabletoma valores muy altoscon mayor frecuencia quevalores muy bajos y sedice que tiene una coladerecha pesada o que esasimétrica hacia laderecha. Si la asimetría escero, los valores bajos yaltos de la variable tienenprobabilidades iguales (elejemplo más típico de
  • 88. variable simétrica es lavariable normal) La asimetría tiene elmismo problema que lavarianza y la covarianza encuanto a sus unidades demedida y, por ello,normalmente se utilizauna medida adimensionalde la asimetría que es elcoeficiente de asimetría,g1, que se calcula como elcociente entre el tercermomento y el cubo de ladesviación típica.
  • 89. Ø k=4 = curtosis El cuarto momento respecto de la media mide la curtosis de la distribución, es decir, la forma de la distribución de probabilidad. Al
  • 90. representar gráficamentevariables con curtosispequeña, platicúrticas, seobservan curvas ohistogramas con colascortas y aspecto aplanadoo en meseta; si la variabletiene curtosis grande, esdecir, si es leptocúrtica, sugráfica ser alta yestilizada, con colas largasy pesadas. La curtosis de unavariable siempre espositiva y se mide en la
  • 91. unidades de la variableelevadas a potencia 4. Portanto, nuevamente se nosplantean los problemasrelacionados con lasunidades de medida y lasescalas y necesitamos unamedida adimensional dela curtosis. Esta medidaadimensional de lacurtosis es el coeficientede curtosis, g2, que secalcula como el cocienteentre el cuarto momentoy el cuadrado de la
  • 92. varianza, al que se le resta3 unidades. Estacorrección se debe a que,sin ella, las variablesnormales tendríancoeficiente de curtosisigual a 3; al restar 3conseguimos que elcoeficiente de curtosis dela variable normal sea 0 yque las variablesplaticúrticas tengancoeficiente de curtosisnegativo y la leptocúrticaspositivo, lo cual es más
  • 93. mnemotécnico que ladistinción entre curtosispequeña y grande. g2 = 0 g2 > 0 g2 < 0