Ce diaporama a bien été signalé.
Le téléchargement de votre SlideShare est en cours. ×

Analisis de Factores - Taller de Investigación.pptx

Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Chargement dans…3
×

Consultez-les par la suite

1 sur 54 Publicité

Plus De Contenu Connexe

Similaire à Analisis de Factores - Taller de Investigación.pptx (20)

Plus récents (20)

Publicité

Analisis de Factores - Taller de Investigación.pptx

  1. 1. Universidad Nacional del Altiplano Puno 1 DOCENTE: Ernesto, CALANCHO MAMANI INTEGRANTES: • ALVAREZ VALDEZ Emerson Santy • APAZA APAZA Jhoan Tito • CALCINA LUQUE, Yorgiño Alex • CALISAYA ROJAS Edward Alexander • CALLE CHURA, Yenifer Katerin • CCAPA PAJA Ludwing • CHOQUE RUELAS Jóse Richard • CHURA CHURA, Wilber • ESPILLICO CHAGUA Yony Ivan • HUANCA AMANQUI Jhon Cristian • HURTADO SANCHEZ JOEL WILMER • LIRA POMA, Karem Nataly • MAMANI CHAMBILLA, Joseluis
  2. 2. Nombre del moderador
  3. 3. ÍNDICE • Definición de Análisis Factorial • Análisis de la matriz de correlación • Extracción de factores • Rotación de Factores • Puntuaciones Factoriales • Ejemplo 3
  4. 4. Análisis Factorial
  5. 5. ¿Qué es el Análisis Factorial? • El análisis factorial es una técnica de reducción de datos que sirve para encontrar grupos homogéneos de variables a partir de un conjunto numeroso de variables. • El Análisis Factorial es, por tanto, una técnica de reducción de la dimensionalidad de los datos. Su propósito consiste en buscar el número mínimo de dimensiones capaces de explicar el máximo de información contenida en los datos. • A diferencia de lo que ocurre en otras técnicas como el análisis de varianza o el de regresión, en el análisis factorial todas las variables del análisis cumplen el mismo papel: todas ellas son independientes en el sentido de que no existe a priori una dependencia conceptual de unas variables sobre otras. Fundamentalmente lo que se pretende con el Análisis Factorial es simplificar la información que nos da una matriz de correlaciones para hacerla más fácilmente interpretable. 3/9/20XX Título de la presentación 5
  6. 6. ¿Qué hace el Análisis Factorial? • Se encarga de analizar la varianza común a todas las variables. Partiendo de una matriz de correlaciones, trata de simplificar la información que ofrece. Se opera con las correlaciones elevadas al cuadrado r2 (coeficientes de determinación), que expresan la proporción de varianza común entre las variables. En cada casilla de la matriz de correlaciones se refleja la proporción de varianza común a dos ítems o variables, excepto en la diagonal principal (donde cada ítem coincide consigo mismo) En los 1 de la diagonal principal se refleja la varianza que cada ítem o variable comparte con los demás y también los que no comparten. Si se desea analizar exclusivamente la varianza compartida habrá que eliminar los unos de la matriz de correlaciones y poner en su lugar la proporción de varianza que cada ítem tiene en común con todos los demás. 3/9/20XX Título de la presentación 6
  7. 7. En el Análisis Factorial, por tanto, caben dos enfoques: I. Analizar TODA la varianza (común y no común). En este caso utilizamos los unos de la matriz de correlaciones. El método más usual es el de Análisis de Componentes Principales. II. Analizar SOLO la varianza común. En este caso, se substituyen los unos de la diagonal por estimaciones de la varianza que cada ítem tiene en común con los demás (y que se denominan Comunalidades). Para la estimación de las comunalidades no hay un cálculo único, existen diversos procedimientos (correlaciones múltiples de cada ítem con todos los demás, coeficientes de fiabilidad si cada variable es un test). El procedimiento por el que se sustituyen los unos por las comunalidades se denomina Análisis de Factores Comunes. Los dos enfoques caben bajo la denominación genérica de Análisis Factorial, aunque es el Análisis de Factores Comunes al que con más propiedad se le aplica la denominación de Análisis Factorial. Ambos enfoques dan resultados similares y se interpretan de manera casi idéntica 3/9/20XX Título de la presentación 7
  8. 8. ¿Qué es un FACTOR? En realidad los factores no existen, lo que existe de cada sujeto es una suma de sus respuestas a una serie de ítems o preguntas, una combinación lineal de variables (ítem a + ítem b + ítem c + … ).
  9. 9. • Si encontramos, por ejemplo, tres factores, esto quiere decir que podemos descomponer el instrumento original en tres instrumentos; cada uno está compuesto por todos los ítems, pero en cada instrumento los ítems tienen un peso específico distinto según sea su relación con cada factor:
  10. 10. • El análisis factorial se reduce a la búsqueda de estos pesos para localizar medidas distintas a partir de las variables originales, y de manera que, a poder ser, entre todas las nuevas medidas agoten o expliquen toda la varianza presente en las variables originales. 3/9/20XX Título de la presentación 10
  11. 11. ESQUEMA DE UN ANÁLISIS FACTORIAL: 3/9/20XX Título de la presentación 11
  12. 12. MODELO DEL ANÁLISIS FACTORIAL Sean (X1, X2,…, Xp) las p variables objeto de análisis que supondremos en todo lo que sigue, que están tipificadas. El investigador mide estas variables sobre n individuos, obteniéndose la siguiente matriz de datos: Donde: • (F1, F2, …, Fk) (k<p) son los Factores Comunes. • (u1, u2, …, up) los Factores únicos o • Específicos. • y los Coeficientes (aij) {i = 1, …, p; j=1, ... ,k} las Cargas factoriales. • además, los Factores Comunes están incorrelados [Cov(Fi, Fj) = 0 si i≠j; j, i=1,…,k] estamos ante un modelo con factores ortogonales. • En caso contrario el modelo se dice que es de factores oblicuos.
  13. 13. EXPRESADO EN FORMA MATRICIAL: Utilizando las hipótesis anteriores, se tiene: La varianza de cada una de las variables analizadas se puede descomponer en dos partes: La Comunalidad: que representa la varianza explicada por los factores comunes Especificidad: que representa la parte de la varianza específica de cada variable. 𝒉𝒊 𝟐 = Comunalidad Ψ= Especificidad • por lo que son los factores comunes los que explican las relaciones existentes entre las variables. • Por este motivo, los factores comunes tienen interés y son susceptibles de interpretación • Experimental.
  14. 14. Análisis de la matriz de correlación
  15. 15. 3/9/20XX Título de la presentación 15 ¿Qué es una matriz de correlación? Es una matriz de coeficientes de correlación entre varias variables que son cuantitativas. La correlación trata de establecer la relación o dependencia que existe entre las dos variables que intervienen en una distribución bidimensional. La correlación entre dos variables mide el grado de ajuste de la nube de puntos a la función matemática asignada. Variables X Y Z X 𝑟𝑥𝑥 𝑟𝑥𝑦 𝑟𝑥𝑧 Y 𝑟𝑦𝑥 𝑟𝑦𝑦 𝑟𝑦𝑧 Z 𝑟𝑧𝑥 𝑟𝑧𝑦 𝑟𝑧𝑧 Es decir, determinar si los cambios en una de las variables influyen en los cambios de la otra.
  16. 16. 16 ¿Qué es coeficiente de correlación? Es una medida del grado de asociación lineal entre dos variables cuantitativas. 𝒓𝒙𝒚 = [−𝟏, 𝟏] ∓𝟎. 𝟎𝟎 ∓𝟎. 𝟎𝟗 Correlación nula ∓𝟎. 𝟏𝟎 ∓𝟎. 𝟏𝟗 Correlación muy débil ∓𝟎. 𝟐𝟎 ∓𝟎. 𝟒𝟗 Correlación débil ∓𝟎. 𝟓𝟎 ∓𝟎. 𝟔𝟗 Correlación moderada ∓𝟎. 𝟕𝟎 ∓𝟎. 𝟖𝟒 Correlación significativa ∓𝟎. 𝟖𝟓 ∓𝟎. 𝟗𝟓 Correlación fuerte ∓𝟎. 𝟗𝟔 ∓𝟏. 𝟎 Correlación perfecta
  17. 17. Correlación igual a cero (r=0): Cuando la correlación es igual a cero significa que no es posible determinar algún sentido de covariación. Sin embargo, no significa que no exista una relación no lineal entre las variables. 1 Correlación mayor a cero (r > 0): Si la correlación es igual a +1 significa que es positiva perfecta. En este caso significa que la correlación es positiva, es decir, que las variables se correlacionan directamente. 2 Correlación menor a cero (r < 0): Si la correlación es menor a cero, significa que es negativa, es decir, que las variables se relacionan inversamente. 3
  18. 18. 18 EJEMPLO: Una empresa realiza una encuesta y se plantea a sus trabajadores algunas cuestiones como la siguientes. A B C D Años de antigüedad laboral. 1 4 7 8 Estudio de actualización en el último año. 2 2 8 4 Ingreso semanal que perciben. 1 13 1 5 SOLUCION:  x = Años de antigüedad laboral.  y = Estudio de actualización en el último año.  z = Ingreso semanal que perciben.
  19. 19. 19 X Y Z 1 2 1 4 2 13 7 8 1 8 4 5 Calculo con funciones simples de Excel X Y Z X 1 0.670820 39 0 Y 0.670820 39 1 -0.5 Z 0 -0.5 1 Interpretación Los valores que quedan en la diagonal todos adquieren el valor 1 esto debe a que la variable se esta relacionando consigo mismo es decir x con x. Lo que nos interesa es la relación entre las distintas variables. Tomamos por ejemplo las variables X la relacionamos con la variable Y, la relación que hay se mide por el valor de coeficiente en este caso es 0.67082039 por lo tanto hay una correlación moderada entre esas variables.
  20. 20. 20 La finalidad de analizar la matriz de las correlaciones muestrales es la correlación muestral observada entre las variables, es comprobar si sus características son las adecuadas para realizar un Análisis Factorial. Uno de los requisitos que deben cumplirse es que las variables se encuentran altamente intercorrelacionadas. También se espera que las variables que tengan correlación muy alta entre sí la tengan con el mismo factor o factores. En consecuencia, si las correlaciones entre todas las variables son bajas, tal vez no sea apropiado el Análisis Factorial.
  21. 21. Kaiser- Meyer-Olkin (KMO) Indica la adecuación de los datos a un modelo de AF. Permite valorar el grado en que cada una de las variables es predecible a partir de las demás. Valores KMO por debajo de 0.5 no serán aceptables, considerándose inadecuados los datos a un modelo de AF. Mientras más cercanos a 1 los valores de KMO mejor es la adecuación de los datos a un AF
  22. 22. Esfericidad de Bartlett Corroborar que el modelo factorial es adecuado para explicar los datos de la muestra, indicando que existen relaciones significativas entre las variables. Pone a prueba la hipótesis nula de que las variables analizadas no están correlacionadas en la muestra o que la matriz de correlación es la identidad (las intercorrelaciones entre las variables son cero) Tiene que ser significativo el valor de Chi- cuadrado (p< 0.05)
  23. 23. Ejemplo 3/9/20XX Título de la presentación 23 Tabla 3. Prueba de adecuación de Kaiser-Meyer-Olkin y esfericidad de Bartlett Medida Kaiser-Meyer-Olkin de adecuación de muestreo ,813 Prueba de esfericidad de Bartlett Aprox. Chi-cuadrado 2414,969 gl 45 Sig. ,000 Fuente: Salida resultados SPSS.
  24. 24. Métodos de extracción de factores
  25. 25. 3/9/20XX Título de la presentación 25 MÉTODO DESCRIPCIÓN MÉTODO DE LAS COMPONENTES PRINCIPALES Utilizada para formar combinaciones lineales no correlacionadas de las variables observadas. El primer componente tiene la varianza máxima. Las componentes sucesivas explican progresivamente proporciones menores de la varianza y no están correlacionadas unas con otras. El análisis principal de las componentes se utiliza para obtener la solución factorial inicial. No se puede utilizar cuando una matriz de correlaciones es singular. MÉTODO DE LOS EJES PRINCIPALES Parte de la matriz de correlaciones original con los cuadrados de los coeficientes de correlación múltiple insertados en la diagonal principal como estimaciones iniciales de las comunalidades. Las cargas factoriales resultantes se utilizan para estimar de nuevo las comunalidades que reemplazan a las estimaciones previas de comunalidad en la diagonal. Las iteraciones continúan hasta que el cambio en las comunalidades, de una iteración a la siguiente, satisfaga el criterio de convergencia para la extracción. MÉTODO DE LA MÁXIMA VEROSIMILITUD Proporciona las estimaciones de los parámetros que con mayor probabilidad ha producido la matriz de correlaciones observada, si la muestra procede de una distribución normal multivariada. Las correlaciones se ponderan por el inverso de la exclusividad de las variables, y se emplea un algoritmo iterativo.
  26. 26. MÉTODO DESCRIPCIÓN Método Mínimos cuadrados no ponderados Minimiza la suma de los cuadrados de las diferencias entre las matrices de correlación observada y reproducida, ignorando las diagonales. Método Mínimos cuadrados generalizados Minimiza la suma de los cuadrados de las diferencias entre las matrices de correlación observada y reproducida. Las correlaciones se ponderan por el inverso de su exclusividad, de manera que las variables que tengan un valor alto de exclusividad reciban una ponderación menor que aquéllas que tengan un valor bajo de exclusividad. Factorización de imágenes Desarrollado por Guttman y basado en la teoría de las imágenes. La parte común de una variable, llamada la imagen parcial, se define como su regresión lineal sobre las restantes variables, en lugar de ser una función de los factores hipotéticos. Factorización Alfa Método de extracción factorial que considera a las variables incluidas en el análisis como una muestra del universo de las variables posibles. Este método maximiza el Alfa de Cronbach para los factores. 3/9/20XX Título de la presentación 26
  27. 27. DETERMINAR EL NÚMERO DE FACTORES: Se trata de cumplir el principio de parsimonia, entonces se debe de determinar el número de factores que conviene conservar para lo cual existen diversas reglas y criterios 3/9/20XX Título de la presentación 27
  28. 28. CRITERIO PROS CONTRAS Determinación “a priori” Es el criterio más fiable si los datos y las variables están bien elegidos y el investigador conoce la situación. Lo ideal es plantear el Análisis Factorial con una idea previa de cuántos factores hay y cuáles son. . Regla de Kaiser Calcula los valores propios de la matriz de correlaciones y toma como número de factores el número de valores propios superiores a la unidad. Tiende a infraestimar el número de factores por lo que se recomienda su uso para establecer un límite inferior. Criterio del porcentaje de la varianza Tiende a infraestimar el número de factores por lo que se recomienda su uso para establecer un límite inferior. No tiene ninguna justificación teórica o práctica. Criterio de Sedimentación Se trata de la representación gráfica donde los factores están en el eje de abscisas y los valores propios en el de ordenadas. Los factores con varianzas altas suelen diferenciarse de los factores con varianzas bajas. Se pueden conservar los factores situados antes de este punto de inflexión. Tiene el inconveniente de que depende del ‘ojo’.
  29. 29. CRITERIO PROS CONTRAS Criterio de división a la mitad La muestra se divide en dos partes iguales tomadas al azar y se realiza el Análisis Factorial en cada una de ellas. Solo se conservan los factores que tienen alta correspondencia de cargas de factores en las dos muestras. Antes de aplicarlo, conviene comprobar que no existen diferencias significativas entre las dos muestras en lo que se refiere a las variables estudiadas.. Pruebas de significación En la mayor parte de los casos exploratorios “k” no puede ser especificado por adelantado y, en consecuencia, se utilizan procedimientos secuenciales para determinar “k”. Los parámetros en el modelo factorial son estimados utilizando el método de máxima verosimilitud. Se comienza usualmente un valor pequeño: k=1 Si el estadístico del test no es significativo, se acepta el modelo con este número de factores, en caso contrario, se aumenta k=2 y se repite el proceso hasta alcanzar una solución aceptable. El principal inconveniente de este método es que está basado en resultados asintóticos y que, si el tamaño de la muestra es grande, se corre el riesgo de tomar el valor “k” excesivamente grande puesto que el test detecta cualquier factor por pequeño que sea su poder explicativo.
  30. 30. INTERPRETACIÓN DE LOS FACTORES: La interpretación de los factores se basa en las correlaciones estimadas de los mismos con las variables originales. 3/9/20XX Título de la presentación 30
  31. 31. • Juega un papel preponderante el conocimiento del investigador. • Proceso de interpretación: • Identificar las variables cuyas correlaciones con el factor son las más elevadas en valor absoluto. • Intentar dar nombre a los factores: El nombre se asigna de acuerdo con la estructura de las correlaciones. Cuando es positiva la relación entre el factor y dicha variable, es directa, caso contrario es inversa. • Ordenar la matriz factorial de forma que las variables con cargas altas para el mismo factor aparezcan juntas. • Eliminar las cargas factoriales bajas y de este modo suprimir información redundante. El investigador decide a partir de qué valor deben eliminarse las cargas factoriales. De cara a una mayor facilidad interpretativa, el investigador puede ordenar la matriz factorial y eliminar las cargas factoriales bajas. Generalmente, se toma como significativas las cargas superiores a 0,5 en valor absoluto. Aunque, si el factor es más tardío o el número de variables es grande, se eleva el valor mínimo de la carga factorial significativa. 31
  32. 32. Rotación de Factores
  33. 33. • La Rotación de Factores a partir de la solución inicial buscan factores cuya matriz de cargas factoriales los hagan más fácilmente interpretables. • Estos métodos intentan aproximar la solución obtenida al Principio de Estructura Simple Louis Leon Thurstone 1935, y debe reunir las siguientes características: • Cada factor debe tener pocos pesos altos y los otros próximos a 0. • Cada variable no debe estar saturada más que en un factor. • No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas altas y bajas distintas. Existen dos formas básicas de realizar la Rotación de Factores: • Rotación ortogonal. • Rotación oblicua. 3/9/20XX Título de la presentación 33
  34. 34. ROTACION ORTOGONAL: Los métodos empleados en la rotación ortogonal de factores son: Varimax, Quartimax, Equamax. • Rotación de Criterio Varimax (Ortogonal) • Método de rotación ortogonal que minimiza el número de variables que tienen cargas altas en cada factor. Simplifica la interpretación de los factores. • Rotación de Criterio de Quartimax • El objetivo es que cada variable tenga correlaciones elevadas con un pequeño número de factores. Para ello Maximiza la varianza de las cargas factoriales al cuadrado de cada variable en los factores, es decir, se trata de maximizar la función: • Método Equamax. • Método de rotación que es combinación del método varimax, que simplifica los factores, y el método quartimax, que simplifica las variables. Se minimiza tanto el número de variables que saturan alto en un factor como el número de factores necesarios para explicar una variable. 3/9/20XX Título de la presentación 34
  35. 35. ROTACION OBLICUA • La matriz factorial no rotada se convierte en dos matrices diferentes: la matriz de ponderaciones (que es la que se utiliza en la interpretación) y la matriz de correlaciones entre factores y variables. También obtendremos otra matriz de correlaciones entre factores. • La rotación oblicua puede utilizarse cuando es probable que los factores en la población tengan una correlación muy fuerte. 3/9/20XX Título de la presentación 35
  36. 36. Puntuaciones Factoriales
  37. 37. CÁLCULO DE PUNTUACION ES FACTORIALE S Son variadas las posibilidades de analizar las puntuaciones factoriales de los sujetos: • Conocer qué sujetos son los más raros o extremos. • Conocer dónde se ubican ciertos grupos o sub colectivos de la muestra. • Conocer en qué factor sobresalen unos sujetos y n qué factor no. Es necesario conocer los valores que toman los factores en cada observación, pues en ocasiones, el Análisis Factorial es un paso previo a otros análisis: Regresión Múltiple o Análisis Cluster, en los que sustituye el conjunto de variables originales por los factores obtenidos. 3/9/20XX Título de la presentación 37
  38. 38. Métodos del Cálculo de las Puntuaciones. Existen diversos métodos de estimación de la matriz F, las propiedades deseables que verificarán los factores estimados son: Cada factor estimado presente una correlación alta con el verdadero factor. Cada factor estimado tenga correlación nula con los demás factores verdaderos. Los factores estimados son incorrelados dos a dos (mutuamente ortogonales si son ortogonales). Los factores estimados son estimadores insesgados de los verdaderos factores. 3/9/20XX Título de la presentación 38 Los métodos de estimación más utilizados: Regresión, Barlett, Anderson‐Rubin.
  39. 39. Método de Regresión: Estima F por el método de los mínimos cuadrados: El Método de Regresión da lugar a puntuaciones con máxima correlación con las puntuaciones teóricas.:
  40. 40. Método de Barlett: Utiliza el método de los mínimos cuadrados generalizados estimando las puntuaciones factoriales mediante:: El Método de Barlett da lugar a puntuaciones correladas con las puntuaciones teóricas, insesgadas y unívocas.
  41. 41. Método de Anderson‐Rubin: Estima F mediante el método de los mínimos cuadrados generalizados, imponiendo la condición F'F=1 : El Método de Anderson‐Rubin da lugar a puntuaciones ortogonales que están correladas con las puntuaciones teóricas
  42. 42. SELECCIÓ N DE VARIABLE S. El investigador en ocasiones desea seleccionar las variables más representativas de los factores, en lugar de calcular sus puntuaciones. 3/9/20XX Título de la presentación 42
  43. 43. VALIDACIÓ N DEL MODELO El último paso en el Análisis Factorial es estudiar la validez del modelo. El proceso debe realizarse en dos direcciones: Analizando la bondad de ajuste y la Generalidad de los resultados. 3/9/20XX Título de la presentación 43
  44. 44. Bondad de Ajuste • Una suposición básica subyacente al Análisis Factorial es que la correlación observada entre las variables puede atribuirse a factores comunes. Generalidad de los resultados • Es conveniente refrendar los resultados del primer análisis factorial realizando nuevos análisis factoriales sobre nuevas muestras extraídas de la población objeto de estudio y, en caso de no ser posible, sobre submuestras de la muestra original. 3/9/20XX Título de la presentación 44
  45. 45. Otro de los procedimientos metodológicos y estadísticos que complementan y profundizan las interpretaciones que se deducen del análisis factorial consiste en la realización de otros análisis factoriales en base, no al conjunto total de la muestra o población, sino referido a subcolectivos o grupos que están presentes en la muestra y que pueden formarse utilizando las categorías de las variables primarias 3/9/20XX 45
  46. 46. Lo que se desprende de los trabajos e investigaciones que han utilizado este procedimiento es que generalmente la interpretación que se da y que es válida para el conjunto total de sujetos debe modificarse, en algunos casos sustancialmente, cuando se refiere a esos sub colectivos • Las variables se comportan en el Análisis Factorial de distinta forma según de qué muestra se trate. • No existe el sujeto ‘tipo’ sino que existen diferentes ‘tipos’ de sujetos en la muestra global. 3/9/20XX Título de la presentación 46
  47. 47. ANÁLISIS FACTORIA L Siendo una técnica estadística multivariante cuya finalidad es analizar las relaciones de interdependencia existentes entre un conjunto de variables, calculando un conjunto de variables latentes, denominadas factores, que explican con un número menor de dimensiones, dichas relaciones. Por este motivo, el Análisis Factorial es una técnica de reducción de datos con un número menor de variables sin distorsionar dicha información, lo que aumenta el grado de manejo e interpretación de la misma.
  48. 48. Ejemplo
  49. 49. Se considera una muestra de los años de vida esperados por país, edad y sexo procedentes de Keyfitz y Flieger (1971). 3/9/20XX Título de la presentación 49 m0 m25 m50 m75 w0 w25 w50 w75 Algeria 63 51 30 13 67 54 34 15 Cameroon 34 29 13 5 38 32 17 6 Madagascar 38 30 17 7 38 34 20 7 Mauritius 59 42 20 6 64 46 25 8 Reunion 56 38 18 7 62 46 25 10 Seychelles 62 44 24 7 69 50 28 14 South Africa(C) 50 39 20 7 55 43 23 8 South Africa(W) 65 44 22 7 72 50 27 9 Tunisia 56 46 24 11 63 54 33 19 Canada 69 47 24 8 75 53 29 10 Costa Rica 65 48 26 9 68 50 27 10 Dominican Rep 64 50 28 11 66 51 29 11 El Salvador 56 44 25 10 61 48 27 12 Greenland 60 44 22 6 65 45 25 9 Grenada 61 45 22 8 65 49 27 10 Guatemala 49 40 22 9 51 41 23 8 Honduras 59 42 22 6 61 43 22 7 Jamaica 63 44 23 8 67 48 26 9 Mexico 59 44 24 8 63 46 25 8 Nicaragua 65 48 28 14 68 51 29 13 Panama 65 48 26 9 67 49 27 10 Trinidad(62) 64 63 21 7 68 47 25 9 Trinidad (67) 64 43 21 6 68 47 24 8 United States (66) 67 45 23 8 74 51 28 10 United States (NW66) 61 40 21 10 67 46 25 11 United States (W66) 68 46 23 8 75 52 29 10 United States (67) 67 45 23 8 74 51 28 10 Argentina 65 46 24 9 71 51 28 10 Chile 59 43 23 10 66 49 27 12 Columbia 58 44 24 9 62 47 25 10
  50. 50. 3/9/20XX Título de la presentación 50 Estadísticos descriptivos Media Desviación típica N del análisis m0 59,613 79,191 31 m25 44,129 59,033 31 m50 22,935 34,052 31 m75 8,387 20,278 31 w0 64,194 88,220 31 w25 47,516 49,858 31 w50 26,290 33,386 31 w75 10,129 25,787 31 Matriz de correlaciones(a) m0 m25 m50 m75 w0 w25 w50 w75 Correlación m0 1,000 ,748 ,636 ,290 ,980 ,874 ,697 ,318 m25 ,748 1,000 ,667 ,391 ,693 ,725 ,647 ,393 m50 ,636 ,667 1,000 ,752 ,557 ,772 ,802 ,593 m75 ,290 ,391 ,752 1,000 ,247 ,547 ,687 ,710 w0 ,980 ,693 ,557 ,247 1,000 ,887 ,710 ,365 w25 ,874 ,725 ,772 ,547 ,887 1,000 ,940 ,684 w50 ,697 ,647 ,802 ,687 ,710 ,940 1,000 ,828 w75 ,318 ,393 ,593 ,710 ,365 ,684 ,828 1,000 Sig. (Unilateral) m0 ,000 ,000 ,057 ,000 ,000 ,000 ,041 m25 ,000 ,000 ,015 ,000 ,000 ,000 ,014 m50 ,000 ,000 ,000 ,001 ,000 ,000 ,000 m75 ,057 ,015 ,000 ,090 ,001 ,000 ,000 w0 ,000 ,000 ,001 ,090 ,000 ,000 ,022 w25 ,000 ,000 ,000 ,001 ,000 ,000 ,000 w50 ,000 ,000 ,000 ,000 ,000 ,000 ,000 w75 ,041 ,014 ,000 ,000 ,022 ,000 ,000 a Determinante = 7,91E-007
  51. 51. 3/9/20XX Título de la presentación 51 KMO y prueba de Bartlett Medida de adecuación muestral de Kaiser-Meyer-Olkin. ,794 Prueba de esfericidad de Bartlett Chi-cuadrado aproximado 372,323 gl 28 Sig. ,000 Comunalidades(a) Método de extracción: Máxima verosimilitud. Matriz factorial(a) a 3 factores extraídos. Requeridas 7 iteraciones. Prueba de la bondad de ajuste Chi- cuadrado gl Sig. 6,275 7 ,508
  52. 52. 3/9/20XX Título de la presentación 52 Correlaciones reproducidas m0 m25 m50 m75 w0 w25 w50 w75 Correlación reproducida m0 ,999(b) ,748 ,636 ,290 ,980 ,874 ,696 ,318 m25 ,748 ,649(b) ,684 ,431 ,697 ,723 ,647 ,369 m50 ,636 ,684 ,905(b) ,725 ,557 ,769 ,807 ,600 m75 ,290 ,431 ,725 ,707(b) ,244 ,556 ,690 ,653 w0 ,980 ,697 ,557 ,244 ,996(b) ,887 ,711 ,363 w25 ,874 ,723 ,769 ,556 ,887 ,989(b) ,939 ,688 w50 ,696 ,647 ,807 ,690 ,711 ,939 ,980(b) ,827 w75 ,318 ,369 ,600 ,653 ,363 ,688 ,827 ,852(b) Residual(a) m0 ,001 ,000 -7,91E-5 1,04E-5 -7,65E-5 ,000 ,000 m25 ,001 -,017 -,040 -,004 ,002 ,000 ,024 m50 ,000 -,017 ,027 ,000 ,003 -,004 -,006 m75 -7,91E-5 -,040 ,027 ,003 -,009 -,003 ,058 w0 1,04E-5 -,004 ,000 ,003 ,000 -,001 ,002 w25 -7,65E-5 ,002 ,003 -,009 ,000 ,001 -,004 w50 ,000 ,000 -,004 -,003 -,001 ,001 ,001 w75 ,000 ,024 -,006 ,058 ,002 -,004 ,001 Método de extracción: Máxima verosimilitud. a Los residuos se calculan entre las correlaciones observadas y reproducidas. Hay 1 (3,0%) residuales no redundantes con valores absolutos mayores que 0,05. b Comunalidades reproducidas
  53. 53. 3/9/20XX Título de la presentación 53 Matriz de factores rotados(a) Factor 1 2 3 m0 ,964 ,120 ,233 m25 ,645 ,168 ,453 m50 ,428 ,376 ,762 m75 ,078 ,537 ,642 w0 ,970 ,220 ,078 w25 ,763 ,561 ,303 w50 ,535 ,732 ,397 w75 ,156 ,869 ,271 Método de extracción: Máxima verosimilitud. Método de rotación: Normalización Varimax con Kaiser. a La rotación ha convergido en 6 iteraciones. Varianza total explicada Suma de las saturaciones al cuadrado de la rotación Factor Total % de la varianza % acumulado 1 3,369 42,107 42,107 2 2,127 26,589 68,696 3 1,580 19,751 88,447 Método de extracción: Máxima verosimilitud. Matriz de transformación de los factores Factor 1 2 3 1 ,956 ,187 ,225 2 -,258 ,902 ,347 3 -,138 -,390 ,910 Método de extracción: Máxima verosimilitud. Método de rotación: Normalización Varimax con Kaiser.
  54. 54. Gracias 3/9/20XX Título de la presentación 54

×