PRUEBA ESTADÍSTICA Y SUS ELEMENTOS
En una prueba estadística todo se inicia con una suposición que hacemos de un valor hipotético de la población, cosa que se puede determinar, por ejemplo, en forma intuitiva o producto de la experiencia que tenemos sobre un parámetro de algún evento, que en particular creemos que tiene una determinada población.
Uno de los objetivos de una prueba estadística es el de probar una hipótesis relacionada con los valores de uno o más parámetros poblacionales. Una vez planteado el problema, formulamos una hipótesis de investigación respecto a los parámetros que queremos sustentar y después de seleccionar la hipótesis, se recogen los datos empíricos que dan información directa acerca de la aceptabilidad de ésta, la cual es llamada hipótesis nula y se denota mediante H0 . Este término, hipótesis nula, surgió de las primeras aplicaciones agrícolas y médicas de la estadística, teniendo como fin el probar la efectividad de un nuevo fertilizante o una nueva medicina, la hipótesis que se probaba era que no tuvo efecto, es decir, no hubo diferencia entre las muestras tratadas y no tratadas.
Cuando nos referimos a un parámetro cualquiera de la población, por ejemplo θ, el símbolo θ 0 se usará en los planteamientos de este tipo de problemas para representar el valor hipotético del parámetro poblacional que corresponde a la hipótesis nula.
La decisión acerca del significado de los datos, una vez procesado, puede conducir a la confirmación, revisión o rechazo de la hipótesis y, con ella, la teoría que la originó.
La hipótesis alternativa, que se denota por H1 , es la hipótesis que se acepta si se rechaza H0 y que queremos comprobar con base en la información de la muestra.
Por definición una hipótesis estadística es una afirmación o conjetura de la distribución de una o más variables aleatorias.
Prueba t de Student
- Selección completamente aleatoria de los grupos.
- Homocedasticidad (homogeneidad de las varianzas de la variable dependiente en ambos grupos)
- Distribución normal de la variable dependiente en los dos grupos.
- Nivel intervalar de la variable dependiente
Su función es comparar dos grupos de puntuaciones (medias aritméticas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
Esta prueba tiene modalidades, una para muestras independientes y otra para grupos relacionados.
La prueba de rangos asignados de Wilcoxon pertenece a las pruebas no paramétricas de comparación de dos muestras relacionadas, es decir:
- · Es libre de curva, no necesita una distribución específica
- · Nivel ordinal de la variable dependiente
Se utiliza para comparar dos grupos relacionados de rangos (medianas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
EJEMPLO
Con los datos de la encuesta Encinf.sav probar si hay discrepancia entre la valoración que hacen los alumnos sobre la dotación de las aulas de informática (Dotación) y la valoración que hacen del software disponible (Software).
Se trata de contrastar la hipótesis nula de que la valoración de la dotación de las aulas es igual a la valoración del software instalado. Dado que las valoraciones de ambas características son asignadas por los mismos individuos, las muestras resultantes no son independientes. Por otra parte, las variables se miden en una escala ordinal, y por tanto el contraste más adecuado es la prueba de Wilcoxon.
Para realizar este contraste la secuencia es:
Estadística > Pruebas no paramétricas > 2 muestras relacionadas.
En el cuadro de diálogo se selecciona en Contrastar pares las variables Dotación y Software; por defecto está activada la prueba de Wilcoxon. Al aceptar se obtienen los siguientes resultados:
Como puede verse en el cuadro Rangos, el número de elementos para los cuales el valor de la variable Software es mayor que el de la variable dotación es considerablemente mayor que el de los elementos para los que está mejor valorada la dotación que el software. En el cuadro Estadísticos de contraste, el valor tipificado del estadístico de prueba (la menor de las dos sumas de rangos) es igual a -5,280; por tanto, se rechaza la hipótesis nula de que la valoración de la dotación es igual que la del software para cualquier nivel de significación.
PRUEBA DE WILCOXON
La prueba de Wilcoxon para intervalos con signo, hace un mejor aprovechamiento de la información contenida en las observaciones, ya que toma en cuenta, además de los signos, las magnitudes de las diferencias por medio de los rangos a que son asignados.
Sean ( 1 Z ,…, n Z ) una muestra aleatoria de la variable aleatoria continua Z y ( (1) Z ,…, (n) Z ) la muestra ordenada asociada. Se llama rango i R de la variable aleatoria i Z al número de variables aleatorias i Z menores o iguales a i Z , 1≤ i ≤ n . Luego el rango se determinará mediante la fórmula i R (1 ( ))
1injj X X − − =Σ= ψ , donde ψ es como se definió en la sección II.1.1, teniéndose en particular que (1) Z (2) (3) ( ) .... n < Z < Z < < Z y i R es tal que i (Ri ) Z = Z , siendo sus valores extremos (1) Z = min( 1 Z ,…, n Z ) y
(n) Z = máx( 1 Z ,…, n Z ).
En esta prueba se ordenan por rango los valores absolutos de las diferencias en relación con sus signos: asignamos el rango 1 a la menor de las diferencias en valor absoluto, el rango 2 a la segunda diferencia más pequeña en valor absoluto, y así sucesivamente. Cuando varias de las diferencias sean las mismas, si fuera el caso de las que corresponderían a 3, 4 y 5, cada una tomaría como rango el valor promedio de las tres, en este caso, 4, seria el rango asignado a cada una de las diferencias iguales, y a la siguiente diferencia en valor absoluto más grande se le asignaría el rango 5.
Calcularíamos ahora la suma de los rangos para las diferencias negativas T − y las sumas de los rangos para las diferencias positivas T + .En el caso de una prueba de dos colas utilizamos T, la más pequeña de estas dos cantidades, como estadístico de prueba para probar la hipótesis nula que afirma que las dos poblaciones son idénticas. Cuanto más pequeño sea el valor de T, mayor el peso de la evidencia que favorece el rechazo de la hipótesis nula. Por consiguiente, rechazaremos la hipótesis nula si T es menor o igual a algún valor Tα .
La hipótesis nula permite que para cada rango, las probabilidades de que se le asigne una diferencia positiva o una negativa son ambas ½. Podemos escribir el estadístico como
T + = 1. 1 X + 2. 2 X + . . . . . . + n nX , donde 1 X , 2 X ,. . . .y n X son variables aleatorias independientes que tienen la distribución de Bernoulli con p = ½. Como el valor esperado y varianza de las i X son E( i X ) = 0.1/2 +1.1/2 = 1/2 y Var( i X ) = 1/2 .(1 – 1/2 ) = 1/4 para i = 1, 2, 3, ……,n , y tomando en cuenta las siguientes propiedades
E ( n n a X + a X + ....... + a X 1 1 2 2 ) = ( ) 1 1 a E X + . . . + ( ) n n a E X y
Var( n n a X + a X + ....... + a X 1 1 2 2 ) = ( ) + 1
2
1 a Var X . . . + 2
n a Var ( ) n X , se deduce que
E (T + ) = 1.1/2 + 2.1/2 + . . . + n.1/2 =
2
1+ 2 + ... + n y aplicando el método de inducción completa, se tiene que E( T + ) =
4
n(n +1) , que
Var(T + ) = 1 2 .1/4 + 2 2 .1/4 +. . .+n 2 .1/4 =
4
1+ 2 + ... + n y aplicando de nuevo el método anterior, se llega a que
Var(T + ) =
24
n(n +1)(2n +1)
La probabilidad de que T sea menor o igual a algún valor Tα está calculado para una combinación de tamaños muestrales y valores de Tα . Estas probabilidades, se pueden utilizar para determinar la región de rechazo de la prueba que se basa en T.
Cualquiera sea la hipótesis alternativa, podemos basar todas las pruebas de la hipótesis nula 0 μ = μ en la distribución de T, debiendo sólo tener cuidado de utilizar la estadística correcta y el valor crítico correcto de T, como se muestra en la tabla II.2.1
Hipótesis alternativa
Rechace la hipótesis nula si:
0 μ ≠ μ T ≤ Tα
μ > 0 μ T − ≤ T 2α
0 μ < μ T + ≤ T 2α
Donde, como se indica, el nivel de significancia es α en cada prueba. Los valores críticos de T, que son tales que Tα es el valor más grande para el cual P(T≤ Tα ) no es mayor que α , se dan en la tabla 3 del apéndice B. Obsérvese que los mismos valores críticos sirven para pruebas en diferentes niveles de significancia, dependiendo de que la hipótesis alternativa sea unilateral o bilateral.
PRUEBA DE RANGOS CON SIGNOS DE WILCOXON PARA UN
EXPERIMENTO DE PARES COMPARADOS
En este caso, al igual que la prueba del signo de pares comparados, contamos también con n observaciones pareadas ( i X , i Y ) y i D = i X - i Y . Nos interesa probar la hipótesis de que los valores de X e Y tienen la misma distribución frente a la hipótesis alternativa que sostiene que la localización de las distribuciones es diferente.
En la hipótesis nula no hay diferencia en las distribuciones de los valores de X eY , esperaríamos que la mitad de las diferencias de los pares fuera negativa y la otra mitad positiva, o sea, que el número esperado de las diferencias negativas fuera de valor n/2. Para realizar la prueba de Wilconxon calculamos las diferencias ( i D ) de cada uno de los n pares eliminando las diferencias nulas y se asignan los rangos como en la sección anterior.
Para detectar la hipótesis alternativa unilateral que afirma que la distribución de los valores de X están desplazados a la derecha de los valores de Y empleamos la suma de rangos T − de las diferencias negativas, y rechazamos la hipótesis nula para los valores T − ≤ T 2α . Si queremos detectar un desplazamiento de la distribución de los valores de Y a la derecha de los valores de X , empleamos la suma de rangos T + de las diferencias positivas como estadístico de la prueba, y rechazamos los valores T + ≤ T 2α .
El resumen de las hipótesis alternativas, para el caso de dos muestras, basada en la prueba de la hipótesis nula X μ = Y μ , es como se muestra en la tabla II
2.2.1 donde hay que tener presente los mismos detalles de la sección anterior y manejar la tabla con los mismos criterios indicados allí. A continuación se resume la prueba que se basa en T, la cual se conoce como prueba de rangos con signo de Wilconxon.
Hipótesis alternativa
Rechace la hipótesis nula si:
X Y μ ≠ μ T ≤ Tα
X μ > Y μ T − ≤ T 2α
X Y μ < μ T + ≤ T 2α
Prueba de rangos con signo de Wilcoxon para un experimento de pares comparados.
Hipótesis nula H0 : las distribuciones de población para los valores de X e Y son idénticas.
Hipótesis alternativa H1 : las dos distribuciones de población tienen diferentes localizaciones (dos colas); o la distribución de población para los valores de X (Y ) está desplazada a la derecha de la distribución para los valores de Y ( X ) (una cola
PRUEBA DE SUMA DE RANGOS DE WILCOXON. MUESTRAS
ALEATORIAS INDEPENDIENTES
En el año de 1945 Wilcoxon propuso una prueba estadística para comparar dos poblaciones basadas en muestras aleatorias independientes. Suponga que elegimos muestras aleatorias independientes de n1 y n 2 observaciones, cada una de ellas tomadas de dos poblaciones; representemos a las muestras con A y B. La idea de Wilcoxon fue combinar las n1+ n 2 = n observaciones y ordenarlas por orden de magnitud, de la uno (la más pequeña) a la n (la más grande). Los empates se manejan igual que como se indicó antes. Si las observaciones se obtienen de poblaciones idénticas, las sumas de rangos para las muestra deberían ser más o menos proporcionales a los tamaños de las muestras n1 y n 2 . Por ejemplo, si n1 y n 2 son iguales, esperamos que las sumas de los rangos sean aproximadamente iguales. Pero si las observaciones de la muestra A, por ejemplo, tienden a ser mayores que las observaciones de la muestra B, las observaciones de la muestra A tenderán a recibir los rangos más altos, y la suma de rangos que le pertenece será mayor que la suma de rangos esperada. Por consiguiente, teniendo muestras de igual tamaño, si una prueba de rangos es muy grande y, en consecuencia, la otra es muy pequeña, esta podría indicar una diferencia importante entre las dos poblaciones desde el punto de vista estadístico.
¿Cuán útiles son los métodos no paramétricos?
Los métodos estadísticos no paramétricos permiten llevar a cabo el trabajo con rapidez y a menudo facilitan la toma inmediata de una decisión en el momento de probar hipótesis. Cuando las condiciones experimentales se alejan en forma sustancial de los supuestos fundamentales que sustentan las pruebas paramétricas, las medidas de respuesta a menudo se pueden transformar para rectificar algunas condiciones, pero con frecuencia esto da como resultado que la respuesta transformada ya no sea útil, desde el punto de vista práctico, y que el análisis de los datos transformados ya no responda a los objetivos del experimentador. La aplicación de métodos no paramétricos con frecuencia evita esta dificultad. Muchos métodos no paramétricos son casi tan eficaces como sus equivalentes paramétricos cuando los supuestos detrás de los procedimientos paramétricos son verdaderos; además, como se señaló, los métodos no paramétricos podrían ser más eficaces cuando los supuestos no se satisfacen. Estos argumentos sugieren que las técnicas no paramétricas desempeñan un papel muy útil en la metodología estadística.
En el caso de dos muestras comparadas, por ejemplo, la técnica paramétrica usual para analizar datos provenientes de dos muestras de este tipo es aplicar una prueba t a la diferencia de las observaciones. Esta diferencia puede obtenerse de los dos valores de los miembros de cada pareja igualada o de los dos valores de cada sujeto bajo las dos condiciones. La prueba t supone que estas diferencias de las observaciones están distribuidos normal e independientemente en la población de la cual se tomó la muestra, y requiere que sea medido en una escala de intervalo.
En numerosos casos, la prueba t es inaplicable. El investigador puede encontrar que a) los supuestos y requerimientos de la prueba t son poco realistas para sus datos; b) prefiere evitar hacer los supuestos o probar los requerimientos para dar mayor generalidad a sus conclusiones; c) las diferencias entre las parejas igualadas están representadas de tal forma que se puede decir qué miembro de cualquier pareja es mayor que el otro, pero no se puede decir en cuánto), o d) sus valores son simplemente clasificatorios: los miembros de cada pareja igualada pueden responder del mismo modo o de maneras enteramente diferentes que no tienen orden ni relación cuantitativa.
En estos casos, el investigador pude escoger una prueba estadística no paramétrica para dos muestras comparadas. Además de que son adecuadas para los casos mencionados antes, estas pruebas tienen la ventaja adicional que no requieren una misma población de la que provengan todas las parejas.
Los métodos no paramétricos tienen un número de ventajas claras sobre los métodos paramétricos:
1. A menudo se les llama de “distribución libre” pues uno de sus principales méritos es que no suponen que los datos que se están analizando se hayan sacado de una población distribuida de una forma específica, por ejemplo, de una población distribuida normalmente.
2. Generalmente, son más fáciles de efectuar y comprender. La mayoría de las pruebas no paramétricas no demandan el tipo de laboriosos cálculos a menudo requeridos, por ejemplo para calcular una desviación estándar. Una prueba no paramétrica nos puede pedir reemplazar valores numéricos con el orden en el que esos valores aparecen en una lista, como se ha hecho en la tabla IV.1.
Obviamente, tratar computacionalmente con 1, 2, 3, 4 y 5 cuesta menos esfuerzo que trabajar con 13.33, 76.50, 101.79, 113.45 y 189.42. Muchos creen que la sencillez de cálculo permite a los investigadores en general dedicar más tiempo a la reflexión y formulación cuidadosa de sus problemas de investigación y a la recolección de datos precisos y pertinentes.
3. Algunas veces ni siquiera se requiere del ordenamiento o clasificación formal. A menudo, lo único que podemos hacer es describir un resultado como “mejor” que otro.
Cuando éste es el caso, o cuando nuestras mediciones no son tan exactas como es necesario para las pruebas paramétricas, podemos usar métodos no paramétricos.
4. Otro conveniente de estas pruebas es su utilidad con muestras pequeñas, o tan pequeñas como por ejemplo n = 6, lo cual es una ventaja para el investigador que recoge datos de un estudio piloto y para aquel cuyas muestras deben ser pequeñas por su misma naturaleza (por ejemplo, muestras de personas con una forma rara de enfermedad mental).
1. Ignoran una cierta cantidad de información. Hemos mostrado como los valores 1, 2,
3, 4 y 5 pueden reemplazar a los números 13.33, 76.5, 101.79, 113.45, y 189.42. Sin embargo, si representamos “189.42” por “5”, perdemos información que está contenida en el valor de 189.42. Observe que en nuestro ordenamiento de los valores 13.33, 76.5,
101.79, 113.45 y 189.42, el valor 189.42 puede convertirse en 1.189.42 y seguir siendo el quinto o mayor valor de la lista. Pero si esta lista es un conjunto de datos, podemos aprender más sabiendo que el valor más alto es 1189.42 ó 189.42 de lo que aprenderíamos al representar ambos números mediante el valor 5.
2. A menudo no son tan eficientes o “agudas” como las pruebas paramétricas. La estimación de un intervalo al nivel de confianza de 95% usando una prueba no paramétrica puede ser el doble de tamaño que la estimación al utilizar una prueba paramétrica. Cuando usamos pruebas no paramétricas, efectuamos un trueque: perdemos agudeza al estimar intervalos, pero ganamos la habilidad de usar menos información y calcular más rápidamente.
Rodríguez, F. (2008)
- Se ha realizado un estudio para investigar el efecto del ejercicio físico en el nivel de colesterol en plasma, donde participaron 20 sujetos. Para ello, se tomaron muestras de sangre antes y después de iniciar un programa de ejercicios que se centraba en carreras y marchas diarias, resultando así los siguientes valores:
Sujeto
|
Nivel previo
|
Nivel posterior
|
1
|
182
|
175
|
2
|
232
|
210
|
3
|
191
|
185
|
4
|
200
|
190
|
5
|
148
|
138
|
6
|
249
|
220
|
7
|
276
|
219
|
8
|
213
|
161
|
9
|
241
|
210
|
10
|
480
|
313
|
11
|
261
|
225
|
12
|
234
|
210
|
13
|
190
|
184
|
14
|
200
|
190
|
15
|
147
|
134
|
16
|
249
|
220
|
17
|
274
|
215
|
18
|
217
|
161
|
19
|
245
|
210
|
20
|
480
|
315
|
Ho: Los niveles de colesterol en plasma no cambian, a pesar de someterse a programas de ejercicios basados en carreras y marchas diarias.
Ha: Los niveles de colesterol en plasma presentan variación, luego de someterse a programas de ejercicios basados en carreras y marchas diarias.
Variable Dependiente:
Nivel de colesterol en plasma
Variable Independiente:
Programas de ejercicios
Tipo de Prueba:
Relacionante
T-Test
PairedSamplesStatistics
| |||||
Mean
|
N
|
Std. Deviation
|
Std. Error Mean
| ||
Pair 1
|
colesterolante
|
245,45
|
20
|
88,145
|
19,710
|
colesteroldesp
|
204,25
|
20
|
46,221
|
10,335
|
PairedSamplesCorrelations
| ||||
N
|
Correlation
|
Sig.
| ||
Pair 1
|
colesterolante&colesteroldesp
|
20
|
,954
|
,000
|
PairedSamples Test
| |||||||||
PairedDifferences
|
t
|
df
|
Sig. (2-tailed)
| ||||||
Mean
|
Std. Deviation
|
Std. Error Mean
|
95% ConfidenceInterval of theDifference
| ||||||
Lower
|
Upper
| ||||||||
Pair 1
|
colesterolante - colesteroldesp
|
41,200
|
46,197
|
10,330
|
19,579
|
62,821
|
3,988
|
19
|
,001
|
· Nivel de Confianza:
95%
· P = ᾳ ,001 ˂ 0,05
Por lo tanto se rechaza la Ho y se infiere que: Los niveles de colesterol en plasma presentan variación, luego de someterse a programas de ejercicios basados en carreras y marchas diarias.
2. Una muestra aleatoria de 20 personas (que conducen diariamente en la ciudad de Barquisimeto), fue seleccionada para ver si el alcohol afectaba el tiempo de reacción.
Cada tiempo de reacción fue medido antes y después de beber determinada cantidad de alcohol. Los tiempos de reacción fueron los siguientes:
Sujeto
|
Antes
|
Después
|
Sujeto
|
Antes
|
Después
|
1
|
0.68
|
0.70
|
11
|
0.65
|
0.69
|
2
|
0.65
|
0.78
|
12
|
0.74
|
0.78
|
3
|
0.69
|
0.81
|
13
|
0.68
|
0.74
|
4
|
0.74
|
0.79
|
14
|
0.67
|
0.75
|
5
|
0.78
|
0.82
|
15
|
0.78
|
0.82
|
6
|
0.76
|
0.79
|
16
|
0.75
|
0.84
|
7
|
0.65
|
0.74
|
17
|
0.65
|
0.76
|
8
|
0.66
|
0.75
|
18
|
0.67
|
0.75
|
9
|
0.78
|
0.86
|
19
|
0.72
|
0.84
|
10
|
0.65
|
0.84
|
20
|
0.78
|
0.84
|
Ho: Los tiempos de reacción de los participantes no cambia, luego de consumir alcohol.
Ha: El tiempo de reacción de los participantes muestra diferentes variaciones, luego de consumir alcohol.
Variable Dependiente:
Los tiempos de reacción
Variable Independiente:
Ingestión de Alcohol
Tipo de Prueba
Relacionante
PairedSamplesStatistics
| |||||
Mean
|
N
|
Std. Deviation
|
Std. Error Mean
| ||
Pair 1
|
Tiempodreaccante
|
70,65
|
20
|
5,194
|
1,161
|
tiempodreaccdesp
|
78,45
|
20
|
4,893
|
1,094
|
PairedSamplesCorrelations
| ||||
N
|
Correlation
|
Sig.
| ||
Pair 1
|
Tiempodreaccante&tiempodreaccdesp
|
20
|
,659
|
,002
|
PairedSamples Test
| |||||||||
PairedDifferences
|
t
|
df
|
Sig. (2-tailed)
| ||||||
Mean
|
Std. Deviation
|
Std. Error Mean
|
95% ConfidenceInterval of theDifference
| ||||||
Lower
|
Upper
| ||||||||
Pair 1
|
Tiempodreaccante - tiempodreaccdesp
|
-7,800
|
4,175
|
,934
|
-9,754
|
-5,846
|
-8,355
|
19
|
,000
|
- Nivel de Confianza:
95%
- P = ᾳ ,000 ˂ 0,05
Por lo tanto se rechaza la Ho y se infiere que: El tiempo de reacción de los participantes muestra diferentes variaciones, luego de ingerir alcohol.
El Análisis de la Varianza (ANOVA, ANalysis Of VAriance, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
Ejercicios
Los siguientes datos corresponden al peso de 120 pacientes recluidos en el Hospital Antonio María Pineda, afectados por la Enfermedad Pulmonar Obstructiva Crónica (EPOC), que fueron sometidos a 3 tratamientos distintos en un lapso de 5 meses.
1
|
2
|
3
|
Total
| |||
Peso
|
Pacientes
|
Peso
|
Pacientes
|
Peso
|
Pacientes
| |
42
|
10
|
56
|
2
|
60
|
12
|
24
|
45
|
10
|
54
|
8
|
61
|
10
|
28
|
47
|
10
|
53
|
10
|
65
|
5
|
25
|
44
|
5
|
57
|
15
|
62
|
3
|
23
|
49
|
5
|
55
|
5
|
64
|
10
|
20
|
40
|
40
|
40
|
120
|
Variable Independiente:
Tratamiento
Variable Dependiente:
Peso
Ho: El promedio de peso de los pacientes sometidos a determinados tratamientos, no presentan variación.
Ha:El promedio de peso de los pacientes sometidos a determinados tratamientos, presentan variación.
Descriptivos
PESO
Intervalo de confianza para la media al 95%
| ||||||||
Límite inferior
|
Límite superior
| |||||||
1tratamiento
|
40
|
45,13
|
2,345
|
,371
|
44,38
|
45,87
|
42
|
49
|
2tratamiento
|
40
|
55,10
|
1,676
|
,265
|
54,56
|
55,64
|
53
|
57
|
3tratamienti
|
40
|
62,03
|
1,915
|
,303
|
61,41
|
62,64
|
60
|
65
|
Total
|
120
|
54,08
|
7,242
|
,661
|
52,77
|
55,39
|
42
|
65
|
Prueba de homogeneidad de varianzas
PESO
Estadístico de Levene
|
gl1
|
gl2
|
Sig.
|
1,636
|
2
|
117
|
,199
|
ANOVA
PESO
Suma de cuadrados
|
gl
|
Media cuadrática
|
F
|
Sig.
| |
Inter-grupos
|
5774,217
|
2
|
2887,108
|
723,400
|
,000
|
Intra-grupos
|
466,950
|
117
|
3,991
| ||
Total
|
6241,167
|
119
|
Conclusión:
- Si existe homogeneidad (Levene ,199)
- P (,000) es menor que α, por lo tanto se rechaza la Ho y se infiere que el promedio de peso de los pacientes sometidos a determinados tratamientos, presentan variación.
Pruebas post hoc
Comparaciones múltiples
Variable dependiente: PESO
DMS
Intervalo de confianza al 95%
| ||||||
Límite inferior
|
Límite superior
| |||||
2tratamiento
|
-9,98(*)
|
,447
|
,000
|
-10,86
|
-9,09
| |
3tratamienti
|
-16,90(*)
|
,447
|
,000
|
-17,78
|
-16,02
| |
2tratamiento
|
1tratamiento
|
9,98(*)
|
,447
|
,000
|
9,09
|
10,86
|
3tratamienti
|
-6,92(*)
|
,447
|
,000
|
-7,81
|
-6,04
| |
3tratamienti
|
1tratamiento
|
16,90(*)
|
,447
|
,000
|
16,02
|
17,78
|
2tratamiento
|
6,92(*)
|
,447
|
,000
|
6,04
|
7,81
|
* La diferencia entre las medias es significativa al nivel .05.
Conclusión:
Todos los tratamientos fueron igual de efectivos.
CHI CUADRADO
1. Los siguientes datos corresponden a los días en que 80 individuos presentaron resfriado, luego de participar en una jornada de investigación, emprendida por el Hospital Antonio María Pineda, donde se aplicaron cuatro tipos de vacunas aleatoriamente. Es importante destacar que se catalogo de fracaso (F) si el individuo vacunado se resfriaba durante los tres meses siguientes y de exitoso (E) sino no se refriaba en igual plazo.
Frecuencia del Resfriado
|
Individuos que presentaron resfriado de acuerdo a las vacunas aplicadas
| ||||
Vacuna A
|
Vacuna B
|
Vacuna C
|
Vacuna D
|
TOTAL
| |
Ante del mes
|
1
|
15
|
18
|
18
|
52
|
A los 40 días
|
4
|
4
|
1
|
1
|
10
|
Luego de 3 meses
|
15
|
1
|
1
|
1
|
18
|
TOTAL
|
20
|
20
|
20
|
20
|
80
|
Variable dependiente
Frecuencia del Resfriado
Variable Independiente
Vacuna
Ho: Existe independencia entre las vacunas aplicadas y las frecuencias de resfriado en los individuos.
Ha: Existe dependencia entre vacunas aplicadas y las frecuencias de resfriado en los individuos.
Tablas de contingencia
Resumen del procesamiento de los casos
Casos
| ||||||
Válidos
|
Perdidos
|
Total
| ||||
N
|
Porcentaje
|
N
|
Porcentaje
|
N
|
Porcentaje
| |
VACUNA * RESFRIAD
|
81
|
100,0%
|
0
|
,0%
|
81
|
100,0%
|
Tabla de contingencia VACUNA * RESFRIAD
Recuento
RESFRIAD
|
Total
| ||||
antesdelmes
|
alos40dias
|
luegode3
| |||
VACUNA
|
1vacuna
|
1
|
4
|
15
|
20
|
2vacuna
|
15
|
4
|
1
|
20
| |
3vacuna
|
19
|
1
|
1
|
21
| |
4vacuna
|
18
|
1
|
1
|
20
| |
Total
|
53
|
10
|
18
|
81
|
Pruebas de chi-cuadrado
Valor
|
gl
|
Sig. asintótica (bilateral)
| |
Chi-cuadrado de Pearson
|
52,341(a)
|
6
|
,000
|
Razón de verosimilitud
|
54,193
|
6
|
,000
|
Asociación lineal por lineal
|
33,296
|
1
|
,000
|
N de casos válidos
|
81
|
a 8 casillas (66,7%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 2,47.
Conclusión:
P (,000) es menor que α por lo tanto se rechaza la Ho y se infiere que existe dependencia entre vacunas aplicadas y las frecuencias de resfriado en los individuos.
2. Se realizo un estudio para investigar la asociación entre el color de las flores y la fragancia de las azaleas silvestres. Se observaron 122 plantas floridas seleccionadas de manera aleatoria. Estas se clasificaron según el color y la presencia o ausencia de la fragancia. Los datos se muestran a continuación:
Fragancia
|
Color
| |||
Blanca
|
Rosa
|
Naranja
|
TOTAL
| |
Si
|
12
|
60
|
10
|
82
|
NO
|
20
|
10
|
10
|
40
|
TOTAL
|
32
|
70
|
20
|
122
|
Variable Independiente:
Flores Azaleas silvestres
Variable dependiente
Color y fragancia
- Ho: Hay independencia entre color y fragancia (o no existe asociación).
- Ha: Hay dependencia entre color y fragancia (existe asociación).
Tablas de contingencia
Resumen del procesamiento de los casos
Casos
| ||||||
Válidos
|
Perdidos
|
Total
| ||||
N
|
Porcentaje
|
N
|
Porcentaje
|
N
|
Porcentaje
| |
FRAGANCI * COLOR
|
122
|
98,4%
|
2
|
1,6%
|
124
|
100,0%
|
Tabla de contingencia FRAGANCI * COLOR
Recuento
COLOR
|
Total
| ||||
1blanco
|
2rosa
|
3naranja
| |||
FRAGANCI
|
1si
|
12
|
60
|
10
|
82
|
2no
|
20
|
10
|
10
|
40
| |
Total
|
32
|
70
|
20
|
122
|
Pruebas de chi-cuadrado
Valor
|
gl
|
Sig. asintótica (bilateral)
| |
Chi-cuadrado de Pearson
|
26,382(a)
|
2
|
,000
|
Razón de verosimilitud
|
26,887
|
2
|
,000
|
Asociación lineal por lineal
|
3,258
|
1
|
,071
|
N de casos válidos
|
122
|
a 0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 6,56.
Conclusión:
P (,000) es menor que α, por lo tanto se rechaza la Ho y se infiere que existe dependencia entre color y fragancia (existe asociación).
3. En un estudio realizado a un grupo de 78 embarazadas, de la Maternidad Concepción Palacios en el año 1984. Se consideraron las variables “Peso del feto” y “contenido de hemoglobina”, los resultados obtenidos se indican en la siguiente tabla.
Distribución de las embarazadas, según peso del feto y contenido de hemoglobina de la madre
Contenido de Hemoglobina
|
Peso del feto
| |||
<300
|
300 – 600
|
>600
|
Total
| |
<10g
|
12[9,46]
|
16[19,97
|
12[11,56]
|
41
|
11 – 11g
|
4[4,85]
|
11[10,24]
|
6[5,92]
|
21
|
>11g
|
2[3,69]
|
11[7,79]
|
3[4,52]
|
16
|
Total
|
18
|
38
|
22
|
78
|
Variable dependiente
Peso
Variable Independiente
Hemoglobina
Ho: Existe independencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.
Ha: Existe dependencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.
Case ProcessingSummary
| ||||||
Cases
| ||||||
Valid
|
Missing
|
Total
| ||||
N
|
Percent
|
N
|
Percent
|
N
|
Percent
| |
hemoglobina * pesodefeto
|
77
|
100,0%
|
0
|
0,0%
|
77
|
100,0%
|
hemoglobina * pesodefetoCrosstabulation
| |||||
Count
| |||||
pesodefeto
|
Total
| ||||
?300
|
300-600
|
?600
| |||
hemoglobina
|
?10g
|
12
|
16
|
12
|
40
|
11-11g
|
4
|
11
|
6
|
21
| |
?11g
|
2
|
11
|
3
|
16
| |
Total
|
18
|
38
|
21
|
77
|
Chi-SquareTests
| |||
Value
|
df
|
Asymp. Sig. (2-sided)
| |
Pearson Chi-Square
|
4,245a
|
4
|
,374
|
Likelihood Ratio
|
4,325
|
4
|
,364
|
Linear-by-Linear Association
|
,151
|
1
|
,698
|
N of Valid Cases
|
77
| ||
a. 3 cells (33,3%) haveexpectedcountlessthan 5. Theminimumexpectedcountis 3,74.
|
Conclusión
Como P es (,374) mayor que α, por lo tanto se acepta la Ho y se infiere que existe independencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.
RELACIÓN Y CORRELACIÓN
Se lleva a cabo un estudio por medio de detectores radiactivos de la capacidad corporal para absorber hierro y plomo, participan en el estudio 10 sujetos, a cada uno se le da una dosis oral idéntica de hierro y plomo, después de 12 días se mide la cantidad de cada componente retenido en el sistema corporal y a partir de esta se determina el porcentaje absorbido en el cuerpo.
Los resultados son los siguientes:
% de Hierro = X
|
17 – 22 – 35 – 43 – 80 – 85 – 91 – 92 – 96 – 100
|
% de Plomo = Y
|
8 – 17 – 18 – 25 – 58 – 59 – 41 – 30 – 43 – 58
|
Variable Dependiente:
Concentración de Plomo
Variable Independiente:
Concentración de Hierro
Ho: El porcentaje de hierro y plomo obtenido por el sistema corporal de manera oral no presenta correlación.
Ha: El porcentaje de hierro y plomo obtenido por el sistema corporal de manera oral presenta correlación.
Correlaciones
Estadísticos descriptivos
Media
|
Desviación típica
|
N
| |
XHIERRO
|
66,10
|
32,899
|
10
|
YPLOMO
|
35,70
|
18,845
|
10
|
Correlaciones
XHIERRO
|
YPLOMO
| ||
XHIERRO
|
Correlación de Pearson
|
1
|
,841(**)
|
Sig. (bilateral)
|
.
|
,002
| |
N
|
10
|
10
| |
YPLOMO
|
Correlación de Pearson
|
,841(**)
|
1
|
Sig. (bilateral)
|
,002
|
.
| |
N
|
10
|
10
|
** La correlación es significativa al nivel 0,01 (bilateral).
Conclusión:
- La relación entre hierro y plomo obtenidos es muy alta R: 0,841.
- La relación es perfecta positiva.
Determina el % de plomo absorbido por un individuo cuyo sistema absorbe 15% de hierro.
Los valores para la ecuación de la recta y = a + b x 15%
X = VI
Y = VD
A = a la intersección de la recta.
B = Pendiente
Regression
Variables Entered/Removeda
| |||
Model
|
Variables Entered
|
Variables Removed
|
Method
|
1
|
yb
|
.
|
Enter
|
a. Dependent Variable: x
| |||
b. Allrequested variables entered.
|
ModelSummary
| ||||
Model
|
R
|
R Square
|
Adjusted R Square
|
Std. Error of theEstimate
|
1
|
,841a
|
,707
|
,670
|
18,891
|
a. Predictors: (Constant), y
|
ANOVAa
| ||||||
Model
|
Sum of Squares
|
df
|
Mean Square
|
F
|
Sig.
| |
1
|
Regression
|
6885,985
|
1
|
6885,985
|
19,296
|
,002b
|
Residual
|
2854,915
|
8
|
356,864
| |||
Total
|
9740,900
|
9
| ||||
a. Dependent Variable: x
| ||||||
b. Predictors: (Constant), y
|
Coefficientsa
| ||||||
Model
|
UnstandardizedCoefficients
|
StandardizedCoefficients
|
t
|
Sig.
| ||
B
|
Std. Error
|
Beta
| ||||
1
|
(Constant)
|
13,699
|
13,341
|
1,027
|
,335
| |
y
|
1,468
|
,334
|
,841
|
4,393
|
,002
| |
a. Dependent Variable: x
|
Conclusión:
y = a + b x 15%
y = 1,468 + 0.841 x 15%
y = 2,309 x 15%
y= 0,346
Se pudo determina que el % de plomo absorbido por un individuo cuyo sistema absorbe 15% de hierro es 0,346%
TRABAJANDO CON SPSS
PRUEBA T:
·
Buscar vista de variable.
·
Colocar los nombres de las variables, ejemplo: Peso
– sexo.
·
Si los datos poseen decimales, seleccionas la
cantidad, de los contrario colocas “o”.
·
Buscar (valores) en la parte superior, se extenderá
un cuadro que dice “Etiqueta de Valor”.
·
Deberás colocar el valor, ejemplo: 1 – Masculino,
añadir; 2 – femenino, añadir y luego aceptar.
·
Seguidamente deberás buscar Vista de Datos en la
parte inferior.
·
Colocar los datos, recordando los valores de las
etiquetas, ejemplo:
Peso sexo
90
1 (masculino)
80 2
(femenino)
·
Luego se debe
buscar analizar – comparar media y seleccionar si es:
-
Prueba T para
una muestra.
-
Prueba T para
una muestra independiente.
-
Prueba T para
muestras relacionadas.
·
Si seleccionas
muestra independiente, saldrá un recuadro donde te solicitara:
-
Variables
para contrastar y variables de agrupación.
·
Luego dar en
aceptar y obtendrás los resultados.
ANOVA
·
Luego de
ejecutar los primeros pasos, debes buscar comparar media: marcar ANOVA de un
factor.
·
Saldrá un
recuadro donde te solicitará seleccionar la variable dependiente.
·
Seguidamente
deberás ir a opción y tendrás que seleccionar Descriptivos y Prueba de
Homogeneidad de las variables.
·
Continuar y
Aceptar – y obtendrás los resultados.
SI DEBES RECURRIR A POST HOC:
-
Tienes que
buscar analizar.
-
ANOVA de un
factor.
-
Luego Post
hoc, aquí seleccionaras DMS.
-
Continuar.
-
Aceptar y
obtendrás los resultados.
CHI CUADRADO
·
Al ejecutar
los primeros pasos.
·
Buscar
estadísticos descriptivos.
·
Seleccionar
tablas de contingencia.
·
Seleccionar
la variable que va en fila y en columna.
·
Buscar
estadísticos, saldrá otro recuadro y deberás seleccionar chi cuadrado.
·
Continuar y
obtendrás los resultados.
REFERENCIAS BIBLIOGRÁFICAS
No hay comentarios:
Publicar un comentario