viernes, 30 de noviembre de 2012





¿CUÁNDO APLICAR PRUEBA T Y PRUEBA DE WILCONXON? 



PRUEBA ESTADÍSTICA Y SUS ELEMENTOS

En una prueba estadística todo se inicia con una suposición que hacemos de un valor hipotético de la población, cosa que se puede determinar, por ejemplo, en forma intuitiva o producto de la experiencia que tenemos sobre un parámetro de algún evento, que en particular creemos que tiene una determinada población.

Uno de los objetivos de una prueba estadística es el de probar una hipótesis relacionada con los valores de uno o más parámetros poblacionales. Una vez planteado el problema, formulamos una hipótesis de investigación respecto a los parámetros que queremos sustentar y después de seleccionar la hipótesis, se recogen los datos empíricos que dan información directa acerca de la aceptabilidad de ésta, la cual es llamada hipótesis nula y se denota mediante H0 . Este término, hipótesis nula, surgió de las primeras aplicaciones agrícolas y médicas de la estadística, teniendo como fin el probar la efectividad de un nuevo fertilizante o una nueva medicina, la hipótesis que se probaba era que no tuvo efecto, es decir, no hubo diferencia entre las muestras tratadas y no tratadas.

Cuando nos referimos a un parámetro cualquiera de la población, por ejemplo θ, el símbolo θ 0 se usará en los planteamientos de este tipo de problemas para representar el valor hipotético del parámetro poblacional que corresponde a la hipótesis nula.
La decisión acerca del significado de los datos, una vez procesado, puede conducir a la confirmación, revisión o rechazo de la hipótesis y, con ella, la teoría que la originó.
La hipótesis alternativa, que se denota por H1 , es la hipótesis que se acepta si se rechaza H0 y que queremos comprobar con base en la información de la muestra.
Por definición una hipótesis estadística es una afirmación o conjetura de la distribución de una o más variables aleatorias.

Prueba t de Student
La prueba t de Student es una prueba paramétrica de comparación de dos muestras, es decir necesita cumplir las siguientes características:
  • Selección completamente aleatoria de los grupos.
  • Homocedasticidad (homogeneidad de las varianzas de la variable dependiente en ambos grupos)
  • Distribución normal de la variable dependiente en los dos grupos.
  • Nivel intervalar de la variable dependiente
Su función es comparar dos grupos de puntuaciones (medias aritméticas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).
Esta prueba tiene modalidades, una para muestras independientes y otra para grupos relacionados.


Prueba de Wilcoxon
La prueba de rangos asignados de Wilcoxon pertenece a las pruebas no paramétricas de comparación de dos muestras relacionadas, es decir:
  • · Es libre de curva, no necesita una distribución específica
  • · Nivel ordinal de la variable dependiente
Se utiliza para comparar dos grupos relacionados de rangos (medianas) y determinar que la diferencia no se deba al azar (que la diferencia sea estadísticamente significativa).

EJEMPLO
Con los datos de la encuesta Encinf.sav probar si hay discrepancia entre la valoración que hacen los alumnos sobre la dotación de las aulas de informática (Dotación) y la valoración que hacen del software disponible (Software).
Se trata de contrastar la hipótesis nula de que la valoración de la dotación de las aulas es igual a la valoración del software instalado. Dado que las valoraciones de ambas características son asignadas por los mismos individuos, las muestras resultantes no son independientes. Por otra parte, las variables se miden en una escala ordinal, y por tanto el contraste más adecuado es la prueba de Wilcoxon.
Para realizar este contraste la secuencia es:
Estadística > Pruebas no paramétricas > 2 muestras relacionadas.
En el cuadro de diálogo se selecciona en Contrastar pares las variables Dotación y Software; por defecto está activada la prueba de Wilcoxon. Al aceptar se obtienen los siguientes resultados:



Como puede verse en el cuadro Rangos, el número de elementos para los cuales el valor de la variable Software es mayor que el de la variable dotación es considerablemente mayor que el de los elementos para los que está mejor valorada la dotación que el software. En el cuadro Estadísticos de contraste, el valor tipificado del estadístico de prueba (la menor de las dos sumas de rangos) es igual a -5,280; por tanto, se rechaza la hipótesis nula de que la valoración de la dotación es igual que la del software para cualquier nivel de significación.



PRUEBA DE WILCOXON
La prueba de Wilcoxon para intervalos con signo, hace un mejor aprovechamiento de la información contenida en las observaciones, ya que toma en cuenta, además de los signos, las magnitudes de las diferencias por medio de los rangos a que son asignados.
Sean ( 1 Z ,…, n Z ) una muestra aleatoria de la variable aleatoria continua Z y ( (1) Z ,…, (n) Z ) la muestra ordenada asociada. Se llama rango i R de la variable aleatoria i Z al número de variables aleatorias i Z menores o iguales a i Z , 1 i n . Luego el rango se determinará mediante la fórmula i R (1 ( ))
1injj X X =Σ= ψ , donde ψ es como se definió en la sección II.1.1, teniéndose en particular que (1) Z (2) (3) ( ) .... n < Z < Z < < Z y i R es tal que i (Ri ) Z = Z , siendo sus valores extremos (1) Z = min( 1 Z ,…, n Z ) y
(n) Z = máx( 1 Z ,…, n Z ).
En esta prueba se ordenan por rango los valores absolutos de las diferencias en relación con sus signos: asignamos el rango 1 a la menor de las diferencias en valor absoluto, el rango 2 a la segunda diferencia más pequeña en valor absoluto, y así sucesivamente. Cuando varias de las diferencias sean las mismas, si fuera el caso de las que corresponderían a 3, 4 y 5, cada una tomaría como rango el valor promedio de las tres, en este caso, 4, seria el rango asignado a cada una de las diferencias iguales, y a la siguiente diferencia en valor absoluto más grande se le asignaría el rango 5.
Calcularíamos ahora la suma de los rangos para las diferencias negativas T y las sumas de los rangos para las diferencias positivas T + .En el caso de una prueba de dos colas utilizamos T, la más pequeña de estas dos cantidades, como estadístico de prueba para probar la hipótesis nula que afirma que las dos poblaciones son idénticas. Cuanto más pequeño sea el valor de T, mayor el peso de la evidencia que favorece el rechazo de la hipótesis nula. Por consiguiente, rechazaremos la hipótesis nula si T es menor o igual a algún valor Tα .
La hipótesis nula permite que para cada rango, las probabilidades de que se le asigne una diferencia positiva o una negativa son ambas ½. Podemos escribir el estadístico como
T + = 1. 1 X + 2. 2 X + . . . . . . + n nX , donde 1 X , 2 X ,. . . .y n X son variables aleatorias independientes que tienen la distribución de Bernoulli con p = ½. Como el valor esperado y varianza de las i X son E( i X ) = 0.1/2 +1.1/2 = 1/2 y Var( i X ) = 1/2 .(1 – 1/2 ) = 1/4 para i = 1, 2, 3, ……,n , y tomando en cuenta las siguientes propiedades
E ( n n a X + a X + ....... + a X 1 1 2 2 ) = ( ) 1 1 a E X + . . . + ( ) n n a E X y
Var( n n a X + a X + ....... + a X 1 1 2 2 ) = ( ) + 1
2
1 a Var X . . . + 2
n a Var ( ) n X , se deduce que
E (T + ) = 1.1/2 + 2.1/2 + . . . + n.1/2 =
2
1+ 2 + ... + n y aplicando el método de inducción completa, se tiene que E( T + ) =
4
n(n +1) , que
Var(T + ) = 1 2 .1/4 + 2 2 .1/4 +. . .+n 2 .1/4 =
4
1+ 2 + ... + n y aplicando de nuevo el método anterior, se llega a que
Var(T + ) =
24
n(n +1)(2n +1)
La probabilidad de que T sea menor o igual a algún valor Tα está calculado para una combinación de tamaños muestrales y valores de Tα . Estas probabilidades, se pueden utilizar para determinar la región de rechazo de la prueba que se basa en T.
Cualquiera sea la hipótesis alternativa, podemos basar todas las pruebas de la hipótesis nula 0 μ = μ en la distribución de T, debiendo sólo tener cuidado de utilizar la estadística correcta y el valor crítico correcto de T, como se muestra en la tabla II.2.1
Hipótesis alternativa
Rechace la hipótesis nula si:
0 μ μ T Tα
μ > 0 μ T T 2α
0 μ < μ T + T 2α
Donde, como se indica, el nivel de significancia es α en cada prueba. Los valores críticos de T, que son tales que Tα es el valor más grande para el cual P(T Tα ) no es mayor que α , se dan en la tabla 3 del apéndice B. Obsérvese que los mismos valores críticos sirven para pruebas en diferentes niveles de significancia, dependiendo de que la hipótesis alternativa sea unilateral o bilateral.

PRUEBA DE RANGOS CON SIGNOS DE WILCOXON PARA UN
EXPERIMENTO DE PARES COMPARADOS
En este caso, al igual que la prueba del signo de pares comparados, contamos también con n observaciones pareadas ( i X , i Y ) y i D = i X - i Y . Nos interesa probar la hipótesis de que los valores de X e Y tienen la misma distribución frente a la hipótesis alternativa que sostiene que la localización de las distribuciones es diferente.
En la hipótesis nula no hay diferencia en las distribuciones de los valores de X eY , esperaríamos que la mitad de las diferencias de los pares fuera negativa y la otra mitad positiva, o sea, que el número esperado de las diferencias negativas fuera de valor n/2. Para realizar la prueba de Wilconxon calculamos las diferencias ( i D ) de cada uno de los n pares eliminando las diferencias nulas y se asignan los rangos como en la sección anterior.
Para detectar la hipótesis alternativa unilateral que afirma que la distribución de los valores de X están desplazados a la derecha de los valores de Y empleamos la suma de rangos T de las diferencias negativas, y rechazamos la hipótesis nula para los valores T T 2α . Si queremos detectar un desplazamiento de la distribución de los valores de Y a la derecha de los valores de X , empleamos la suma de rangos T + de las diferencias positivas como estadístico de la prueba, y rechazamos los valores T + T 2α .
El resumen de las hipótesis alternativas, para el caso de dos muestras, basada en la prueba de la hipótesis nula X μ = Y μ , es como se muestra en la tabla II
2.2.1 donde hay que tener presente los mismos detalles de la sección anterior y manejar la tabla con los mismos criterios indicados allí. A continuación se resume la prueba que se basa en T, la cual se conoce como prueba de rangos con signo de Wilconxon.
Hipótesis alternativa
Rechace la hipótesis nula si:
X Y μ μ T Tα
X μ > Y μ T T 2α
X Y μ < μ T + T 2α
Prueba de rangos con signo de Wilcoxon para un experimento de pares comparados.
Hipótesis nula H0 : las distribuciones de población para los valores de X e Y son idénticas.
Hipótesis alternativa H1 : las dos distribuciones de población tienen diferentes localizaciones (dos colas); o la distribución de población para los valores de X (Y ) está desplazada a la derecha de la distribución para los valores de Y ( X ) (una cola

PRUEBA DE SUMA DE RANGOS DE WILCOXON. MUESTRAS
ALEATORIAS INDEPENDIENTES
En el año de 1945 Wilcoxon propuso una prueba estadística para comparar dos poblaciones basadas en muestras aleatorias independientes. Suponga que elegimos muestras aleatorias independientes de n1 y n 2 observaciones, cada una de ellas tomadas de dos poblaciones; representemos a las muestras con A y B. La idea de Wilcoxon fue combinar las n1+ n 2 = n observaciones y ordenarlas por orden de magnitud, de la uno (la más pequeña) a la n (la más grande). Los empates se manejan igual que como se indicó antes. Si las observaciones se obtienen de poblaciones idénticas, las sumas de rangos para las muestra deberían ser más o menos proporcionales a los tamaños de las muestras n1 y n 2 . Por ejemplo, si n1 y n 2 son iguales, esperamos que las sumas de los rangos sean aproximadamente iguales. Pero si las observaciones de la muestra A, por ejemplo, tienden a ser mayores que las observaciones de la muestra B, las observaciones de la muestra A tenderán a recibir los rangos más altos, y la suma de rangos que le pertenece será mayor que la suma de rangos esperada. Por consiguiente, teniendo muestras de igual tamaño, si una prueba de rangos es muy grande y, en consecuencia, la otra es muy pequeña, esta podría indicar una diferencia importante entre las dos poblaciones desde el punto de vista estadístico.

¿Cuán útiles son los métodos no paramétricos?

Los métodos estadísticos no paramétricos permiten llevar a cabo el trabajo con rapidez y a menudo facilitan la toma inmediata de una decisión en el momento de probar hipótesis. Cuando las condiciones experimentales se alejan en forma sustancial de los supuestos fundamentales que sustentan las pruebas paramétricas, las medidas de respuesta a menudo se pueden transformar para rectificar algunas condiciones, pero con frecuencia esto da como resultado que la respuesta transformada ya no sea útil, desde el punto de vista práctico, y que el análisis de los datos transformados ya no responda a los objetivos del experimentador. La aplicación de métodos no paramétricos con frecuencia evita esta dificultad. Muchos métodos no paramétricos son casi tan eficaces como sus equivalentes paramétricos cuando los supuestos detrás de los procedimientos paramétricos son verdaderos; además, como se señaló, los métodos no paramétricos podrían ser más eficaces cuando los supuestos no se satisfacen. Estos argumentos sugieren que las técnicas no paramétricas desempeñan un papel muy útil en la metodología estadística.
En el caso de dos muestras comparadas, por ejemplo, la técnica paramétrica usual para analizar datos provenientes de dos muestras de este tipo es aplicar una prueba t a la diferencia de las observaciones. Esta diferencia puede obtenerse de los dos valores de los miembros de cada pareja igualada o de los dos valores de cada sujeto bajo las dos condiciones. La prueba t supone que estas diferencias de las observaciones están distribuidos normal e independientemente en la población de la cual se tomó la muestra, y requiere que sea medido en una escala de intervalo.
En numerosos casos, la prueba t es inaplicable. El investigador puede encontrar que a) los supuestos y requerimientos de la prueba t son poco realistas para sus datos; b) prefiere evitar hacer los supuestos o probar los requerimientos para dar mayor generalidad a sus conclusiones; c) las diferencias entre las parejas igualadas están representadas de tal forma que se puede decir qué miembro de cualquier pareja es mayor que el otro, pero no se puede decir en cuánto), o d) sus valores son simplemente clasificatorios: los miembros de cada pareja igualada pueden responder del mismo modo o de maneras enteramente diferentes que no tienen orden ni relación cuantitativa.
En estos casos, el investigador pude escoger una prueba estadística no paramétrica para dos muestras comparadas. Además de que son adecuadas para los casos mencionados antes, estas pruebas tienen la ventaja adicional que no requieren una misma población de la que provengan todas las parejas.


Los métodos no paramétricos tienen un número de ventajas claras sobre los métodos paramétricos:
1. A menudo se les llama de “distribución libre” pues uno de sus principales méritos es que no suponen que los datos que se están analizando se hayan sacado de una población distribuida de una forma específica, por ejemplo, de una población distribuida normalmente.
2. Generalmente, son más fáciles de efectuar y comprender. La mayoría de las pruebas no paramétricas no demandan el tipo de laboriosos cálculos a menudo requeridos, por ejemplo para calcular una desviación estándar. Una prueba no paramétrica nos puede pedir reemplazar valores numéricos con el orden en el que esos valores aparecen en una lista, como se ha hecho en la tabla IV.1.
Obviamente, tratar computacionalmente con 1, 2, 3, 4 y 5 cuesta menos esfuerzo que trabajar con 13.33, 76.50, 101.79, 113.45 y 189.42. Muchos creen que la sencillez de cálculo permite a los investigadores en general dedicar más tiempo a la reflexión y formulación cuidadosa de sus problemas de investigación y a la recolección de datos precisos y pertinentes.
3. Algunas veces ni siquiera se requiere del ordenamiento o clasificación formal. A menudo, lo único que podemos hacer es describir un resultado como “mejor” que otro.
Cuando éste es el caso, o cuando nuestras mediciones no son tan exactas como es necesario para las pruebas paramétricas, podemos usar métodos no paramétricos.
4. Otro conveniente de estas pruebas es su utilidad con muestras pequeñas, o tan pequeñas como por ejemplo n = 6, lo cual es una ventaja para el investigador que recoge datos de un estudio piloto y para aquel cuyas muestras deben ser pequeñas por su misma naturaleza (por ejemplo, muestras de personas con una forma rara de enfermedad mental).

1. Ignoran una cierta cantidad de información. Hemos mostrado como los valores 1, 2,
3, 4 y 5 pueden reemplazar a los números 13.33, 76.5, 101.79, 113.45, y 189.42. Sin embargo, si representamos “189.42” por “5”, perdemos información que está contenida en el valor de 189.42. Observe que en nuestro ordenamiento de los valores 13.33, 76.5,
101.79, 113.45 y 189.42, el valor 189.42 puede convertirse en 1.189.42 y seguir siendo el quinto o mayor valor de la lista. Pero si esta lista es un conjunto de datos, podemos aprender más sabiendo que el valor más alto es 1189.42 ó 189.42 de lo que aprenderíamos al representar ambos números mediante el valor 5.
2. A menudo no son tan eficientes o “agudas” como las pruebas paramétricas. La estimación de un intervalo al nivel de confianza de 95% usando una prueba no paramétrica puede ser el doble de tamaño que la estimación al utilizar una prueba paramétrica. Cuando usamos pruebas no paramétricas, efectuamos un trueque: perdemos agudeza al estimar intervalos, pero ganamos la habilidad de usar menos información y calcular más rápidamente.

Rodríguez, F. (2008)
Ejercicio para Prueba T

  1. Se ha realizado un estudio para investigar el efecto del ejercicio físico en el nivel de colesterol en plasma, donde participaron 20 sujetos. Para ello, se tomaron muestras de sangre antes y después de iniciar un programa de ejercicios que se centraba en carreras y marchas diarias, resultando así los siguientes valores: 

Sujeto
Nivel previo
Nivel posterior
1
182
175
2
232
210
3
191
185
4
200
190
5
148
138
6
249
220
7
276
219
8
213
161
9
241
210
10
480
313
11
261
225
12
234
210
13
190
184
14
200
190
15
147
134
16
249
220
17
274
215
18
217
161
19
245
210
20
480
315

Ho: Los niveles de colesterol en plasma no cambian, a pesar de someterse a programas de ejercicios basados en carreras y marchas diarias.
Ha: Los niveles de colesterol en plasma presentan variación, luego de someterse a programas de ejercicios basados en carreras y marchas diarias.

Variable Dependiente:
Nivel de colesterol  en plasma
Variable Independiente:
Programas de ejercicios
     Tipo de Prueba:
     Relacionante

T-Test

PairedSamplesStatistics

Mean
N
Std. Deviation
Std. Error Mean
Pair 1
colesterolante
245,45
20
88,145
19,710
colesteroldesp
204,25
20
46,221
10,335

PairedSamplesCorrelations

N
Correlation
Sig.
Pair 1
colesterolante&colesteroldesp
20
,954
,000






 
PairedSamples Test

PairedDifferences
t
df
Sig. (2-tailed)
Mean
Std. Deviation
Std. Error Mean
95% ConfidenceInterval of theDifference
Lower
Upper
Pair 1
colesterolante - colesteroldesp
41,200
46,197
10,330
19,579
62,821
3,988
19
,001














·         Nivel de Confianza:
95%
·         P = ,001 ˂ 0,05
     Por lo tanto se rechaza la Ho y se infiere que: Los niveles de colesterol en plasma presentan variación, luego de someterse a programas de ejercicios basados en carreras y marchas diarias.

2. Una muestra aleatoria de 20 personas (que conducen diariamente en la ciudad de Barquisimeto), fue seleccionada para ver si el alcohol afectaba el tiempo de reacción.
     Cada tiempo de reacción fue medido antes y después de beber determinada cantidad de alcohol. Los tiempos de reacción fueron  los siguientes: 

Sujeto
Antes
Después
Sujeto
Antes
Después
1
0.68
0.70
11
0.65
0.69
2
0.65
0.78
12
0.74
0.78
3
0.69
0.81
13
0.68
0.74
4
0.74
0.79
14
0.67
0.75
5
0.78
0.82
15
0.78
0.82
6
0.76
0.79
16
0.75
0.84
7
0.65
0.74
17
0.65
0.76
8
0.66
0.75
18
0.67
0.75
9
0.78
0.86
19
0.72
0.84
10
0.65
0.84
20
0.78
0.84

Ho: Los tiempos de reacción de los participantes no cambia, luego de consumir alcohol.
Ha: El tiempo de reacción de los participantes muestra diferentes variaciones, luego de consumir alcohol. 

Variable Dependiente:
Los tiempos de reacción
Variable Independiente:
     Ingestión de Alcohol 
     Tipo de Prueba 
     Relacionante 


PairedSamplesStatistics

Mean
N
Std. Deviation
Std. Error Mean
Pair 1
Tiempodreaccante
70,65
20
5,194
1,161
tiempodreaccdesp
78,45
20
4,893
1,094

PairedSamplesCorrelations

N
Correlation
Sig.
Pair 1
Tiempodreaccante&tiempodreaccdesp
20
,659
,002






PairedSamples Test

PairedDifferences
t
df
Sig. (2-tailed)
Mean
Std. Deviation
Std. Error Mean
95% ConfidenceInterval of theDifference
Lower
Upper
Pair 1
Tiempodreaccante - tiempodreaccdesp
-7,800
4,175
,934
-9,754
-5,846
-8,355
19
,000











  •  Nivel de Confianza:
95%
  •   P = ,000 ˂ 0,05
     Por lo tanto se rechaza la Ho y se infiere que: El tiempo de reacción de los participantes muestra diferentes variaciones, luego de ingerir alcohol. 


El Análisis de la Varianza (ANOVA, ANalysis Of VAriance, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas.

Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.

 

Ejercicios 

 


Los siguientes datos corresponden al peso de 120 pacientes recluidos en el Hospital Antonio María Pineda, afectados por la Enfermedad Pulmonar Obstructiva Crónica (EPOC), que fueron sometidos a 3 tratamientos distintos en un lapso de 5 meses.

1
2
3
Total
Peso
Pacientes
Peso
Pacientes
Peso
Pacientes

42
10
56
2
60
12
24
45
10
54
8
61
10
28
47
10
53
10
65
5
25
44
5
57
15
62
3
23
49
5
55
5
64
10
20

40

40

40
120

Variable Independiente:
Tratamiento
Variable Dependiente:
Peso
Ho: El promedio de peso de los pacientes sometidos a determinados tratamientos, no presentan variación.
Ha:El promedio de peso de los pacientes sometidos a determinados tratamientos, presentan variación.


Descriptivos

PESO





Intervalo de confianza para la media al 95%







Límite inferior
Límite superior


1tratamiento
40
45,13
2,345
,371
44,38
45,87
42
49
2tratamiento
40
55,10
1,676
,265
54,56
55,64
53
57
3tratamienti
40
62,03
1,915
,303
61,41
62,64
60
65
Total
120
54,08
7,242
,661
52,77
55,39
42
65

                                                     
Prueba de homogeneidad de varianzas

PESO
Estadístico de Levene
gl1
gl2
Sig.
1,636
2
117
,199

                                                                         ANOVA

PESO

Suma de cuadrados
gl
Media cuadrática
F
Sig.
Inter-grupos
5774,217
2
2887,108
723,400
,000
Intra-grupos
466,950
117
3,991


Total
6241,167
119





Conclusión:
-        Si existe homogeneidad (Levene ,199)
-        P (,000) es menor que α, por lo tanto se rechaza la Ho y se infiere que el promedio de peso de los pacientes sometidos a determinados tratamientos, presentan variación.

Pruebas post hoc


Comparaciones múltiples

Variable dependiente: PESO
DMS





Intervalo de confianza al 95%





Límite inferior
Límite superior

2tratamiento
-9,98(*)
,447
,000
-10,86
-9,09

3tratamienti
-16,90(*)
,447
,000
-17,78
-16,02
2tratamiento
1tratamiento
9,98(*)
,447
,000
9,09
10,86

3tratamienti
-6,92(*)
,447
,000
-7,81
-6,04
3tratamienti
1tratamiento
16,90(*)
,447
,000
16,02
17,78

2tratamiento
6,92(*)
,447
,000
6,04
7,81
*  La diferencia entre las medias es significativa al nivel .05.


Conclusión:

Todos los tratamientos fueron igual de efectivos.



CHI CUADRADO

1.      Los siguientes datos corresponden a los días en que  80  individuos presentaron resfriado, luego de participar en una jornada de investigación, emprendida por el Hospital Antonio María Pineda, donde se aplicaron cuatro tipos de vacunas aleatoriamente. Es importante destacar que se catalogo de fracaso (F) si el individuo vacunado se resfriaba durante los tres meses siguientes y de exitoso (E) sino no se refriaba en igual plazo. 


Frecuencia del Resfriado

Individuos que presentaron resfriado de acuerdo a las vacunas aplicadas

Vacuna A
Vacuna B
Vacuna C
Vacuna D
TOTAL
Ante del  mes
1
15
18
18
52
A los 40 días
4
4
1
1
10
Luego de 3 meses
15
1
1
1
18
TOTAL
20
20
20
20
80

Variable dependiente
Frecuencia del Resfriado
Variable Independiente 
Vacuna
Ho: Existe independencia entre las vacunas aplicadas y las frecuencias de resfriado en los individuos.
Ha: Existe dependencia entre vacunas aplicadas y las frecuencias de resfriado en los individuos.


Tablas de contingencia

                                                             Resumen del procesamiento de los casos


Casos

Válidos
Perdidos
Total

N
Porcentaje
N
Porcentaje
N
Porcentaje
VACUNA * RESFRIAD
81
100,0%
0
,0%
81
100,0%

                                    Tabla de contingencia VACUNA * RESFRIAD

Recuento

RESFRIAD
Total

antesdelmes
alos40dias
luegode3

VACUNA
1vacuna
1
4
15
20

2vacuna
15
4
1
20

3vacuna
19
1
1
21

4vacuna
18
1
1
20
Total
53
10
18
81

Pruebas de chi-cuadrado


Valor
gl
Sig. asintótica (bilateral)
Chi-cuadrado de Pearson
52,341(a)
6
,000
Razón de verosimilitud
54,193
6
,000
 Asociación lineal por lineal
33,296
1
,000
N de casos válidos
81


a  8 casillas (66,7%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 2,47.


Conclusión:

P (,000) es menor que α por lo tanto se rechaza la Ho y se infiere que existe dependencia entre vacunas aplicadas y las frecuencias de resfriado en los individuos.


2.      Se realizo un estudio para investigar la asociación entre el color de las flores y la fragancia de las azaleas silvestres. Se observaron 122 plantas floridas seleccionadas de manera aleatoria. Estas se clasificaron según el color y la presencia o ausencia de la fragancia. Los datos se muestran a continuación:

Fragancia
Color


Blanca
Rosa
Naranja
TOTAL
Si
12
60
10
82
NO
20
10
10
40
TOTAL
32
70
20
122

Variable Independiente:
Flores Azaleas silvestres
Variable dependiente
Color y fragancia

-        Ho: Hay independencia entre color y fragancia (o no existe asociación).
-        Ha: Hay dependencia entre color y fragancia (existe asociación).

Tablas de contingencia

                                                            Resumen del procesamiento de los casos


Casos

Válidos
Perdidos
Total

N
Porcentaje
N
Porcentaje
N
Porcentaje
FRAGANCI * COLOR
122
98,4%
2
1,6%
124
100,0%



Tabla de contingencia FRAGANCI * COLOR

Recuento

COLOR
Total

1blanco
2rosa
3naranja

FRAGANCI
1si
12
60
10
82

2no
20
10
10
40
Total
32
70
20
122



Pruebas de chi-cuadrado


Valor
gl
Sig. asintótica (bilateral)
Chi-cuadrado de Pearson
26,382(a)
2
,000
Razón de verosimilitud
26,887
2
,000
Asociación lineal por lineal
3,258
1
,071
N de casos válidos
122


a  0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 6,56.

Conclusión:
P (,000) es menor que α, por lo tanto se rechaza la Ho y se infiere que existe dependencia entre color y fragancia (existe asociación).

3.      En un estudio realizado a un grupo de 78 embarazadas, de la Maternidad Concepción Palacios en el año 1984. Se consideraron las variables “Peso del feto” y “contenido de hemoglobina”, los resultados obtenidos se indican en la siguiente tabla.   
Distribución de las embarazadas, según peso del feto y contenido de hemoglobina de la madre
Contenido de Hemoglobina
Peso del feto
<300
300 – 600
>600
Total
<10g
12[9,46]
16[19,97
12[11,56]
41
11 – 11g
4[4,85]
11[10,24]
6[5,92]
21
>11g
2[3,69]
11[7,79]
3[4,52]
16
Total
18
38
22
78

Variable dependiente
Peso
Variable Independiente 
Hemoglobina
Ho: Existe independencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.
Ha: Existe dependencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.

Case ProcessingSummary

Cases
Valid
Missing
Total
N
Percent
N
Percent
N
Percent
hemoglobina * pesodefeto
77
100,0%
0
0,0%
77
100,0%


hemoglobina * pesodefetoCrosstabulation
Count

pesodefeto
Total
?300
300-600
?600
hemoglobina
?10g
12
16
12
40
11-11g
4
11
6
21
?11g
2
11
3
16
Total
18
38
21
77


Chi-SquareTests

Value
df
Asymp. Sig. (2-sided)
Pearson Chi-Square
4,245a
4
,374
Likelihood Ratio
4,325
4
,364
Linear-by-Linear Association
,151
1
,698
N of Valid Cases
77


a. 3 cells (33,3%) haveexpectedcountlessthan 5. Theminimumexpectedcountis 3,74.


Conclusión
Como P es (,374) mayor que α, por lo tanto se acepta la Ho y se infiere que existe independencia entre contenido de hemoglobina en la sangre de la madre y el peso del feto.



RELACIÓN Y CORRELACIÓN

Se lleva a cabo un estudio por medio de detectores radiactivos de la capacidad corporal para absorber hierro y plomo, participan en el estudio 10 sujetos, a cada uno se le da una dosis oral idéntica de hierro y plomo, después de 12 días se mide la cantidad de cada componente retenido en el sistema corporal y a partir de esta se determina el porcentaje absorbido en el cuerpo.
Los resultados son los siguientes:

% de Hierro = X
17 – 22 – 35 – 43 – 80 – 85 – 91 – 92 – 96 – 100 
% de Plomo = Y
8 – 17 – 18 – 25 – 58 – 59 – 41 – 30 – 43 – 58

Variable Dependiente:
Concentración de Plomo
Variable Independiente:
Concentración de Hierro

Ho: El porcentaje de hierro y plomo obtenido por el sistema corporal de manera oral no presenta correlación.
Ha: El porcentaje de hierro y plomo obtenido por el sistema corporal de manera oral presenta correlación.
Correlaciones

Estadísticos descriptivos


Media
Desviación típica
N
XHIERRO
66,10
32,899
10
YPLOMO
35,70
18,845
10


Correlaciones



XHIERRO
YPLOMO
XHIERRO
Correlación de Pearson
1
,841(**)

Sig. (bilateral)
.
,002

N
10
10
YPLOMO
Correlación de Pearson
,841(**)
1

Sig. (bilateral)
,002
.

N
10
10
**  La correlación es significativa al nivel 0,01 (bilateral).


Conclusión:
-        La relación entre hierro y plomo obtenidos es muy alta R: 0,841.
-        La relación es perfecta positiva.

Determina el % de plomo absorbido por un individuo cuyo sistema absorbe 15% de hierro.
Los valores para la ecuación de la recta y = a + b x 15%
X = VI 
Y = VD

A = a la intersección de la recta.
B = Pendiente

Regression


Variables Entered/Removeda
Model
Variables Entered
Variables Removed
Method
1
yb
.
Enter
a. Dependent Variable: x
b. Allrequested variables entered.



ModelSummary
Model
R
R Square
Adjusted R Square
Std. Error of theEstimate
1
,841a
,707
,670
18,891
a. Predictors: (Constant), y


ANOVAa
Model
Sum of Squares
df
Mean Square
F
Sig.
1
Regression
6885,985
1
6885,985
19,296
,002b
Residual
2854,915
8
356,864


Total
9740,900
9



a. Dependent Variable: x
b. Predictors: (Constant), y



Coefficientsa
Model
UnstandardizedCoefficients
StandardizedCoefficients
t
Sig.
B
Std. Error
Beta
1
(Constant)
13,699
13,341

1,027
,335
y
1,468
,334
,841
4,393
,002
a. Dependent Variable: x



Conclusión:
y = a + b x 15%
y = 1,468 + 0.841 x 15%
y = 2,309 x 15%
y= 0,346       

Se pudo determina que el % de plomo absorbido por un individuo cuyo sistema absorbe 15% de hierro es 0,346%

TRABAJANDO CON SPSS
PRUEBA T:
·         Buscar vista de variable.
·         Colocar los nombres de las variables, ejemplo: Peso – sexo.
·         Si los datos poseen decimales, seleccionas la cantidad, de los contrario colocas “o”.
·         Buscar (valores) en la parte superior, se extenderá un cuadro que dice “Etiqueta de Valor”.
·         Deberás colocar el valor, ejemplo: 1 – Masculino, añadir; 2 – femenino, añadir y luego aceptar.
·         Seguidamente deberás buscar Vista de Datos en la parte inferior.
·         Colocar los datos, recordando los valores de las etiquetas, ejemplo:
Peso   sexo
90         1  (masculino)
80         2 (femenino)
·         Luego se debe buscar analizar – comparar media y seleccionar si es:
-        Prueba T para una muestra.
-        Prueba T para una muestra independiente.
-        Prueba T para muestras relacionadas.
·         Si seleccionas muestra independiente, saldrá un recuadro donde te solicitara:
-        Variables para contrastar y variables de agrupación.
·         Luego dar en aceptar y obtendrás los resultados.
ANOVA
·         Luego de ejecutar los primeros pasos, debes buscar comparar media: marcar ANOVA de un factor.
·         Saldrá un recuadro donde te solicitará seleccionar la variable dependiente.
·         Seguidamente deberás ir a opción y tendrás que seleccionar Descriptivos y Prueba de Homogeneidad de las variables.
·         Continuar y Aceptar – y obtendrás los resultados.
SI DEBES RECURRIR A POST HOC:
-        Tienes que buscar analizar.
-        ANOVA de un factor.
-        Luego Post hoc, aquí seleccionaras DMS.
-        Continuar.
-        Aceptar y obtendrás los resultados.

CHI CUADRADO

·         Al ejecutar los primeros pasos.
·         Buscar estadísticos descriptivos.
·         Seleccionar tablas de contingencia.
·         Seleccionar la variable que va en fila y en columna.
·         Buscar estadísticos, saldrá otro recuadro y deberás seleccionar chi cuadrado.
·         Continuar y obtendrás los resultados.


REFERENCIAS BIBLIOGRÁFICAS

 
Rodríguez, F. (2008) ESTUDIO DE MÉTODOS NO PARAMÉTRICOS/ UNIVERSIDAD NACIONAL ABIERTA, Caracas.