The Elements, Tom Lehrer 1967
The Elements
Tom Lehrer
1967
There's antimony, arsenic, aluminum, selenium
And hydrogen and oxygen and nitrogen and rhenium
And nickel, neodymium, neptunium, germanium
And iron, americium, ruthenium, uranium
Europium, zirconium, lutetium, vanadium
And lanthanum and osmium and astatine and radium
And gold and protactinium and indium and gallium
And iodine and thorium and thulium and thallium
There's yttrium, ytterbium, actinium, rubidium
And boron, gadolinium, niobium, iridium
And strontium and silicon and silver and samarium
And bismuth, bromine, lithium, beryllium, and barium
Isn't that interesting? I knew you would. I hope you're alltaking
notes, because there's going to be a short quiz next period.
There's holmium and helium and hafnium and erbium
And phosphorus and francium and fluorine and terbium
And manganese and mercury, molybdenum, magnesium
Dysprosium and scandium and cerium and cesium
And lead, praseodymium, and platinum, plutonium
Palladium, promethium, potassium, polonium
And tantalum, technetium, titanium, tellurium
And cadmium and calcium and chromium and curium
There's sulfur, californium, and fermium, berkelium
And also mendelevium, einsteinium, nobelium
And argon, krypton, neon, radon, xenon, zinc, and rhodium
And chlorine, carbon, cobalt, copper, tungsten, tin, and sodium
These are the only ones of which
The news has come to Ha'vard
And there may be many others
But they haven't been discavard
Para los que aún piensan que hay cuatro o cinco elementos.
Y esto que sigue es para que conste que peor no se puede hacer para que todos tengan alcance cultural:
http://www.congreso.es/public_oficiales/L10/CONG/BOCG/A/BOCG-10-A-81-5.PDF
Y los NAUKAS hablan
http://naukas.com/2013/03/20/como-saquear-el-erario-publico-con-3-normas-nacionales-en-4-pasos-y-con-la-excusa-de-las-publicaciones-cientificas/
Alternativas:
http://alt1040.com/2014/07/medios-aede-alternativas
Un cuento
Los cognitivos
En fin, que no se cuando duraremos por aquí, y por lo que pueda pasar seguimos trabajando pues estas piedras no pueden interrumpir el río del conocimiento. Acaban de decir en un programa televisivo que los españoles en estos momentos que nos toca vivir, si el pato donald se pone de candidato le votarían con tal de quitarse de encima al Rajoy. Me he sentido tan sumamente humillada por creer que somo estúpidos y nos manejan como quieren. Palabras de un periodista, escritor, tertuliano de televisión .... o eso se creerá él y claro algún papel "oficial" dirá que si es periodista. Y mientras tanto en la millor terreta del mon, una mala burócrata tiene cogidos por los genitales a todos los implicados en un pleno consistorial. Por ello y como no tengo otro sitio donde decirlo: que no, que no, que hay gente que sabe lo que quiere de verdad, hay gente que no le gustan los coches caros, que no les gustan los diamantes, que no tienen afán por comprarse el último móvil y la última appel, que resulta que no hacen pasastiempos ni sudokus, ni se van al bingo, ni siquiera se toman anisetes o derivados legales o no....Son personas que aprenden constantemente fórmulas matemáticas nuevas en cada una de sus diferentes representaciones. Sin parar, constantes, con un objetivo a muy a largo plazo. Algo muy tenaz, muy sutil, muy eficaz, muy eficiente. Muy divertido, carismático, musical, teniendo consciencia de los sentidos y los cognitivos.
ANÁLISIS DE DATOS PARA DISEÑOS DE DOS GRUPOS. MUESTRAS
INDEPENDIENTES.
En investigaciones lo más habitual es que se utilicen más de una muestra. Una de control y otra experimental.
Veamos un ejemplo típico en el que utilizamos
un diseño de una muestra.
Un
profesor opina que aplicando un nuevo método de enseñanza, podría lograr que
sus estudiantes comprendieran mejor su asignatura, lo que se traduciría en un
incremento de la nota media a final del curso. Sabe que la nota media y la
varianza de las calificaciones de años anteriores son:
Considera
que estos son los datos de la población.
Aplica el
nuevo método de enseñanza a una muestra
de 36 sujetos obteniendo una nota media:
Se
pregunta si los datos de la muestra son compatibles con los datos de cursos
pasados.
Realiza un
contraste de hipótesis y como el estadístico
de contraste es significativo
Concluye que el nuevo método de enseñanza es más eficaz que el tradicional.
Ahora bien, en los resultados que ha encontrado el profesor pueden influir otros factores.
- Por ejemplo, si ha sido él quien aplicó el nuevo método de enseñanza,
- es posible que haya trabajado con más entusiasmo que en cursos anteriores,
- bien los alumnos del último curso accedieron a su asignatura mejor preparados,
- quizás los estudiantes han tenido menos trabajo en otras asignaturas y han podido dedicar más tiempo a la suya.
Si hubiese formado dos grupos las
conclusiones serían más claras al estar menos sujetas a explicaciones rivales.
- Para uno de ellos el método de enseñanza sería el tradicional (grupo de control),
- mientras que el otro grupo (experimental) estaría formado por los sujetos que aprendieron la asignatura con el nuevo método.
- Finalmente, nuestro profesor realizaría un contraste de hipótesis para comprobar si existen diferencias entre el grupo experimental y el grupo de control.
También es muy común en psicología el diseño
de dos muestras cuando queremos comprobar la eficacia de un tratamiento. En
este caso medimos la variable dependiente (por ejemplo, ansiedad) antes y después
del tratamiento y comparamos ambas medias para comprobar si la terapia ha sido
eficaz.
En otras ocasiones el mismo problema que
queremos investigar nos obliga a utilizar dos muestras, porque queremos
estudiar diferencias entre dos poblaciones diferentes, como puede ser entre
hombres y mujeres, entre ambiente rural y urbano, entre dos clases sociales,
etc.
Al trabajar con dos muestras utilizaremos
subíndices para distinguir el tamaño muestral, la media y varianza de cada una
de ellas.
También, para facilitar la legibilidad de las
fórmulas y distinguir:
Muestras independientes o relacionadas.
En todas
las técnicas estadísticas que vemos suponemos que las
observaciones dentro de una muestra son independientes, es decir, que no
existe relación entre ellas.
Por lo tanto, dentro de un grupo el valor de una
determinada puntuación no nos informa en absoluto del valor de otras
puntuaciones dentro del mismo grupo.
Veamos un par de ejemplos.
Un psicobiólogo dispone de 10 ratas para realizar un experimento. Quiere formar dos grupos, que tras ser sometidos a diferentes niveles de estrés correrán el mismo laberinto. Todas las ratas están en la misma jaula.
Probablemente la primera rata que atrapa el investigador es la más “despistada”, la siguiente es un poco menos despistada y así sucesivamente, de forma que el primer grupo está formado por las ratas más torpes, e independientemente del tratamiento la media del primer grupo es superior (tardan más en correr el laberinto). En este caso las puntuaciones dentro de cada grupo están relacionadas y sabiendo en qué orden fue capturada una rata puedo predecir su nivel de “torpeza”.
- Las 5 primeras que coge forman el primer grupo y las 5 restantes el segundo.
Otro ejemplo
Me voy 20 días a Río de Janeiro de vacaciones en la mejor época
posible, y el tiempo empeora progresivamente. Calculo la temperatura media de
esos días y concluyo que la temperatura en Río es muy fría. Los resultados son
significativos. Pero si he tenido la mala suerte de que mi viaje coincida con
que la peor borrasca del siglo haya comenzado justo al aterrizar en Río, quizás
observe que la temperatura ha descendido día tras día, de forma que conociendo
la temperatura de un día cualquiera de mis vacaciones, puedo predecir que la
del día siguiente será inferior. La conclusión a la que he llegado es errónea
porque los datos que he tomado no son independientes. Si bien existen
contrastes de hipótesis para comprobar la independencia de las observaciones,
para garantizar la independencia de los datos dentro de un grupo, lo mejor que
puede hacerse es seleccionar los elementos de la muestra de forma aleatoria.
Cuando
trabajamos con dos muestras (o más de dos), las muestras pueden ser independientes
o relacionadas.
- Son muestras independientes cuando no existe relación entre los sujetos de una y otra, lo que podremos garantizar si los sujetos son asignados aleatoriamente a cada una de las muestras.
- Tenemos muestras relacionadas cuando cada observación en una muestra tiene su pareja en la otra.
Si queremos probar la eficacia de una terapia contra la ansiedad, podemos seleccionar a un grupo de sujetos en los que medimos su nivel de ansiedad antes del experimento; aplicamos la terapia, y volvemos a medirlo después de la terapia para comparar las medias en ansiedad antes y después.
- El caso más evidente es cuando son los mismos sujetos los que pasan por diferentes condiciones experimentales.
- En otras ocasiones no son los mismos sujetos los que se repiten en las muestras, pero hay una relación sujeto a sujeto en ambas.
Por
ejemplo:
Si disponemos de 10 parejas de hermanos gemelos, podemos formar dos grupos de 5 personas donde cada dos hermanos son asignados, aleatoriamente, a grupos distintos.
Por último, también podemos utilizar pares de sujetos que están equiparados en variables que pueden influir en el diseño de la investigación.
- También podemos contar con padres e hijos, maridos y mujeres, etc.
Por
ejemplo:
Supongamos que para probar la eficacia de dos métodos de enseñanza, queremos controlar la influencia del cociente intelectual, por lo que tomamos pares de sujetos con un CI semejante formando cada uno de ellos parte de muestras diferentes.
Contrastes de hipótesis sobre dos medias en muestras
independientes.
Varianzas poblacionales conocidas, pero si no es así,
que es lo más habitual, podemos suponer que son iguales o diferentes.
Utilizaremos un ejemplo para ilustrar el procedimiento estadístico en cada uno
de los casos cambiaremos a lo largo de los ejemplos la hipótesis alternativa que, puede ser bilateral, unilateral derecha o
unilateral izquierda.
En todo
contraste de hipótesis el proceso de inferencia estadística se realiza sobre
una distribución teórica que denominamos distribución muestral.
Distribución
muestral de la diferencia de medias para dos muestras independientes
Supongamos que
tenemos dos poblaciones, y que cada una de ellas, para que el ejemplo sea lo más corto posible, contiene 3
observaciones.
- Denotaremos las puntuaciones mediante la letra latina Y.
Presentamos
las puntuaciones, media y varianza de dichas poblaciones:
Población
1:
Población 2:
Donde el primer
subíndice hace referencia a la población a la que pertenecen y el segundo al orden
que cada puntuación ocupa en su población.
Cálculo de la media aritmética de todas las sub-muestras de tamaño “n = 2” con
reposición para la Población 1, y
que formarán la distribución muestral de la media para dicha población en
muestras de tamaño “n = 2”.
La distribución
muestral de la media para la Población 1,
está compuesta por los 9 valores de la Tabla que ordenados son:
Estos valores también
podríamos calcularlos en función de la media y varianza de la población.
Repitiendo
el proceso seguido para la Población 1, obtenemos la distribución muestral para
la Población 2, formada por los valores:
La distribución
muestral de las diferencias:
La compondremos al emparejar todas las muestras
de la Población 1 con todas las muestras de la Población 2.
En la Tabla siguiente
están reflejadas todas las opciones posibles.
Con los valores de la
Tabla, podemos comprobar que la media y varianza de los datos que contiene son
igual a:
En los
contrastes que veremos a continuación vamos a suponer que las poblaciones de
las que proceden las muestras que utilizaremos se distribuyen normalmente, o
bien que:
Esto nos
garantiza que las distribuciones muestrales de la media en ambos casos también
se distribuyen normalmente:
- también se distribuirá normalmente la distribución muestral de las diferencias entre medias
La diferencia
en el ejemplo anterior es igual a cero:
Que es
lo que generalmente postulará la hipótesis nula.
Varianzas
poblacionales conocidas.
Ejemplo 3.1. Un psicólogo escolar utiliza un
test de comprensión verbal recientemente traducido del inglés, que proporciona
puntuaciones en un nivel de medida de intervalo. Se sabe, por investigaciones
anteriores, que las varianzas en la población son para niños y niñas
respectivamente.
Las investigaciones anteriores también indican que la media es
la misma en ambos grupos, pero este último aspecto no ha sido comprobado con
muestras españolas.
El psicólogo considera que la traducción del test no es muy
acertada y puede provocar diferencias que en realidad no se deben a la
comprensión verbal, por lo que selecciona aleatoriamente una muestra de 100 niños y otra muestra de 200
niñas obteniendo una media igual a 20 para los niños e igual a 17,5 para
las niñas. Con un nivel de confianza del 95%. ¿Podemos afirmar que la
puntuación media en el test de comprensión verbal es la misma para niños y
niñas?
Condiciones y supuestos.
Tenemos un diseño de dos
muestras independientes (niños y niñas), seleccionadas de dos poblaciones con
varianzas conocidas (el psicólogo asume que las varianzas de las poblaciones de
niños y niñas son las que reflejan las investigaciones anteriores), donde la variable dependiente (comprensión verbal)
proporciona puntuaciones en una escala de intervalo.
Aunque no sabemos si las
poblaciones se distribuyen normalmente, trabajamos con muestras que son lo suficientemente
grandes
Se cumplen los siguientes
supuestos:
- Variable dependiente con un nivel de medida de intervalo o razón.
- Dos poblaciones que se distribuyen normalmente, o bien, n1 ≥ 30 y n2 ≥ 30.
- Varianzas poblacionales conocidas.
Formular las hipótesis.
En este caso el psicólogo
piensa que pueden existir diferencias pero no tiene una hipótesis previa sobre
la dirección de las mismas, por lo que planteamos un contraste de hipótesis
bilateral:
Estadístico de
contraste y su distribución muestral.
Conocemos las varianzas de
las dos poblaciones y trabajamos con muestras grandes, lo que nos permite
asumir la normalidad de la distribución muestral de las diferencias entre
medias. Siendo el grupo 1 el de niños y el 2 el de niñas, el estadístico de
contraste es igual a:
Observamos que la fórmula
del estadístico de contraste cuantifica la discrepancia entre la diferencia de
medias observada entre las dos muestras frente a una diferencia nula planteada
en la hipótesis nula medida en unidades de desviación típica.
Por tanto, en el numerador
tenemos la diferencia entre el valor del estadístico en la muestra:
Habitualmente la hipótesis
nula, como en este caso, especificará que no existe diferencia entre las medias
poblacionales, por lo que el término
Es
igual a cero.
Por este motivo, generalmente calcularemos el estadístico de
contraste mediante la siguiente ecuación:
Podemos calcular el nivel
crítico p en la tabla de curva normal, que como sabemos es la probabilidad de
obtener un valor como el observado o más extremo, suponiendo que la hipótesis
nula es cierta.
Primero buscamos la
probabilidad de encontrar valores superiores a 3,21:
Y como el contraste es bilateral multiplicamos por dos el
valor obtenido:
Establecer la regla de decisión en función del nivel de
confianza.
El nivel de significación es
del 5% y el contraste es bilateral, por lo que los valores críticos que
delimitan cuándo mantenemos y cuándo rechazamos la hipótesis nula son las
puntuaciones típicas:
Conclusión.
El estadístico de contraste (Z = 3,21) no pertenece a la zona de
valores compatibles con la hipótesis nula que definen las puntuaciones:
Por lo que rechazamos la hipótesis nula.
- El estadístico de contraste (la discrepancia observada) supera la diferencia que cabría esperar por simple azar. En general, en un contraste bilateral:
Mantendremos
la hipótesis nula
cuando el estadístico de contraste no
alcance el valor crítico:
Rechazaremos
la hipótesis nula cuando:
cuando el estadístico de contraste alcance el valor crítico
Si
utilizamos el nivel crítico p para concluir qué decisión tomar con respecto a la hipótesis nula, llegamos a la misma conclusión, puesto que:
El
comparar el nivel crítico con el nivel de significación nos proporciona más
información que la comparación del estadístico de contraste con el valor
crítico, puesto que vemos claramente que es muy improbable que, siendo la
hipótesis nula verdadera, obtengamos dos muestras cuyas medias tengan una diferencia
como la observada.
El
resultado sería significativo incluso a un nivel de confianza superior al 99%.
Interpretar el resultado en
función del contexto de la investigación.
Las sospechas del psicólogo parecen fundadas.
Las diferencias entre niños y niñas en fluidez verbal son significativas, y pueden deberse a la deficiente traducción del test.
Intervalo de confianza.
Si
estuviéramos interesados en calcular el intervalo de confianza, lo haríamos mediante
la expresión:
Que en
nuestro caso queda:
Es
decir, con un nivel de confianza del 95% la diferencia entre la media de los
niños y la media de las niñas en el test de fluidez verbal oscila entre 0,98 y
4,02 puntos a favor de los primeros.
- Como el contraste de hipótesis planteado es bilateral, también podemos decidir si mantenemos o rechazamos la hipótesis nula examinando los límites del intervalo de confianza.
Varianzas poblacionales desconocidas pero supuestas iguales.
Ejemplo 3.2. En un estudio
sobre depresión en personas mayores llevado a cabo en un centro geriátrico, se
quiere comprobar si las personas ingresadas que no reciben visitas de sus
familiares tienen una puntuación media en depresión superior a aquellas
personas cuyos familiares les visitan con frecuencia. Para comprobar esta
hipótesis, se seleccionaron aleatoriamente 41 personas que no reciben visitas
obteniéndose una puntuación media de 20 puntos con una cuasivarianza igual a
100, mientras que en una muestra aleatoria de 31 personas que si reciben
visitas con frecuencia la media fue igual a 15 con una cuasivarianza igual a
90. Suponiendo que las varianzas en la población son iguales para ambos grupos,
y con un nivel de confianza del 99% ¿podemos decir que los datos obtenidos
avalan la hipótesis de partida?
Condiciones y supuestos.
Los
requisitos en este caso son iguales que en el caso anterior, excepto que no conocemos
las varianzas poblacionales, si bien las suponemos iguales.
Comprobamos
pues que se cumplen los siguientes puntos:
- Variable dependiente con un nivel de medida de intervalo o razón. Suponemos que el test de depresión proporciona medidas en una escala de intervalo.
- No sabemos si la distribución en la población es normal, pero salvamos este obstáculo utilizando dos muestras con 30 ó más observaciones en cada una de ellas.
- Varianzas poblacionales desconocidas y supuestas iguales. Veremos cómo contrastar diferencias entre dos varianzas. En cualquier caso, la diferencia entre las varianzas de las muestras es pequeña.
Formular
las hipótesis.
Partimos
de la idea de que la depresión media es superior en las personas que no reciben visitas de sus familiares (Grupo
1) respecto de las personas que reciben
con frecuencia visitas de sus familiares (Grupo 2), por lo que realizamos
un contraste unilateral derecho.
Las
hipótesis en este caso han de ser:
Estadístico de contraste y su
distribución muestral.
El estadístico de contraste
en este caso se distribuye según t de Student con grados de libertad.
grados de libertad, no conocemos las varianza poblacionales y adopta la siguiente expresión:
El término:
habitualmente es igual a cero, por lo que calcularemos
el estadístico de contraste, mediante la siguiente ecuación.
Con los datos del ejemplo
tendremos:
Siendo el estadístico de
contraste igual a:
Establecer la
regla de decisión en función del nivel de confianza.
Buscamos en las tablas de t
de Student el valor crítico, que en este caso es igual a la puntuación que
supera al 99% de la distribución para 70 grados de libertad:
La gráfica queda de la siguiente forma:
El nivel crítico p es igual a p = 0,0175. No podemos calcularlo
exactamente en las tablas del apéndice, pero podemos utilizarlas para hallar un
valor aproximado.
Observamos en la tabla t de
Student, que para 70 grados de libertad nuestro estadístico de contraste se
encuentra entre las puntuaciones 1,994 y 2,381 (1,994 < 2,15 < 2,381) que
dejan por encima de si respectivamente las proporciones:
- 0,025 y 0,01, luego el nivel crítico p se encontrará entre estos dos valores (0,01 < p < 0,025).
Conclusión.
Como podemos apreciar en el
Figura 3.2, el valor del estadístico de contraste no supera al valor crítico (2,15<2,381) por lo que la diferencia encontrada no es
significativa con un nivel de confianza del 99%.
En general, en un contraste unilateral derecho
Mantendremos
la hipótesis nula cuando el estadístico de contraste no supere
el valor crítico
Rechazaremos
la hipótesis nula cuando el estadístico de contraste supera el
valor crítico
Si comparamos el nivel
crítico p con el nivel de significación
, llegamos a la misma conclusión (0,0175 > 0,01).
Si comparamos el nivel
crítico p con el nivel de significación, llegamos a la misma conclusión (0,0175 > 0,01).
Si comparamos el nivel crítico p con el nivel de significación, llegamos a la misma conclusión (0,0175 > 0,01).
Interpretar el
resultado en función del contexto de la investigación.
Al nivel de confianza del
99% los resultados no indican que la puntuación media en depresión es mayor en
el grupo de sujetos que no reciben visitas respecto de los que sí las reciben.
Pero los resultados sí son significativos al nivel
de confianza del 95%, como apreciamos al comparar el nivel de significación
con el nivel crítico.
- 0,05>0,01
Deberíamos buscar alternativas para que esta tendencia depresiva se redujera para que se puedan profundizar sobre aprendizajes.
Intervalo de
confianza
Que
en nuestro caso queda:
En el caso en el que los
grados de libertad sean superiores a g.l. = 100, no podemos consultar en las
tablas que manejamos los valores de la distribución T de Student.
- Pero dado que a medida que aumentan los grados de libertad la distribución T se parece cada vez más a la normal tipificada, para g.l. > 100 podemos utilizar la tabla de curva normal, dado que la diferencia entre los valores T y Z es muy pequeña.
Varianzas
poblacionales desconocidas y supuestas distintas.
Ejemplo 3.3. Un laboratorio desarrolla un fármaco con el que se pretende
reducir la ansiedad. Para comprobarlo, se extrajeron dos muestras aleatorias de
cinco observaciones cada una que suponemos procedentes de poblaciones que se
distribuyen normalmente con distinta varianza.
A los sujetos de la primera muestra se les
administró el fármaco y los de la segunda una sustancia placebo.
Posteriormente
se les midió la ansiedad a todos los sujetos mediante un test en el que cuanto
más elevada es la puntuación mayor es la ansiedad.
Los resultados
de ambas muestras fueron:
- Grupo 1 (con fármaco): 10; 20; 30; 20; 5
- Grupo 2 (sin fármaco): 30; 50; 30; 60; 20
Con un nivel
de confianza del 95%, ¿podemos afirmar que el fármaco efectivamente reduce la
ansiedad?
Condiciones y
supuestos.
Al igual que en los ejemplos
anteriores, necesitamos que la variable dependiente esté medida a nivel de
intervalo.
En cuanto a las poblaciones de las que proceden las varianzas, necesitamos
suponerlas normalmente distribuidas porque el tamaño de las muestras es pequeño.
En este caso no conocemos
las varianzas poblacionales, aunque ahora las suponemos distintas.
Formular las
hipótesis.
De acuerdo con la hipótesis
del laboratorio esperamos que la puntuación media sea inferior en el Grupo 1,
por lo que hemos de plantear un contraste
de hipótesis unilateral izquierdo.
Estadístico de
contraste y su distribución muestral.
El
estadístico de contraste lo calculamos mediante la Ecuación:
Hemos
omitido el término
Porque en este caso, como es habitual, es igual
a cero, por lo que omitiremos este término en contrastes posteriores.
El estadístico de contraste
sigue una distribución muestral cuyos grados
de libertad calculamos mediante la ecuación:
Tenemos que calcular las medias y varianzas insesgadas de ambas muestras ya
que no nos son proporcionadas directamente en el enunciado del ejercicio.
Primero calculamos las varianzas de ambos grupos:
Las cuasivarianzas
o varianzas insesgadas, serán:
Calculamos el estadístico de contraste:
Calculamos los grados de libertad:
Establecer la regla de decisión en función
del nivel de confianza.
Buscamos en las tablas t de Student el valor que supera a
una proporción igual a 0,05 para 6 grados de libertad, obteniendo un valor
igual a:
Representamos los datos del ejemplo.
Conclusión.
El valor del estadístico de
contraste es una puntuación más extrema que el valor crítico que hemos buscado
en la tabla t de Student -2,46 < -1,943,
por lo que rechazamos la hipótesis nula.
Con la misma lógica que en
todos los contrastes, en general en un contraste
unilateral izquierdo
|
En cuanto
al nivel crítico p, en la tabla t de
Student, para 6 grados de libertad, tenemos que:
- -3,113< -2,46 < -2,447
Por lo
que deducimos que el nivel crítico p estará comprendido entre las probabilidades
de encontrar valores iguales o inferiores a estas dos puntuaciones, es decir:
- (0,01< p < 0.025)
Interpretar el resultado en función del contexto de la
investigación.
Con un nivel de confianza
del 95% la diferencia de medias es significativa, por lo que concluimos que el
fármaco reduce la ansiedad.
Consideraciones
sobre los contrastes de hipótesis en dos muestras independientes.
En el primer contraste de
hipótesis incluíamos en los supuestos que las varianzas poblacionales son conocidas,
lo que difícilmente podremos asumir en un caso práctico.
- Si no conocemos las medias de las poblaciones con las que trabajamos, difícilmente podremos considerar que sí conocemos sus varianzas.
Lo más habitual, por lo
tanto, será asumir que las varianzas poblacionales son desconocidas, y en este
caso el contraste más utilizado es la prueba T, en el que suponemos varianzas poblacionales
iguales.
Este supuesto, al que
denominaremos homocedasticidad, es muy común en otras técnicas
estadísticas, como veremos en los temas en que compararemos las medias de más
de dos grupos (Análisis de la Varianza) o en el Análisis de Regresión.
- La cuestión estriba en que podamos asumir la normalidad de la distribución muestral de las diferencias, lo que podremos garantizar si las muestras que utilizamos son grandes.
Si la distribución muestral
es normal y los tamaños de ambas muestras son iguales, podemos despreocuparnos
de las varianzas poblacionales y suponer
sin más que son iguales, sin que por
ello peligre la validez del contraste de hipótesis que estamos realizando.
Ahora bien, habrá casos en
los que la opción más acertada será suponer varianzas poblacionales distintas, y por lo tanto tendremos que
utilizar el estadístico de contraste.
En la literatura científica
sobre este tema se proponen diferentes procedimientos para ajustar los grados
de libertad de la distribución muestral.
El procedimiento de Welch
nos ofrece un valor inferior para los grados de libertad en relación a si
tomamos:
el contraste por lo tanto es más
conservador, siendo más difícil rechazar la hipótesis nula.
Muchos investigadores sugieren que ha de realizarse previamente un
contraste de hipótesis sobre la igualdad las varianzas, de manera que si aceptamos
la hipótesis nula
Contraste de
hipótesis sobre dos varianzas en muestras independientes.
Condiciones y
supuestos.
Asumimos que las
puntuaciones que nos proporcionan los tests de inteligencia miden este
constructo en una escala de intervalo, y que la variable medida se distribuye
normalmente tanto en la población de hombres como en la de mujeres.
En general,
los supuestos necesarios son:
- Variable dependiente con un nivel de medida de intervalo o razón.
- Dos poblaciones con variables normalmente distribuidas, o bien.
Formular las
hipótesis.
Plantearemos un contraste unilateral derecho, en el que
la hipótesis alternativa corresponderá
a la sugerida por Eysenck, e indicará que la variabilidad en inteligencia es superior en el grupo de
hombres.
Estadísticamente planteamos
las hipótesis de la siguiente forma:
Elección del estadístico de
contraste y su distribución muestral.
El estadístico
de contraste, sigue una distribución
muestral “F” de Fisher, y es calculado según:
Los grados de libertad del
numerador y denominador son, respectivamente:
El cálculo del nivel crítico
p mediante las tablas de las que disponemos, generalmente no podrá ser muy
aproximado.
Observamos en dichas tablas que el primer valor que nos ofrecen
para 40 y 30 grados de libertad es igual a 1,573, al que supera una proporción
igual a 0,10, luego con las tablas, tan sólo podemos saber que el nivel crítico
p es mayor que 0,10 (p > 0,10). Con un programa informático adecuado concluiríamos
que el valor exacto de p es 0,2432.
Establecer la
regla de decisión en función del nivel de confianza.
A un nivel de confianza del 99% para 40 y 30 grados de
libertad, el valor crítico es igual a 2,299.
Conclusión.
A la vista de los resultados mantenemos la hipótesis nula a un nivel de
confianza del 99%, puesto que el valor del estadístico de contraste es
inferior al valor crítico, que en una distribución
F de Fisher con 40 y 30 grados de libertad deja por encima a una proporción
igual a 0,01. Deducimos del valor del nivel crítico p, que los resultados
obtenidos están lejos de ser significativos para cualquier nivel de confianza razonable.
Concluimos por lo tanto que la varianza de hombres y mujeres en inteligencia es
la misma.
Interpretar el
resultado en función del contexto de la investigación.
Eysenck (1981) afirmaba que
el hecho de que los hombres mostrasen mayor variabilidad en inteligencia,
implica que hay más hombres que mujeres con CI muy altos y con CI muy bajos.
Literalmente afirmaba “Esto está de acuerdo con la observación común de que la
mayoría de los genios en ciencias, en artes o en otras ocupaciones, así como con
defectos mentales, son hombres”. Los datos que manejamos no avalan la hipótesis
de Eysenck al no mostrar diferencias significativas en cuanto a la variabilidad
en la inteligencia de ambos grupos.
Propiedad recíproca de la
distribución F.
Aunque en este contraste no
ha sido necesario utilizarla, recordamos la propiedad recíproca de la
distribución F que vimos en la asignatura Introducción al Análisis de Datos, y
que nos sirve para calcular probabilidades que no aparecen en la tabla:
Contrastes de
hipótesis sobre dos proporciones en muestras independientes.
Tenemos ahora una variable
dependiente dicotómica o dicotomizada, en la que podemos distinguir entre dos
sucesos que denominamos “éxito” y “fracaso”, y nos preguntamos si la proporción
de éxitos difiere o no en dos poblaciones distintas.
- Este es un caso muy común en Psicología, donde con frecuencia trabajamos directamente con datos dicotómicos.
Por ejemplo: hombre y mujer,
acierto o fracaso en una determinada tarea, posición a favor o en contra,
recuperación o no de una enfermedad tras aplicar una determinada terapia, etc.
Otras veces dicotomizamos una variable que
originalmente es continua, como aprobados y suspensos, admitidos y no
admitidos en función de las puntuaciones en un test, etc.
Una de las ventajas de
trabajar con datos dicotómicos reside en que los supuestos en los que nos basamos
no son tan fuertes como en el caso de variables continuas.
Tan sólo necesitamos que los
tamaños de las muestras sean razonables y
para
poder asumir que la distribución muestral de las diferencias de proporciones es
normal.
El estadístico de contraste
que aplicaremos en este apartado dependerá de cómo planteemos las hipótesis
estadísticas.
- En primer lugar veremos cómo proceder cuando queramos comprobar si la diferencia entre dos proporciones es igual, mayor o menor que cero.
- Posteriormente trataremos el caso en el que estemos interesados en probar si la diferencia de proporciones es igual, mayor o menor que un determinado valor distinto de cero.
Ejemplo 3.5. En unas determinadas oposiciones se presentaron 200 graduados por la UNED, de los que aprobaron 70, mientras que de 300 candidatos de otras universidades aprobaron 60. Con un nivel de confianza del 95%, ¿podemos afirmar que la proporción de aprobados es la misma entre los graduados de la UNED y los de otras universidades?
Condiciones y
supuestos.
Tenemos una variable
dicotómica y dos muestras grandes que proceden de poblaciones independientes.
En general, los supuestos
necesarios son:
- Observaciones aleatorias e independientes.
- Variable dependiente dicotómica o dicotomizada.
- Muestras grandes.
Formular las
hipótesis.
Queremos comprobar si la
proporción de aprobados es igual o diferente en dos poblaciones distintas, es
decir, como no tenemos ninguna hipótesis de partida, planteamos un contraste bilateral.
Estadístico de
contraste y su distribución muestral.
Al plantear la hipótesis
nula la igualdad de proporciones, el estadístico de contraste que debemos
utilizar es:
Bajo el supuesto de que la hipótesis nula es verdadera y las dos
proporciones poblacionales son iguales, la proporción P es la proporción
ponderada de éxitos obtenidos en las dos muestras (véase la Ecuación 3.9), como
mejor estimador de la proporción poblacional.
Calculamos en primer lugar
las proporciones muestrales y el término P:
La proporción P, no es más
que la proporción total de éxitos, que también podemos calcular como:
El estadístico de contraste
es igual a:
Establecer la
regla de decisión en función del nivel de confianza.
Para un nivel de confianza del 95% y un contraste bilateral, los valores
críticos son:
Conclusión.
A
un nivel de confianza del 95% rechazamos la hipótesis nula
El estadístico de contraste 3,75 cae fuera del intervalo que definen los valores críticos -1,96; +1,96.
En cuanto al nivel crítico
p, acudimos a las tablas de curva normal, observando que el valor mayor que podemos
consultar es 3,59, y que a este
valor le corresponde una probabilidad igual a 0,0002.
Como el contraste es bilateral, el nivel
crítico p es igual o inferior a:
- 0,0002 x 2 = 0,0004
El resultado supera ampliamente el nivel de confianza
fijado por el investigador.
Interpretar el
resultado en función del contexto de la investigación.
Los resultados muestran que
la proporción de opositores que aprueban es diferente entre los graduados de la
UNED y otras universidades.
Ejemplo 3.6. Según los datos que maneja el director de una academia
especializada en preparar a sus alumnos para unas determinadas oposiciones, la
proporción de aprobados entre los titulados de la UNED es 0,15 puntos superior
a la proporción de aprobados de los titulados procedentes de otras
universidades.
El director
sospecha que el presente curso dicha proporción será superior a 0,15. Para
comprobar esta hipótesis extrae una muestra aleatoria de 60 alumnos procedentes
de la UNED y otra de 100 alumnos procedentes de otras universidades. Somete a
ambas muestras a un examen con el temario de las oposiciones, que es superado
por 33 alumnos de la UNED y 30 de otras universidades. Con un nivel de
confianza del 95%, ¿podemos afirmar que los datos que maneja el director de la
academia son correctos?
Condiciones y
supuestos.
Tenemos dos muestras
independientes con una variable dependiente dicotómica, y estamos interesados
en comprobar si la diferencia entre las proporciones poblacionales es superior
a 0,15.
- La variable dependiente es dicotómica y ambas muestras superan las 30 observaciones.
Hipótesis.
Planteamos un contraste
unilateral derecho.
Estadístico de contraste y su distribución
muestral.
Con los datos del ejemplo (siendo D el valor propuesto en la hipótesis nula):
Establecer la regla de decisión en función del nivel de confianza.
Al
nivel de confianza del 95%, para un contraste unilateral derecho, el valor
crítico es igual a 1,64.
Conclusión.
Dado
que el estadístico de contraste es menor
que el valor crítico, mantenemos la hipótesis nula.
Buscando
en las tablas de curva normal la probabilidad de encontrar puntuaciones típicas
iguales o superiores a 1,27, deducimos
que el nivel crítico p es igual a: p=0,102.
Interpretación del resultado en función del contexto de la
investigación.
Con
un nivel de confianza del 95%, y a pesar de que la proporción de aprobados
entre los alumnos de la UNED supera a la de otras universidades en una
proporción igual a 0,25, no podemos afirmar, con los datos que tenemos, que en
la población esta proporción será superior a 0,15.
Tamaño del efecto.
Como ya se indicó
previamente, la magnitud o tamaño del efecto es el nombre que se da a una familia
de índices que miden el efecto que tiene un tratamiento.
Es un índice que se aplica cuando hay
implicados al menos dos grupos, uno de tratamiento y otro de control.
- Difiere de los contrastes clásicos en que es independiente del tamaño muestral.
Este tipo de índices son de
uso frecuente en el ámbito del meta-análisis aplicado a la psicología,
educación, etc.
Vamos a ver un ejemplo que
nos ayude a comprender la importancia de estudiar el tamaño del efecto.
Supongamos que un profesor elabora un material que si bien consume muchas horas de estudio, pretende ayudar a sus alumnos a mejorar el rendimiento académico. Lógicamente, nuestro profesor parte de la hipótesis de que las notas serán superiores si los alumnos utilizan el material al que nos referimos.
Para comprobar su hipótesis, el profesor utiliza dos muestras aleatorias de 900 alumnos cada una, obteniendo:
- una nota media igual a 5,5 en el grupo que ha utilizado el nuevo material (Grupo 1),
- una nota media igual a 5 en el grupo que no ha utilizado el nuevo material (Grupo 2).
Vamos a suponer que conocemos las varianzas poblacionales y que ambas valen 12,5.Plantemos un contraste unilateral derecho cuyas hipótesis son:
Siendo el valor del estadístico de contraste:
Acudiendo a la tabla de curva normal comprobamos que el nivel crítico p vale: 0,0013.
Ahora bien, el incremento de la nota, que es el tamaño del efecto, es muy pequeño, por lo que, teniendo en cuenta que el nuevo material consume muchas horas de estudio, ¿merece la pena emplear dicho material?
- Por lo tanto los resultados son significativos, superando con creces un nivel de confianza del 99%.
Si tomamos una decisión teniendo en cuenta únicamente que se han obtenido resultados significativos, concluiríamos que sí merece la pena, pero si valoramos el tamaño del efecto (un incremento de tan sólo medio punto), probablemente concluiríamos que no merece la pena utilizar el nuevo material.
Es obvio que los resultados
son significativos porque el tamaño de las muestras es muy grande, porque, por
ejemplo, con muestras
El mismo efecto (medio punto de mejora en
el rendimiento académico) no habría resultado significativo.
- Es importante, por lo tanto, desarrollar medidas que cuantifiquen cuál es el tamaño del efecto, medidas que, por otro lado, han de ser independientes del tamaño muestral.
Aunque hay una amplia
variedad de fórmulas, vamos a ilustrar el proceso básico de obtención del
efecto con el denominado índice “d”.
Básicamente este índice no es más
que la estandarización de una diferencia en dos medias:
- la del grupo al que se ha aplicado un determinado tratamiento
- la del llamado grupo control.
La fórmula del índice “d”.
Para el caso en que las
varianzas no sean homogéneas.
Hay otras fórmulas más genéricas en donde se sustituye
por el promedio
ponderado de las desviaciones típicas insesgadas de ambos grupos:
Para interpretar el
resultado de este índice, y teniendo en cuenta que es un medida estandarizada,
Cohen (1988) propuso una gradación de la magnitud del efecto en “pequeño: d =
0,2”, “mediano: d= 0,5” y “grande: d = 0,8 o superior”.
Veamos un sencillo ejemplo.
Ejemplo 3.7. Se realiza un experimento por
el que se trata de estudiar si la verbalización del proceso facilita la
realización de tareas manuales complejas.
Se seleccionan aleatoriamente 60
sujetos y se asignan 30 a cada uno de dos grupos: el experimental, en el cual
los sujetos verbalizan la tarea, y el de control, en el que los sujetos
realizan la tarea en silencio.
Como variable dependiente se registra el tiempo
en segundos que se requiere para completar la tarea.
- Para el grupo control se obtuvo una media igual a 237 y cuasidesviación típica igual a 38
- para el grupo experimental media igual a 205 y cuasidesviación típica igual a 35.
El índice d
de Cohen para cuantificar la mejora en rapidez que se produce al verbalizar la
tarea es:
0,88 es la
distancia estandarizada entre las medias de los dos grupos, y su probabilidad
asociada es 0,8106, lo que indica que el 81,06% de los sujetos del grupo
experimental tardan menos tiempo que el promedio de los sujetos que no
verbalizan.
- Sólo un 18,94% de los niños que no verbalizan tardan menos tiempo que el promedio de los que sí lo hacen.
Se observa la
situación del grupo de control respecto del experimental.
Contrastes de hipótesis para dos
medias en muestras independientes. Tablas.
Comentarios
Publicar un comentario