The Elements, Tom Lehrer 1967

The Elements

Tom Lehrer
1967

There's antimony, arsenic, aluminum, selenium
And hydrogen and oxygen and nitrogen and rhenium
And nickel, neodymium, neptunium, germanium
And iron, americium, ruthenium, uranium
Europium, zirconium, lutetium, vanadium
And lanthanum and osmium and astatine and radium
And gold and protactinium and indium and gallium
And iodine and thorium and thulium and thallium

There's yttrium, ytterbium, actinium, rubidium
And boron, gadolinium, niobium, iridium
And strontium and silicon and silver and samarium
And bismuth, bromine, lithium, beryllium, and barium

Isn't that interesting? I knew you would. I hope you're alltaking
notes, because there's going to be a short quiz next period.

There's holmium and helium and hafnium and erbium
And phosphorus and francium and fluorine and terbium
And manganese and mercury, molybdenum, magnesium
Dysprosium and scandium and cerium and cesium
And lead, praseodymium, and platinum, plutonium
Palladium, promethium, potassium, polonium
And tantalum, technetium, titanium, tellurium
And cadmium and calcium and chromium and curium

There's sulfur, californium, and fermium, berkelium
And also mendelevium, einsteinium, nobelium
And argon, krypton, neon, radon, xenon, zinc, and rhodium
And chlorine, carbon, cobalt, copper, tungsten, tin, and sodium

These are the only ones of which
The news has come to Ha'vard
And there may be many others
But they haven't been discavard

Para los que aún piensan que hay cuatro o cinco elementos.


Y esto que sigue es para que conste que peor no se puede hacer para que todos tengan alcance cultural:
http://www.congreso.es/public_oficiales/L10/CONG/BOCG/A/BOCG-10-A-81-5.PDF
Y los NAUKAS hablan
http://naukas.com/2013/03/20/como-saquear-el-erario-publico-con-3-normas-nacionales-en-4-pasos-y-con-la-excusa-de-las-publicaciones-cientificas/
Alternativas:
http://alt1040.com/2014/07/medios-aede-alternativas
Un cuento
Los cognitivos
En fin, que no se cuando duraremos por aquí, y por lo que pueda pasar seguimos trabajando pues estas piedras no pueden interrumpir el río del conocimiento. Acaban de decir en un programa televisivo que los españoles en estos momentos que nos toca vivir, si el pato donald se pone de candidato le votarían con tal de quitarse de encima al Rajoy. Me he sentido tan sumamente humillada por creer que somo estúpidos y nos manejan como quieren. Palabras de un periodista,  escritor, tertuliano de televisión .... o eso se creerá él y claro algún papel "oficial" dirá que si es periodista. Y mientras tanto en la millor terreta del mon, una mala burócrata tiene cogidos por los genitales a todos los implicados en un pleno consistorial. Por ello y como no tengo otro sitio donde decirlo: que no, que no, que hay gente que sabe lo que quiere de verdad, hay gente que no le gustan los coches caros, que no les gustan los diamantes, que no tienen afán por comprarse el último móvil y la última appel, que resulta que no hacen pasastiempos ni sudokus, ni se van al bingo, ni siquiera se toman anisetes o derivados legales o no....Son personas que aprenden constantemente fórmulas matemáticas nuevas en cada una de sus diferentes representaciones. Sin parar, constantes, con un objetivo a muy a largo plazo. Algo muy tenaz, muy sutil, muy eficaz, muy eficiente. Muy divertido, carismático, musical, teniendo consciencia de los sentidos y los cognitivos.

ANÁLISIS DE DATOS PARA DISEÑOS DE DOS GRUPOS. MUESTRAS INDEPENDIENTES.

En investigaciones lo más habitual es que se utilicen  más de una muestra. Una de control y otra experimental.

Veamos un ejemplo típico en el que utilizamos un diseño de una muestra.

Un profesor opina que aplicando un nuevo método de enseñanza, podría lograr que sus estudiantes comprendieran mejor su asignatura, lo que se traduciría en un incremento de la nota media a final del curso. Sabe que la nota media y la varianza de las calificaciones de años anteriores son:

Considera que estos son los datos de la población.

Aplica el nuevo método de enseñanza a una muestra de 36 sujetos obteniendo una nota media: 
Se pregunta si los datos de la muestra son compatibles con los datos de cursos pasados.
Realiza un contraste de hipótesis y como el estadístico de contraste es significativo 

     Concluye que el nuevo método de enseñanza es más eficaz que el tradicional.
Ahora bien, en los resultados que ha encontrado el profesor pueden influir otros factores.
  • Por ejemplo, si ha sido él quien aplicó el nuevo método de enseñanza,
  • es posible que haya trabajado con más entusiasmo que en cursos anteriores,
  • bien los alumnos del último curso accedieron a su asignatura mejor preparados,
  • quizás los estudiantes han tenido menos trabajo en otras asignaturas y han podido dedicar más tiempo a la suya.
Si hubiese formado dos grupos las conclusiones serían más claras al estar menos sujetas a explicaciones rivales. 
  1. Para uno de ellos el método de enseñanza sería el tradicional (grupo de control),
  2. mientras que el otro grupo (experimental) estaría formado por los sujetos que aprendieron la asignatura con el nuevo método.
  3. Finalmente, nuestro profesor realizaría un contraste de hipótesis para comprobar si existen diferencias entre el grupo experimental y el grupo de control.

También es muy común en psicología el diseño de dos muestras cuando queremos comprobar la eficacia de un tratamiento. En este caso medimos la variable dependiente (por ejemplo, ansiedad) antes y después del tratamiento y comparamos ambas medias para comprobar si la terapia ha sido eficaz.

En otras ocasiones el mismo problema que queremos investigar nos obliga a utilizar dos muestras, porque queremos estudiar diferencias entre dos poblaciones diferentes, como puede ser entre hombres y mujeres, entre ambiente rural y urbano, entre dos clases sociales, etc.

Al trabajar con dos muestras utilizaremos subíndices para distinguir el tamaño muestral, la media y varianza de cada una de ellas.

También, para facilitar la legibilidad de las fórmulas y distinguir:
Entre varianza:
Cuasivarianza  representada mediante un acento circunflejo 
Muestras independientes o relacionadas.

En todas las técnicas estadísticas que vemos suponemos que las observaciones dentro de una muestra son independientes, es decir, que no existe relación entre ellas
Por lo tanto, dentro de un grupo el valor de una determinada puntuación no nos informa en absoluto del valor de otras puntuaciones dentro del mismo grupo. 
Veamos un par de ejemplos. 
Un psicobiólogo dispone de 10 ratas para realizar un experimento. Quiere formar dos grupos, que tras ser sometidos a diferentes niveles de estrés correrán el mismo laberinto. Todas las ratas están en la misma jaula.
  • Las 5 primeras que coge forman el primer grupo y las 5 restantes el segundo. 
Probablemente la primera rata que atrapa el investigador es la más “despistada”, la siguiente es un poco menos despistada y así sucesivamente, de forma que el primer grupo está formado por las ratas más torpes, e independientemente del tratamiento la media del primer grupo es superior (tardan más en correr el laberinto). En este caso las puntuaciones dentro de cada grupo están relacionadas y sabiendo en qué orden fue capturada una rata puedo predecir su nivel de “torpeza”. 
Otro ejemplo
Me voy 20 días a Río de Janeiro de vacaciones en la mejor época posible, y el tiempo empeora progresivamente. Calculo la temperatura media de esos días y concluyo que la temperatura en Río es muy fría. Los resultados son significativos. Pero si he tenido la mala suerte de que mi viaje coincida con que la peor borrasca del siglo haya comenzado justo al aterrizar en Río, quizás observe que la temperatura ha descendido día tras día, de forma que conociendo la temperatura de un día cualquiera de mis vacaciones, puedo predecir que la del día siguiente será inferior. La conclusión a la que he llegado es errónea porque los datos que he tomado no son independientes. Si bien existen contrastes de hipótesis para comprobar la independencia de las observaciones, para garantizar la independencia de los datos dentro de un grupo, lo mejor que puede hacerse es seleccionar los elementos de la muestra de forma aleatoria.

Cuando trabajamos con dos muestras (o más de dos), las muestras pueden ser independientes o relacionadas.
  1. Son muestras independientes cuando no existe relación entre los sujetos de una y otra, lo que podremos garantizar si los sujetos son asignados aleatoriamente a cada una de las muestras.
  2. Tenemos muestras relacionadas cuando cada observación en una muestra tiene su pareja en la otra. 
  • El caso más evidente es cuando son los mismos sujetos los que pasan por diferentes condiciones experimentales. 
Si queremos probar la eficacia de una terapia contra la ansiedad, podemos seleccionar a un grupo de sujetos en los que medimos su nivel de ansiedad antes del experimento; aplicamos la terapia, y volvemos a medirlo después de la terapia para comparar las medias en ansiedad antes y después.

  • En otras ocasiones no son los mismos sujetos los que se repiten en las muestras, pero hay una relación sujeto a sujeto en ambas. 

Por ejemplo:
Si disponemos de 10 parejas de hermanos gemelos, podemos formar dos grupos de 5 personas donde cada dos hermanos son asignados, aleatoriamente, a grupos distintos.
  • También podemos contar con padres e hijos, maridos y mujeres, etc. 
Por último, también podemos utilizar pares de sujetos que están equiparados en variables que pueden influir en el diseño de la investigación

Por ejemplo:
Supongamos que para probar la eficacia de dos métodos de enseñanza, queremos controlar la influencia del cociente intelectual, por lo que tomamos pares de sujetos con un CI semejante formando cada uno de ellos parte de muestras diferentes.
Contrastes de hipótesis sobre dos medias en muestras independientes.
Varianzas poblacionales conocidas, pero si no es así, que es lo más habitual, podemos suponer que son iguales o diferentes. Utilizaremos un ejemplo para ilustrar el procedimiento estadístico en cada uno de los casos cambiaremos a lo largo de los ejemplos la hipótesis alternativa que, puede ser bilateral, unilateral derecha o unilateral izquierda.
En todo contraste de hipótesis el proceso de inferencia estadística se realiza sobre una distribución teórica que denominamos distribución muestral.

Distribución muestral de la diferencia de medias para dos muestras independientes
Supongamos que tenemos dos poblaciones, y que cada una de ellas, para que el  ejemplo sea lo más corto posible, contiene 3 observaciones. 
  • Denotaremos las puntuaciones mediante la letra latina Y.

Presentamos las puntuaciones, media y varianza de dichas poblaciones:

Población 1: 
Población 2:

Donde el primer subíndice hace referencia a la población a la que pertenecen y el segundo al orden que cada puntuación ocupa en su población. 
Cálculo de la media aritmética de todas las sub-muestras de tamaño “n = 2” con reposición para la Población 1, y que formarán la distribución muestral de la media para dicha población en muestras de tamaño “n = 2”.


La distribución muestral de la media para la Población 1, está compuesta por los 9 valores de la Tabla que ordenados son:



Estos valores también podríamos calcularlos en función de la media y varianza de la población.


Repitiendo el proceso seguido para la Población 1, obtenemos la distribución muestral para la Población 2, formada por los valores: 
La distribución muestral de las diferencias:

La compondremos al emparejar todas las muestras de la Población 1 con todas las muestras de la Población 2. 
En la Tabla siguiente están reflejadas todas las opciones posibles.


Con los valores de la Tabla, podemos comprobar que la media y varianza de los datos que contiene son igual a:

Otra forma de obtener la varianza de la distribución muestral es:


En los contrastes que veremos a continuación vamos a suponer que las poblaciones de las que proceden las muestras que utilizaremos se distribuyen normalmente, o bien que:
Esto nos garantiza que las distribuciones muestrales de la media en ambos casos también se distribuyen normalmente: 
  • también se distribuirá normalmente la distribución muestral de las diferencias entre medias 

La diferencia  en el ejemplo anterior es igual a cero:

Que es lo que generalmente postulará la hipótesis nula.

Varianzas poblacionales conocidas.

Ejemplo 3.1. Un psicólogo escolar utiliza un test de comprensión verbal recientemente traducido del inglés, que proporciona puntuaciones en un nivel de medida de intervalo. Se sabe, por investigaciones anteriores, que las varianzas en la población son para niños y niñas respectivamente.
Las investigaciones anteriores también indican que la media es la misma en ambos grupos, pero este último aspecto no ha sido comprobado con muestras españolas.

El psicólogo considera que la traducción del test no es muy acertada y puede provocar diferencias que en realidad no se deben a la comprensión verbal, por lo que selecciona aleatoriamente una muestra de 100 niños y otra muestra de 200 niñas obteniendo una media igual a 20 para los niños e igual a 17,5 para las niñas. Con un nivel de confianza del 95%. ¿Podemos afirmar que la puntuación media en el test de comprensión verbal es la misma para niños y niñas?
Condiciones y supuestos.
Tenemos un diseño de dos muestras independientes (niños y niñas), seleccionadas de dos poblaciones con varianzas conocidas (el psicólogo asume que las varianzas de las poblaciones de niños y niñas son las que reflejan las investigaciones anteriores), donde la  variable dependiente (comprensión verbal) proporciona puntuaciones en una escala de intervalo.
Aunque no sabemos si las poblaciones se distribuyen normalmente, trabajamos con muestras que son lo suficientemente grandes 
Se cumplen los siguientes supuestos:
  • Variable dependiente con un nivel de medida de intervalo o razón.
  • Dos poblaciones que se distribuyen normalmente, o bien, n1 ≥ 30 y n2 ≥ 30.
  • Varianzas poblacionales conocidas.
Formular las hipótesis.

En este caso el psicólogo piensa que pueden existir diferencias pero no tiene una hipótesis previa sobre la dirección de las mismas, por lo que planteamos un contraste de hipótesis bilateral:
Estadístico de contraste y su distribución muestral.

Conocemos las varianzas de las dos poblaciones y trabajamos con muestras grandes, lo que nos permite asumir la normalidad de la distribución muestral de las diferencias entre medias. Siendo el grupo 1 el de niños y el 2 el de niñas, el estadístico de contraste es igual a:
Observamos que la fórmula del estadístico de contraste cuantifica la discrepancia entre la diferencia de medias observada entre las dos muestras frente a una diferencia nula planteada en la hipótesis nula medida en unidades de desviación típica. 


Por tanto, en el numerador tenemos la diferencia entre el valor del estadístico en la muestra:

Respecto del valor del parámetro que postula la hipótesis nula 

Habitualmente la hipótesis nula, como en este caso, especificará que no existe diferencia entre las medias poblacionales, por lo que el término 


Es igual a cero. 
Por este motivo, generalmente calcularemos el estadístico de contraste mediante la siguiente ecuación:
Podemos calcular el nivel crítico p en la tabla de curva normal, que como sabemos es la probabilidad de obtener un valor como el observado o más extremo, suponiendo que la hipótesis nula es cierta.
Primero buscamos la probabilidad de encontrar valores superiores a 3,21:
Y como el contraste es bilateral multiplicamos por dos el valor obtenido:
Establecer la regla de decisión en función del nivel de confianza.
El nivel de significación es del 5% y el contraste es bilateral, por lo que los valores críticos que delimitan cuándo mantenemos y cuándo rechazamos la hipótesis nula son las puntuaciones típicas:


En el Figura siguiente se representa los datos del problema.
Conclusión.

El estadístico de contraste (Z = 3,21) no pertenece a la zona de valores compatibles con la hipótesis nula que definen las puntuaciones:

Por lo que rechazamos la hipótesis nula
  • El estadístico de contraste (la discrepancia observada) supera la diferencia que cabría esperar por simple azar. En general, en un contraste bilateral:

Mantendremos la hipótesis nula 
cuando el estadístico de contraste no alcance el valor crítico: 

Rechazaremos la hipótesis nula cuando: 
cuando el estadístico de contraste alcance el valor crítico
Si utilizamos el nivel crítico p para concluir qué decisión tomar con respecto a  la hipótesis nula, llegamos a la misma conclusión, puesto que:
El comparar el nivel crítico con el nivel de significación nos proporciona más información que la comparación del estadístico de contraste con el valor crítico, puesto que vemos claramente que es muy improbable que, siendo la hipótesis nula verdadera, obtengamos dos muestras cuyas medias tengan una diferencia como la observada.

El resultado sería significativo incluso a un nivel de confianza superior al 99%.

Interpretar el resultado en función del contexto de la investigación.
Las sospechas del psicólogo parecen fundadas. Las diferencias entre niños y niñas en fluidez verbal son significativas, y pueden deberse a la deficiente traducción del test.
Intervalo de confianza.

Si estuviéramos interesados en calcular el intervalo de confianza, lo haríamos mediante la expresión:

Que en nuestro caso queda:
Es decir, con un nivel de confianza del 95% la diferencia entre la media de los niños y la media de las niñas en el test de fluidez verbal oscila entre 0,98 y 4,02 puntos a favor de los primeros.

  • Como el contraste de hipótesis planteado es bilateral, también podemos decidir si mantenemos o rechazamos la hipótesis nula examinando los límites del intervalo de confianza.
Efectivamente dicho intervalo de confianza no contiene el valor cero, por lo que rechazamos hipótesis nula:



Varianzas poblacionales desconocidas pero supuestas iguales.

Ejemplo 3.2. En un estudio sobre depresión en personas mayores llevado a cabo en un centro geriátrico, se quiere comprobar si las personas ingresadas que no reciben visitas de sus familiares tienen una puntuación media en depresión superior a aquellas personas cuyos familiares les visitan con frecuencia. Para comprobar esta hipótesis, se seleccionaron aleatoriamente 41 personas que no reciben visitas obteniéndose una puntuación media de 20 puntos con una cuasivarianza igual a 100, mientras que en una muestra aleatoria de 31 personas que si reciben visitas con frecuencia la media fue igual a 15 con una cuasivarianza igual a 90. Suponiendo que las varianzas en la población son iguales para ambos grupos, y con un nivel de confianza del 99% ¿podemos decir que los datos obtenidos avalan la hipótesis de partida?
Condiciones y supuestos.
Los requisitos en este caso son iguales que en el caso anterior, excepto que no conocemos las varianzas poblacionales, si bien las suponemos iguales.
Comprobamos pues que se cumplen los siguientes puntos:
  • Variable dependiente con un nivel de medida de intervalo o razón. Suponemos que el test de depresión proporciona medidas en una escala de intervalo.
  • No sabemos si la distribución en la población es normal, pero salvamos este obstáculo utilizando dos muestras con 30 ó más observaciones en cada una de ellas.
  • Varianzas poblacionales desconocidas y supuestas iguales. Veremos  cómo contrastar diferencias entre dos varianzas. En cualquier caso, la diferencia entre las varianzas de las muestras es pequeña.

Formular las hipótesis.

Partimos de la idea de que la depresión media es superior en las personas que no reciben visitas de sus familiares (Grupo 1) respecto de las personas que reciben con frecuencia visitas de sus familiares (Grupo 2), por lo que realizamos un contraste unilateral derecho
Las hipótesis en este caso han de ser:
Estadístico de contraste y su distribución muestral.
El estadístico de contraste en este caso se distribuye según t de Student con grados de libertad.

grados de libertad, no conocemos las varianza poblacionales y adopta la siguiente expresión:
El término:

habitualmente es igual a cero, por lo que calcularemos el estadístico de contraste, mediante la siguiente ecuación.
Con los datos del ejemplo tendremos:


Siendo el estadístico de contraste igual a:

Establecer la regla de decisión en función del nivel de confianza.

Buscamos en las tablas de t de Student el valor crítico, que en este caso es igual a la puntuación que supera al 99% de la distribución para 70 grados de libertad:
La gráfica queda de la siguiente forma:
El nivel crítico p es igual a p = 0,0175. No podemos calcularlo exactamente en las tablas del apéndice, pero podemos utilizarlas para hallar un valor aproximado.

Observamos en la tabla t de Student, que para 70 grados de libertad nuestro estadístico de contraste se encuentra entre las puntuaciones 1,994 y 2,381 (1,994 < 2,15 < 2,381) que dejan por encima de si respectivamente las proporciones: 
  • 0,025 y 0,01, luego el nivel crítico p se encontrará entre estos dos valores (0,01 < p < 0,025).

Conclusión.
Como podemos apreciar en el Figura 3.2, el valor del estadístico de contraste no supera al valor crítico (2,15<2,381) por lo que la diferencia encontrada no es significativa con un nivel de confianza del 99%.
En general, en un contraste unilateral derecho

Mantendremos la hipótesis nula cuando el estadístico de contraste no supere el valor crítico

Rechazaremos la hipótesis nula cuando el estadístico de contraste supera el valor crítico
Si comparamos el nivel crítico p con el nivel de significación , llegamos a la misma conclusión (0,0175 > 0,01).


Si comparamos el nivel crítico p con el nivel de significación, llegamos a la misma conclusión (0,0175 > 0,01).

Si comparamos el nivel crítico p con el nivel de significación, llegamos a la misma conclusión (0,0175 > 0,01).
Interpretar el resultado en función del contexto de la investigación.

Al nivel de confianza del 99% los resultados no indican que la puntuación media en depresión es mayor en el grupo de sujetos que no reciben visitas respecto de los que sí las reciben. 
Pero los resultados sí son significativos al nivel de confianza del 95%, como apreciamos al comparar el nivel de significación con el nivel crítico.
  • 0,05>0,01


Deberíamos buscar alternativas para que  esta tendencia depresiva se redujera para que se puedan profundizar sobre aprendizajes.
Intervalo de confianza
Que en nuestro caso queda:
En el caso en el que los grados de libertad sean superiores a g.l. = 100, no podemos consultar en las tablas que manejamos los valores de la distribución T de Student. 
  • Pero dado que a medida que aumentan los grados de libertad la distribución T se parece cada vez más a la normal tipificada, para g.l. > 100 podemos utilizar la tabla de curva normal, dado que la diferencia entre los valores T y Z es muy pequeña.

Varianzas poblacionales desconocidas y supuestas distintas.
Ejemplo 3.3. Un laboratorio desarrolla un fármaco con el que se pretende reducir la ansiedad. Para comprobarlo, se extrajeron dos muestras aleatorias de cinco observaciones cada una que suponemos procedentes de poblaciones que se distribuyen normalmente con distinta varianza.
 A los sujetos de la primera muestra se les administró el fármaco y los de la segunda una sustancia placebo.
Posteriormente se les midió la ansiedad a todos los sujetos mediante un test en el que cuanto más elevada es la puntuación mayor es la ansiedad.

Los resultados de ambas muestras fueron:
  • Grupo 1 (con fármaco): 10; 20; 30; 20; 5
  • Grupo 2 (sin fármaco): 30; 50; 30; 60; 20


Con un nivel de confianza del 95%, ¿podemos afirmar que el fármaco efectivamente reduce la ansiedad?
Condiciones y supuestos.
Al igual que en los ejemplos anteriores, necesitamos que la variable dependiente esté medida a nivel de intervalo. 
En cuanto a las poblaciones de las que proceden las varianzas, necesitamos suponerlas normalmente distribuidas porque el tamaño de las muestras es pequeño.


En este caso no conocemos las varianzas poblacionales, aunque ahora las suponemos distintas.
Formular las hipótesis.

De acuerdo con la hipótesis del laboratorio esperamos que la puntuación media sea inferior en el Grupo 1, por lo que hemos de plantear un contraste de hipótesis unilateral izquierdo.
Estadístico de contraste y su distribución muestral.

El estadístico de contraste lo calculamos mediante la Ecuación:
Hemos omitido el término 

Porque en este caso, como es habitual, es igual a cero, por lo que omitiremos este término en contrastes posteriores.
El estadístico de contraste sigue una distribución muestral cuyos grados de libertad calculamos mediante la ecuación:
Tenemos que calcular las medias y varianzas insesgadas de ambas muestras ya que no nos son proporcionadas directamente en el enunciado del ejercicio.
Primero calculamos las varianzas de ambos grupos:
Las cuasivarianzas o varianzas insesgadas, serán:
Calculamos el estadístico de contraste:
Calculamos  los grados de libertad:


Establecer la regla de decisión en función del nivel de confianza.

Buscamos en las tablas t de Student el valor que supera a una proporción igual a 0,05 para 6 grados de libertad, obteniendo un valor igual a:
Representamos los datos del ejemplo.
Conclusión.
El valor del estadístico de contraste es una puntuación más extrema que el valor crítico que hemos buscado en la tabla t de Student  -2,46 < -1,943, por lo que rechazamos la hipótesis nula.
Con la misma lógica que en todos los contrastes, en general en un contraste unilateral izquierdo


Mantendremos la hipótesis nula cuando se cumpla que:


Rechazaremos la hipótesis nula si:
En cuanto al nivel crítico p, en la tabla t de Student, para 6 grados de libertad, tenemos que:
  • -3,113< -2,46 < -2,447 

Por lo que deducimos que el nivel crítico p estará comprendido entre las probabilidades de encontrar valores iguales o inferiores a estas dos puntuaciones, es decir:

  • (0,01< p < 0.025)

Interpretar el resultado en función del contexto de la investigación.

Con un nivel de confianza del 95% la diferencia de medias es significativa, por lo que concluimos que el fármaco reduce la ansiedad.


Consideraciones sobre los contrastes de hipótesis en dos muestras independientes.
En el primer contraste de hipótesis incluíamos en los supuestos que las varianzas poblacionales son conocidas, lo que difícilmente podremos asumir en un caso práctico.
  • Si no conocemos las medias de las poblaciones con las que trabajamos, difícilmente podremos considerar que sí conocemos sus varianzas.

Lo más habitual, por lo tanto, será asumir que las varianzas poblacionales son desconocidas, y en este caso el contraste más utilizado es la prueba T, en el que suponemos varianzas poblacionales iguales.

Este supuesto, al que denominaremos homocedasticidad, es muy común en otras técnicas estadísticas, como veremos en los temas en que compararemos las medias de más de dos grupos (Análisis de la Varianza) o en el Análisis de Regresión.
  • La cuestión estriba en que podamos asumir la normalidad de la distribución muestral de las diferencias, lo que podremos garantizar si las muestras que utilizamos son grandes.

Si la distribución muestral es normal y los tamaños de ambas muestras son iguales, podemos despreocuparnos de las varianzas poblacionales y suponer sin más que son iguales, sin que por ello peligre la validez del contraste de hipótesis que estamos realizando.
Ahora bien, habrá casos en los que la opción más acertada será suponer varianzas poblacionales distintas, y por lo tanto tendremos que utilizar el estadístico de contraste.

En la literatura científica sobre este tema se proponen diferentes procedimientos para ajustar los grados de libertad de la distribución muestral. 

El procedimiento de Welch nos ofrece un valor inferior para los grados de libertad en relación a si tomamos:

el contraste por lo tanto es más conservador, siendo más difícil rechazar la hipótesis nula.
Muchos investigadores sugieren que ha de realizarse previamente un contraste de hipótesis sobre la igualdad las varianzas, de manera que si aceptamos la hipótesis nula 

Contraste de hipótesis sobre dos varianzas en muestras independientes.

Ejemplo 3.4. Según Eysenck (1981), hombres y mujeres tienen la misma puntuación media en cociente intelectual (CI), pero distinta varianza, siendo esta superior para los hombres. Para comprobar la hipótesis de Eysenck, seleccionamos aleatoriamente una muestra de 41 hombres y otra de 31 mujeres. Tras aplicar un test de inteligencia en ambas muestras, observamos que la cuasivarianza en el grupo de hombres es igual a 289, mientras que en el de mujeres vale 225. Con un nivel de confianza del 99% ¿avalan estos datos la hipótesis de Eysenck?

Condiciones y supuestos.
Asumimos que las puntuaciones que nos proporcionan los tests de inteligencia miden este constructo en una escala de intervalo, y que la variable medida se distribuye normalmente tanto en la población de hombres como en la de mujeres. 
En general, los supuestos necesarios son:
  • Variable dependiente con un nivel de medida de intervalo o razón.
  • Dos poblaciones con variables normalmente distribuidas, o bien.


Formular las hipótesis.
Plantearemos un contraste unilateral derecho, en el que la hipótesis alternativa corresponderá a la sugerida por Eysenck, e indicará que la variabilidad en inteligencia es superior en el grupo de hombres.
Estadísticamente planteamos las hipótesis de la siguiente forma:

Elección del estadístico de contraste y su distribución muestral.
El estadístico de contraste, sigue una distribución muestral “F” de Fisher, y es calculado según:

Los grados de libertad del numerador y denominador son, respectivamente:

El cálculo del nivel crítico p mediante las tablas de las que disponemos, generalmente no podrá ser muy aproximado.
Observamos en dichas tablas que el primer valor que nos ofrecen para 40 y 30 grados de libertad es igual a 1,573, al que supera una proporción igual a 0,10, luego con las tablas, tan sólo podemos saber que el nivel crítico p es mayor que 0,10 (p > 0,10). Con un programa informático adecuado concluiríamos que el valor exacto de p es 0,2432.

Establecer la regla de decisión en función del nivel de confianza.
A un nivel de confianza del 99% para 40 y 30 grados de libertad, el valor crítico es igual a 2,299. 

Conclusión.
A la vista de los resultados mantenemos la hipótesis nula a un nivel de confianza del 99%, puesto que el valor del estadístico de contraste es inferior al valor crítico, que en una  distribución F de Fisher con 40 y 30 grados de libertad deja por encima a una proporción igual a 0,01. Deducimos del valor del nivel crítico p, que los resultados obtenidos están lejos de ser significativos para cualquier nivel de confianza razonable. Concluimos por lo tanto que la varianza de hombres y mujeres en inteligencia es la misma.
Interpretar el resultado en función del contexto de la investigación.
Eysenck (1981) afirmaba que el hecho de que los hombres mostrasen mayor variabilidad en inteligencia, implica que hay más hombres que mujeres con CI muy altos y con CI muy bajos. Literalmente afirmaba “Esto está de acuerdo con la observación común de que la mayoría de los genios en ciencias, en artes o en otras ocupaciones, así como con defectos mentales, son hombres”. Los datos que manejamos no avalan la hipótesis de Eysenck al no mostrar diferencias significativas en cuanto a la variabilidad en la inteligencia de ambos grupos.
Propiedad recíproca de la distribución F.
Aunque en este contraste no ha sido necesario utilizarla, recordamos la propiedad recíproca de la distribución F que vimos en la asignatura Introducción al Análisis de Datos, y que nos sirve para calcular probabilidades que no aparecen en la tabla:

Contrastes de hipótesis sobre dos proporciones en muestras independientes.
Tenemos ahora una variable dependiente dicotómica o dicotomizada, en la que podemos distinguir entre dos sucesos que denominamos “éxito” y “fracaso”, y nos preguntamos si la proporción de éxitos difiere o no en dos poblaciones distintas.
  • Este es un caso muy común en Psicología, donde con frecuencia trabajamos directamente con datos dicotómicos.

Por ejemplo: hombre y mujer, acierto o fracaso en una determinada tarea, posición a favor o en contra, recuperación o no de una enfermedad tras aplicar una determinada terapia, etc. 
Otras veces dicotomizamos una variable que originalmente es continua, como aprobados y suspensos, admitidos y no admitidos en función de las puntuaciones en un test, etc.
Una de las ventajas de trabajar con datos dicotómicos reside en que los supuestos en los que nos basamos no son tan fuertes como en el caso de variables continuas.
Tan sólo necesitamos que los tamaños de las muestras sean razonables y  para poder asumir que la distribución muestral de las diferencias de proporciones es normal.
El estadístico de contraste que aplicaremos en este apartado dependerá de cómo planteemos las hipótesis estadísticas.
  1. En primer lugar veremos cómo proceder cuando queramos comprobar si la diferencia entre dos proporciones es igual, mayor o menor que cero.
  2. Posteriormente trataremos el caso en el que estemos interesados en probar si la diferencia de proporciones es igual, mayor o menor que un determinado valor distinto de cero.

Ejemplo 3.5. En unas determinadas oposiciones se presentaron 200 graduados por la UNED, de los que aprobaron 70, mientras que de 300 candidatos de otras universidades aprobaron 60. Con un nivel de confianza del 95%, ¿podemos afirmar que la proporción de aprobados es la misma entre los graduados de la UNED y los de otras universidades?

Condiciones y supuestos.
Tenemos una variable dicotómica y dos muestras grandes que proceden de poblaciones independientes.
En general, los supuestos necesarios son:
- Observaciones aleatorias e independientes.
- Variable dependiente dicotómica o dicotomizada.
- Muestras grandes. 
 
Formular las hipótesis.
Queremos comprobar si la proporción de aprobados es igual o diferente en dos poblaciones distintas, es decir, como no tenemos ninguna hipótesis de partida, planteamos un contraste bilateral.

Estadístico de contraste y su distribución muestral.
Al plantear la hipótesis nula la igualdad de proporciones, el estadístico de contraste que debemos utilizar es:


Bajo el supuesto de que la hipótesis nula es verdadera y las dos proporciones poblacionales son iguales, la proporción P es la proporción ponderada de éxitos obtenidos en las dos muestras (véase la Ecuación 3.9), como mejor estimador de la proporción poblacional.


Calculamos en primer lugar las proporciones muestrales y el término P:

La proporción P, no es más que la proporción total de éxitos, que también podemos calcular como:
El estadístico de contraste es igual a:


Establecer la regla de decisión en función del nivel de confianza.

Para un nivel de confianza del 95% y un contraste bilateral, los valores críticos son:



Conclusión.
A un nivel de confianza del 95% rechazamos la hipótesis nula
El estadístico de contraste 3,75 cae fuera del intervalo que definen los valores críticos -1,96; +1,96. 

En cuanto al nivel crítico p, acudimos a las tablas de curva normal, observando que el valor mayor que podemos consultar es 3,59, y que a este valor le corresponde una probabilidad igual a 0,0002. 
Como el contraste es bilateral, el nivel crítico p es igual o inferior a:
  • 0,0002 x 2 = 0,0004


El resultado supera ampliamente el nivel de confianza fijado por el investigador.


Interpretar el resultado en función del contexto de la investigación.

Los resultados muestran que la proporción de opositores que aprueban es diferente entre los graduados de la UNED y otras universidades.






Ejemplo 3.6. Según los datos que maneja el director de una academia especializada en preparar a sus alumnos para unas determinadas oposiciones, la proporción de aprobados entre los titulados de la UNED es 0,15 puntos superior a la proporción de aprobados de los titulados procedentes de otras universidades.

El director sospecha que el presente curso dicha proporción será superior a 0,15. Para comprobar esta hipótesis extrae una muestra aleatoria de 60 alumnos procedentes de la UNED y otra de 100 alumnos procedentes de otras universidades. Somete a ambas muestras a un examen con el temario de las oposiciones, que es superado por 33 alumnos de la UNED y 30 de otras universidades. Con un nivel de confianza del 95%, ¿podemos afirmar que los datos que maneja el director de la academia son correctos?




Condiciones y supuestos.
Tenemos dos muestras independientes con una variable dependiente dicotómica, y estamos interesados en comprobar si la diferencia entre las proporciones poblacionales es superior a 0,15. 
  • La variable dependiente es dicotómica y ambas muestras superan las 30 observaciones.

Hipótesis.

Planteamos un contraste unilateral derecho.
Estadístico de contraste y su distribución muestral.


Con los datos del ejemplo (siendo D el valor propuesto en la hipótesis nula):


Establecer la regla de decisión en función del nivel de confianza.
Al nivel de confianza del 95%, para un contraste unilateral derecho, el valor crítico es igual a 1,64.
Conclusión.
Dado que el estadístico de contraste es menor que el valor crítico, mantenemos la hipótesis nula.
Buscando en las tablas de curva normal la probabilidad de encontrar puntuaciones típicas iguales o  superiores a 1,27, deducimos que el nivel crítico p es igual a: p=0,102.

Interpretación del resultado en función del contexto de la investigación.
Con un nivel de confianza del 95%, y a pesar de que la proporción de aprobados entre los alumnos de la UNED supera a la de otras universidades en una proporción igual a 0,25, no podemos afirmar, con los datos que tenemos, que en la población esta proporción será superior a 0,15.       
Tamaño del efecto.
Como ya se indicó previamente, la magnitud o tamaño del efecto es el nombre que se da a una familia de índices que miden el efecto que tiene un tratamiento. 
Es un índice que se aplica cuando hay implicados al menos dos grupos, uno de tratamiento y otro de control.
  • Difiere de los contrastes clásicos en que es independiente del tamaño muestral.

Este tipo de índices son de uso frecuente en el ámbito del meta-análisis aplicado a la psicología, educación, etc.
Vamos a ver un ejemplo que nos ayude a comprender la importancia de estudiar el tamaño del efecto.
Supongamos que un profesor elabora un material que si bien consume muchas horas de estudio, pretende ayudar a sus alumnos a mejorar el rendimiento académico. Lógicamente, nuestro profesor parte de la hipótesis de que las notas serán superiores si los alumnos utilizan el material al que nos referimos.
Para comprobar su hipótesis, el profesor utiliza dos muestras aleatorias de 900 alumnos cada una, obteniendo:
  • una nota media igual a 5,5 en el grupo que ha utilizado el nuevo material (Grupo 1),
  • una nota media igual a 5 en el grupo que no ha utilizado el nuevo material (Grupo 2).
Vamos a suponer que conocemos las varianzas poblacionales y  que ambas valen 12,5.
 Plantemos un contraste unilateral derecho cuyas hipótesis son:

Siendo el valor del estadístico de contraste:
Acudiendo a la tabla de curva normal comprobamos que el nivel crítico p vale: 0,0013.
  • Por lo tanto los resultados son significativos, superando con creces un nivel de confianza del 99%. 
Ahora bien, el incremento de la nota, que es el tamaño del efecto,  es muy pequeño, por lo que, teniendo en cuenta que el nuevo material consume muchas horas de estudio, ¿merece la pena emplear dicho material?

Si tomamos una decisión teniendo en cuenta únicamente que se han obtenido resultados significativos, concluiríamos que sí merece la pena, pero si valoramos el tamaño del efecto (un incremento de tan sólo medio punto), probablemente concluiríamos que no merece la pena utilizar el nuevo material.
Es obvio que los resultados son significativos porque el tamaño de las muestras es muy grande, porque, por ejemplo, con muestras   


El mismo efecto (medio punto de mejora en el rendimiento académico) no habría resultado significativo.
  • Es importante, por lo tanto, desarrollar medidas que cuantifiquen cuál es el tamaño del efecto, medidas que, por otro lado, han de ser independientes del tamaño muestral.


Aunque hay una amplia variedad de fórmulas, vamos a ilustrar el proceso básico de obtención del efecto con el denominado índice “d”
Básicamente este índice no es más que la estandarización de una diferencia en dos medias:
  1. la del grupo al que se ha aplicado un determinado tratamiento
  2. la del llamado grupo control. 

La fórmula del índice  “d”.

Para el caso en que las varianzas no sean homogéneas.
Hay otras fórmulas más genéricas en donde se sustituye  por el promedio ponderado de las desviaciones típicas insesgadas de ambos grupos:

Para interpretar el resultado de este índice, y teniendo en cuenta que es un medida estandarizada, Cohen (1988) propuso una gradación de la magnitud del efecto en “pequeño: d = 0,2”, “mediano: d= 0,5” y “grande: d = 0,8 o superior”.
Veamos un sencillo ejemplo.

Ejemplo 3.7. Se realiza un experimento por el que se trata de estudiar si la verbalización del proceso facilita la realización de tareas manuales complejas. 
Se seleccionan aleatoriamente 60 sujetos y se asignan 30 a cada uno de dos grupos: el experimental, en el cual los sujetos verbalizan la tarea, y el de control, en el que los sujetos realizan la tarea en silencio. 
Como variable dependiente se registra el tiempo en segundos que se requiere para completar la tarea. 
  1. Para el grupo control se obtuvo una media igual a 237 y cuasidesviación típica igual a 38
  2. para el grupo experimental media igual a 205 y cuasidesviación típica igual a 35. 

El índice d de Cohen para cuantificar la mejora en rapidez que se produce al verbalizar la tarea es:


0,88 es la distancia estandarizada entre las medias de los dos grupos, y su probabilidad asociada es 0,8106, lo que indica que el 81,06% de los sujetos del grupo experimental tardan menos tiempo que el promedio de los sujetos que no verbalizan. 
  • Sólo un 18,94% de los niños que no verbalizan tardan menos tiempo que el promedio de los que sí lo hacen. 

Se observa la situación del grupo de control respecto del experimental.


Contrastes de hipótesis para dos medias en muestras independientes. Tablas.





























Comentarios

Entradas populares