sábado, 9 de marzo de 2024

Ejemplo | Diferencia de medias no estandarizada

La diferencia de medias no estandarizada (mean difference en inglés; MD abreviado en dicho idioma) es, como su propio nombre indica, la diferencia entre las medias que se hayan entre dos grupos objeto de estudio o entre las medias que puede haber de un grupo entre la primera medida (pre-test) y la última medida (post-test) de una intervención. Forma parte de la familia de índices d

Para entender bien cómo se emplea este tamaño de efecto, vamos a analizar un ejemplo práctico para luego, pasar a la fórmula final.

Caso práctico

Se ha realizado una investigación con dos grupos con el objetivo de analizar la tasa de errores lingüísticos en aprendices de la lengua castellana tras una intervención de un innovador método de enseñanza de una duración de tres semanas. El grupo experimental (n = 30) participó en dicha estrategia innovadora mientras que el grupo control (n = 31) vivenció una enseñanza tradicional. Al acabar la intervención se realizó un examen en el que se evaluó el índice de fallos.

Una vez elaborada la base de datos acerca de los resultados del examen (tasa de errores), se obtuvo la media y la desviación típica de ambos grupos: en el grupo experimental se obtuvo 9,3 ± 2,9 y en el grupo control 12,3 ± 5,7. ¿Hay diferencias estadísticamente significativas producto de la metodología empleada?


Procedimiento, resultados e interpretación

Para calcular la diferencia de medias no estandarizada (mean difference) es recomendable recoger toda la información que necesitamos en una tabla de doble entrada, teniendo en cuenta las medias y desviaciones típicas de ambos grupos.
  • Como su nombre indica, debemos realizar una resta entre la media del grupo experimental y la del grupo control. En este caso, 9,3 - 12,3 = -3. 
  • A continuación realizaremos la desviación típica de dicha diferencia de medias aplicando la fórmula que muestra en la siguiente imagen.
  • Por último, calcularemos los intervalos de confianza al 95% teniendo en cuenta la fórmula que también se muestra en la imagen y los datos que hemos calculado anteriormente.


Entonces, el grupo experimental que recibió la nueva metodología experimenta 3 veces menos de fallos lingüísticos en comparación con las enseñanzas tradicionales del grupo control. Con respecto al intervalo de confianza, no está el valor 0 incluido; por tanto, se puede generalizar a la población de estudiantes la existencia de una reducción estadísticamente significativa del número de fallos lingüísticos fruto del nuevo planteamiento pedagógico en comparación con la enseñanza tradicional.

Con estos resultados, podemos concluir, en primer lugar, que un valor de diferencia de riesgos de -0,108 significa que en el grupo experimental que recibió el medicamento se ha producido un 10,8% menos de incidencia. En segundo lugar, al no encontrarse el valor 0 dentro del intervalo de confianza al 95% (-0,022; -0,194) se puede concluir que en el estudio se observan diferencia estadísticamente significativas entre la incidencia de la jaqueca entre los dos grupos. Por tanto, es posible generalizar a la población la existencia de una menor frecuencia de jaquecas cuando se aplica este nuevo medicamento, aunque más investigaciones serán necesarias al respecto.


Siguiente paso

Una vez visto un ejemplo de aplicación, vamos a ver la teoría y la fórmula de este índice. Para ello, haz clic en el siguiente botón:





Jacob Sierra Díaz y  Alti

viernes, 8 de marzo de 2024

Teoría | Diferencia entre la razón de riesgos y los odds ratio

Una vez visto tanto un ejemplo como la formulación propia de toda la familia de índices de riesgos puede caber una pregunta práctica: ¿Cuál de ellos elegir para nuestra investigación?


La respuesta rápida nos dice que se puede usar cualquiera de los tres (diferencia de riesgo, razón de riesgos u odds ratio) siempre y cuando la interpretación se haga de manera correcta. Hay algunos libros y manuales que incluso dicen que se trata de una cuestión cultural: mientras que en el continente americano se prefiere usar la razón de riesgos, en Europa tendemos más a emplear el odds ratio. De hecho, hemos visto que para un mismo caso práctico podemos usar las tres pruebas y llegaremos a similares conclusiones. 


Si queremos especificar un poco más en la respuesta:
  • En estudios de cohortes es preferible usar o la razón de riesgos o los odds ratio con el objetivo de evaluar el riesgo relativo y el riesgo absoluto, respectivamente.
  • Para estudios en los que haya dos grupos, siendo uno de ellos el control, es recomendable emplear los odds ratio.
  • Cuando las tasas de riesgos (Pe o Pc) son bajas, tanto el uso de la razón de riesgos como de los odds ratio se pueden emplear.
  • El índice de diferencia de riesgos es mucho más fácil de analizar desde el punto de vista clínico. Por tanto, muchos de los artículos emplean dicho índice. Por el contrario, los odds ratio son algo más complejos de analizar.
  • Para los meta-análisis se recomienda usar la razón de riesgos con el objetivo de facilitar la interpretación.
  • Si en un meta-análisis las tasas de riesgos (Pe o Pc) son bastante heterogéneas, la diferencia de riesgos no es un tamaño de efecto adecuado para usar.


En definitiva, dependerá de la naturaleza de nuestra investigación y de la facilidad para ser interpretado el tamaño del efecto más adecuado que se deberá de usar.


Jacob Sierra Díaz y Alti

jueves, 7 de marzo de 2024

Teoría | Razón de ventajas - Odds ratio

Ayer vimos la aplicación de la razón de ventajas (odds ratio en inglés; OR abreviado en dicho idioma). Se trata del último procedimiento de la familia de los índices de riesgo relativo. Hoy veremos de una forma mucho más rigurosa su fórmula para que se entienda y pueda ser aplicada en cualquier caso real.


Caso práctico

Es posible que para entender la fórmula de los odds ratio debamos ver previamente su utilización en un ejemplo práctico. Es por ello que, haciendo clic en el siguiente botón, puedes acceder al ejemplo para repasar o comenzar a entender su estructura.



Fórmulas e interpretación

Para calcular el odds ratio precisaremos dos grupos: experimental y control (o como se prefiera denominarlos). Como ya viene siendo habitual en esta familia de tamaños de efecto, el odds ratio necesita los valores Pe (relativos al grupo experimental) y Pc (procedentes del grupo control). Sin embargo, difieren de la razón de riesgos (RR) o la diferencia de riesgos en su fórmula final:


  • El resultado de los odds ratio dará un valor de entre 0 a infinito. Además, un valor 1 (o próximo a la unidad) representará un efecto nulo, es decir, que no hay diferencia entre ambos grupos con respecto al outcome estudiado.
  • Cuando el odds ratio es mayor que 1 se interpreta afirmando que la ventaja de "éxito" frente a "fracaso" en el grupo experimental es OR veces mayor que la ventaja de "éxito" en el grupo control.
  • Cuando el odds ratio es menor que 1 se interpreta afirmanod que en le grupo experimental se ha producido una reducción del (1 - OR) · 100% en la ventaja de "fracaso" sobre el "éxito" en comparación con la ventaja del grupo control.

Tal y como pasaba con la razón de riesgos, el odds ratio sin su intervalo de confianza se quedaría insuficiente. Calcular el intervalo de confianza al 95% es una tarea relativamente sencilla. Para ello, debemos obtener la desviación típica del odds ratio (Sor) con la fórmula que se muestra en la siguiente imagen. A continuación, deberemos convertir el valor de la razón de riesgos a escala logarítmica [loge(OR)]. Finalmente, calcularemos los límites del intervalo de confianza con los resultados de la desviación típica de la razón de riesgos y del valor de la escala logarítmica. Para "reconvertir" los intervalos a la escala de razón de riesgos deberemos realizar los dos exponentes que se incluyen en la siguiente imagen.


  • Si el intervalo de confianza al 95% (límite inferior, límite superior) incluye el valor 0 [siempre y cuando se siga en escala logarítmica], indicará que no habrá diferencias estadísticamente significativas entre los odds (traducido como "ventajas") de los dos grupos. En caso contrario, se puede generalizar a la población la existencia de diferencias estadísticamente significativas entre la ventaja del grupo experimental frente a la del grupo control.


Jacob Sierra Díaz y Alti

miércoles, 6 de marzo de 2024

Ejemplo | Aplicación de los odds ratio

Junto con la razón de riesgos, la razón de odds o la razón de ventajas (odds ratio en inglés; OR abreviado) [no se suele traducir y en castellano se le conoce directamente como odds ratio], es el índice de riesgo relativo más empleado en el mundo de la investigación.

Como hemos venido viendo en entregas anteriores, para entender bien cómo se emplea este tipo de tamaño de efecto, vamos a ver, en primer lugar, un ejemplo práctico para que luego, quien esté interesado, acceda a las fórmulas que se emplean. 


Caso práctico

Este es un problema inspirado en los datos de Leasure et al. (2012) y que ya se ha visto para el cálculo de la diferencia de riesgos y para la razón de riesgos. En efecto, se trata de índices que se pueden usar indistintamente y que su uso solo está restringido al gusto del investigador

En una investigación médica se está suministrando un jarabe nuevo para la reducción de jaquecas. Para ello, se han distribuido a los participantes del estudio en dos grandes grupos: en el grupo experimental, compuesto por 169 personas mayores de edad, se les suministró el medicamento y en el grupo control (n = 164) se les suministró un placebo. A continuación, se contaron cuántos participantes habían sufrido jaquecas en los siguientes tres días de recibir el medicamento.

Los resultados mostraron que 42 personas del grupo control sufrieron jaquecas, mientras que en el grupo experimental la cifra fue de 25. ¿Se puede decir que hay diferencias estadísticamente significativas entre la incidencia de jaquecas en el grupo control y en grupo experimental?



Procedimiento, resultados e interpretación

Para dar respuesta a este caso práctico, deberemos calcular la razón de ventajas (odds ratio) de la siguiente manera, tal y como se reflejará en la imagen más abajo:
  • En primer lugar, conviene realizar una tabla de doble entrada en la que se recojan los resultados totales de cada grupo y de la aparición (o no) de las jaquecas. 

  • A continuación, para cada grupo, dividiremos el total de casos que sí que han presentado la jaqueca entre el número total de participantes (de ese grupo). Esto lo llamaremos como Pe para el grupo experimental y Pc para el grupo control.

  • Ahora, aplicaremos la fórmula de los odds ratio que es (Pe·  (1 - Pc)) / (Pc· (1 - Pe))

Traduzcamos la palabra odds como ventaja. El odds ratio (OR) es de 0,504. Esto significa que para el grupo experimental se ha observado un descenso del 49,5% [1 - 0,504 = 0,495] en la ventaja (odds) de sufrir ataques de jaqueca frente a no sufrirla, en comparación con dicha ventaja (odds) en el grupo control.

A continuación, tal y como ocurre con el resto de índices de esta familia,  debemos calcular el intervalo de confianza (normalmente, como es el caso, establecido al 95%). Para ello, debemos transformar el intervalo de confianza de la razón de riesgos a escala logarítmica (se recomienda el uso de una calculadora científica)  [Log(0,504) = -0,685]. Sin embargo, antes de usar este resultado logarítmico, debemos calcular la desviación típica de la razón de riesgos. A continuación, calcularemos los límites superior e inferior. Nuevamente habrá que reconvertir dichos límites a la escala de odds [Exponente de e] (en lugar de interpretarla como escala logarítmica). Llegados a este punto, debemos ver que el valor 0 no se encuentre entre los límites inferior y superior. En caso de que no se encuentre (tal y como es este ejemplo) podemos concluir que se observa una ventaja (odds) estadísticamente significativa del grupo que recibió el jarabe para prevenir jaquecas en comparación con el grupo control que recibió un placebo. Si, por el contrario, decimos volver a la escala del odds ratio [Exponente de e] el valor que deberemos mirar es 1. 



Entonces, concluimos que se observa una ventaja estadísticamente significativa del grupo que tomó el jarabe experimental frente al grupo control para prevenir jaquecas. Entonces, se puede generalizar a la población el carácter preventivo que puede tener dicho jarabe. Sin embargo, si esta investigación fuese real habría que añadir que los datos deben tomarse con cautela y que nuevas investigaciones deben ser realizadas con el objetivo de verificar dichos resultados.



Cálculo automático

Estos cálculos vistos en la imagen anterior pueden realizarse de manera automática a través de calculadoras online para tales propósitos. Una de las más utilizadas para obtener la razón de ventajas es la Campbell. Puedes hacer clic en la siguiente imagen para acceder a la herramienta.




Siguiente paso

Una vez visto un ejemplo de aplicación, vamos a ver la teoría y la fórmula de este índice. Para ello, haz clic en el siguiente botón:





Fuente bibliográfica

Referencia en estilo APA-7: 
  • Leasure, A. R., Stirlen, J., y Lu, S. H. (2012). Prevention of ventilator-associated pneumonia through aspiration of subglottic secretions: a systematic review and meta-analysis. Dimensions of Critical Care Nursing, 31(2), 102-117.

Jacob Sierra Díaz y  Alti

martes, 5 de marzo de 2024

Teoría | Razón de riesgos - Risk Ratio

En la entrada de ayer vimos que la razón de riesgos (risk ratio en inglés; RR abreviado en dicho idioma), también llamada razón de proporciones, es un tamaño del efecto de que se emplea, entre otros usos, analizar las proporciones de éxito o fracaso de dos grupos distintos. 

En esta entrada veremos de manera más rigurosa la fórmula para calcular la diferencia de riesgos, así como la manera que hay de interpretar sus posibles resultados.

Caso práctico

Antes de profundizar en la fórmula, vimos un ejemplo práctico de aplicación de la razón de riesgos. Partiendo de dicho ejemplo, resultará más sencillo aprender todo lo que implica el procedimiento de la razón de riesgos. Si aún no has tenido oportunidad de leer el ejemplo, haz clic en el siguiente botón para acceder.



Fórmulas e interpretación

Para calcular la razón de riesgos precisaremos dos grupos: experimental y control (o como se quiera determinarlo). La razón de riesgos necesita los valores Pe (grupo experimental) y Pc (grupo control), al igual que pasaba con la diferencia de riesgos (de hecho su cálculo es idéntico). Sin embargo, la razón de riesgos es una división entre Pe y Pc, tal y como vemos a continuación:


  • El resultado de la razón de riesgos dará un valor de entre 0 a infinito. Además, un valor 1 (o próximo a dicho valor) representará un efecto nulo, es decir, que no hay diferencia entre ambos grupos con respecto al outcome estudiado.
    • Cuando la razón de riesgos es mayor que 1 se interpreta que la proporción de éxitos (o fracasos) en el grupo experimental es el valor RR veces mayor que en el grupo control.
    • Cuando la razón de riesgos es menor que 1, se puede afirmar que la proporción de éxitos (o fracasos) en el grupo experimental se ha reducido en: (1-RR) · 100%

Tal y como pasaba con la diferencia de riesgos, la razón de riesgos sin su intervalo de confianza se quedaría insuficiente. Calcular el intervalo de confianza al 95% es una tarea relativamente sencilla. Para ello, debemos obtener la desviación típica de la razón de riesgos (Srr) con la fórmula que se muestra en la siguiente imagen. A continuación, deberemos "traducir" el valor de la razón de riesgos a escala logarítmica [loge(RR)]. Finalmente, calcularemos el intervalo de confianza con los resultados de la desviación típica de la razón de riesgos y del valor de la escala logarítmica. Para "reconvertir" los intervalos a la escala de razón de riesgos deberemos realizar los dos exponentes que se incluyen en la siguiente imagen.


  • Si el intervalo de confianza al 95% (límite inferior, límite superior) incluye el valor 0 [siempre y cuando se siga en escala logarítmica], indicará que no habrá diferencias estadísticamente significativas entre las tasas de riesgo de los dos grupos. En caso contrario, se puede generalizar a la población la existencia de diferencias estadísticamente significativas entre las dos tasas de riesgo.


Jacob Sierra Díaz y Alti

lunes, 4 de marzo de 2024

Ejemplo | Aplicación de la razón de riesgos (risk ratio)

La razón de riesgos (risk ratio o relative risk en inglés; RR abreviado en dicho idioma) es un tamaño del efecto de que se emplea para estudiar la proporción de éxito o fracaso de la variable objeto de estudio en dos grupos (normalmente grupo control y experimental). Dentro de esta familia de tamaños de efectos pertenece a los índices de riesgo relativo


Para entender bien cómo se emplea este tipo de tamaño de efecto, vamos a ver, en primer lugar, un ejemplo y luego procederemos a explicarlo de manera un poco más rigurosa.


Caso práctico

Este es un problema inspirado en los datos de Leasure et al. (2012) y que ya se ha visto para el cálculo de la diferencia de riesgos. En una investigación médica se está suministrando un medicamento nuevo para la reducción de jaquecas. Para ello, se han distribuido a los participantes del estudio en dos grandes grupos: en el grupo experimental, compuesto por 169 personas mayores de edad, se les suministró el medicamento y en el grupo control (n = 164) se les suministró un placebo. A continuación, se contaron cuántos participantes habían sufrido jaquecas en los siguientes tres días de recibir el medicamento.

Los resultados mostraron que 42 personas del grupo control sufrieron jaquecas, mientras que en el grupo experimental la cifra fue de 25. ¿Se puede decir que hay diferencias estadísticamente significativas entre la incidencia de jaquecas en el grupo control y en grupo experimental?



Procedimiento, resultados e interpretación

Para dar respuesta a este caso práctico, deberemos calcular la razón de riesgos (risk ratio) de la siguiente manera, tal y como se reflejará en la imagen más abajo:
  • En primer lugar, conviene realizar una tabla de doble entrada en la que se recojan los resultados totales de cada grupo y de la aparición (o no) de las jaquecas. 

  • A continuación, para cada grupo, dividiremos el total de casos que sí que han presentado la jaqueca entre el número total de participantes (de ese grupo). Esto lo llamaremos como Pe para el grupo experimental y Pc para el grupo control.

  • Ahora, contrario a lo que se hace para la diferencia de riesgos, dividimos los dos resultados anteriores para obtener la razón de riesgos. Podemos calcular el porcentaje restando una unidad al resultado.

La razón de de riesgos (RR) por tanto es de 0,578 [RR = 0,148 / 0,256]Esto significa que en grupo de personas que recibió el medicamento experimental ha obtenido una reducción del 42,2% sobre el número de jaquecas en comparación con las personas del grupo control [1 - 0,578 = 0,422; 0,422 · 100% = 42,2%].

A continuación, debemos calcular el intervalo de confianza (normalmente, como es el caso, establecido al 95%). En este caso deberemos transformar el intervalo de confianza de la razón de riesgos a escala logarítmica (se recomienda el uso de una calculadora científica)  [Log(0,578) = -0,548]. Sin embargo, antes de usar este resultado logarítmico, debemos calcular la desviación típica de la razón de riesgos. A continuación, calcularemos los límites superior e inferior. Nuevamente habrá que reconvertir dichos límites a la escala de razón de riesgos [Exponente de e] (en lugar de interpretarla como escala logarítmica). Ahora, hay que observar que el valor 1 no se encuentre dentro de los límites del intervalo de confianza (o, si estamos en escala logarítmica, sea el valor 0).



Con estos resultados, podemos concluir, en primer lugar, que un valor de razón de riesgos de 0,578 indica que el grupo experimental que recibió la pastilla presenta una reducción del 42,2% de la incidencia en jaquecas en comparación con el grupo experimental. Además, hay diferencias estadísticamente significativas puesto que el valor 1 no se encuentra dentro del intervalo de confianza al 95% (o el valor 0 si consideramos la escala logarítmica). Se concluye, por tanto, que se puede generalizar al resto de la población la existencia de un efecto favorable del nuevo medicamento, siempre en términos relativos, para la prevención de jaquecas.



Cálculo automático

Por fortuna, en pleno siglo XXI existen una gran variedad de recursos que permiten calcular la razón de riesgos de manera automática. Para ello necesitaremos un ordenador conectado a Internet y acceder a la calculadora de Campbell. Haz clic en la siguiente ilustración para acceder a dicha herramienta.




Siguiente paso

Una vez visto un ejemplo de aplicación, vamos a ver la teoría y la fórmula de este índice. Para ello, haz clic en el siguiente botón:





Fuente bibliográfica

Referencia en estilo APA-7: 
  • Leasure, A. R., Stirlen, J., y Lu, S. H. (2012). Prevention of ventilator-associated pneumonia through aspiration of subglottic secretions: a systematic review and meta-analysis. Dimensions of Critical Care Nursing, 31(2), 102-117.

Jacob Sierra Díaz y  Alti

domingo, 3 de marzo de 2024

Teoría | Diferencia de riesgos - Risk difference

Anteriormente hemos visto que la diferencia de riesgos (risk difference en inglés; RD abreviado en dicho idioma) es un tamaño del efecto de que se emplea, entre otros usos, para meta-analizar variables dicotómicas con dos grupos (que suele ser el control y el experimental)

Hoy vamos ver de manera más rigurosa la fórmula para calcular la diferencia de riesgos y la manera que hay de interpretar sus posibles resultados.

Caso práctico

Antes de ver la fórmula en sí de la diferencia de riesgos, hemos visto un ejemplo de cómo se usa de manera práctica. De esta forma, una vez entendido el ejemplo, procedemos ahora a analizar su fórmula y su interpretación.

Si aún no has leído el ejemplo, haz clic en el siguiente botón para acceder. Si no estás acostumbrado a las fórmulas, es recomendable que consultes previamente el ejemplo para que te pueda resultar familiar todo lo que vas a ver aquí.



Fórmulas e interpretación

Como hemos dicho al principio de esta entrada, la diferencia de riesgos (RD) debe involucrar el trabajo de dos grupos. Para calcular esta diferencia de riesgos, previamente tendremos que obtener Pe y Pc. Para ello, tal y como se muestra en la siguiente imagen, dividiremos el número de casos positivos (casos donde se produce el outcome bajo estudio) entre el número total de muestra en dicho grupo, en función si es el grupo experimental (Pe) o grupo control (Pc).

    • El resultado de RD dará un valor de entre -1 a (+)1. Además, un valor 0 (o próximo a dicho valor) representará un efecto nulo, es decir, que no hay diferencia entre ambos grupos con respecto al outcome estudiado.
    • El RD representa la diferencia entre las proporciones de riesgo de los grupos. 


El RD sin su intervalo de confianza se quedaría cojo. Calcular el intervalo de confianza al 95% es una tarea relativamente sencilla. Para ello, debemos obtener la desviación típica del RD (Srd). A continuación, obtendremos los límites superiores e inferiores con las fórmulas que se muestran en la siguiente imagen.

    • Cuando el intervalo incluya el valor 0 significará que no hay diferencias estadísticamente significativas entre las tasas de riesgos de los dos grupos.


Jacob Sierra Díaz y Alti

sábado, 2 de marzo de 2024

Ejemplo | Aplicación de la diferencia de riesgo

La diferencia de riesgos (risk difference en inglés; RD abreviado en dicho idioma) es un tamaño del efecto de que se emplea para variables dicotómicas, normalmente para dos grupos (control y experimental) en los que se quiere ver la ausencia o la ocurrencia de un determinado outcome (traducido como resultado esperable de la investigación). Dentro de esta familia de tamaños de efectos pertenece a los índices de riesgo absoluto

Para entender bien cómo se emplea este tipo de tamaño de efecto, vamos a ver, en primer lugar, un ejemplo y luego procederemos a explicarlo de manera un poco más rigurosa.

Caso práctico

Este es un problema inspirado en los datos de Leasure et al. (2012). En una investigación médica se está suministrando un medicamento nuevo para la reducción de jaquecas. Para ello, se han distribuido a los participantes del estudio en dos grandes grupos: en el grupo experimental, compuesto por 169 personas mayores de edad, se les suministró el medicamento y en el grupo control (n = 164) se les suministró un placebo. A continuación, se contaron cuántos participantes habían sufrido jaquecas en los siguientes tres días de recibir el medicamento.

Los resultados mostraron que 42 personas del grupo control sufrieron jaquecas, mientras que en el grupo experimental la cifra fue de 25. ¿Se puede decir que hay diferencias estadísticamente significativas entre la incidencia de jaquecas en el grupo control y en grupo experimental?



Procedimiento, resultados e interpretación

Para dar respuesta a este caso práctico, deberemos calcular la diferencia de riesgos (risk difference) de la siguiente manera, tal y como se reflejará en la imagen más abajo:
  • En primer lugar, conviene realizar una tabla de doble entrada en la que se recojan los resultados totales de cada grupo y de la aparición (o no) de las jaquecas. 

  • A continuación, para cada grupo, dividiremos el total de casos que sí que han presentado la jaqueca entre el número total de participantes (de ese grupo). Esto lo llamaremos como Pe para el grupo experimental y Pc para el grupo control.

  • Ahora, restamos el resultado anterior del grupo experimental menos el del grupo control.

La diferencia de riesgo (RD) por tanto es de -0,108 [RD = 0,148 - 0,256]. Esto significa que en el grupo experimental (personas que recibieron el medicamento) se ha producido un 10,8% menos de jaquecas que para las personas del grupo control [-0,108 · 100% = 10,8 MENOS].

A continuación, debemos calcular el intervalo de confianza (normalmente, como es el caso, establecido al 95%). Para ello debemos (I) calcular la desviación típica de la diferencia de riesgos, mostrado en la siguiente imagen, (II) calcular el límite superior [Diferencia de riesgos + 1,96 · Desviación típica de la diferencia de riesgos] y (III) calcular el límite inferior  [Diferencia de riesgos - 1,96 · Desviación típica de la diferencia de riesgos]. Una vez realizados los cálculos, debemos observar si el valor 0 no está dentro del intervalo de confianza (límite inferior, límite superior) para poder concluir que hay diferencia estadísticamente significativas que se pueda generalizar al resto de la población.



Con estos resultados, podemos concluir, en primer lugar, que un valor de diferencia de riesgos de -0,108 significa que en el grupo experimental que recibió el medicamento se ha producido un 10,8% menos de incidencia. En segundo lugar, al no encontrarse el valor 0 dentro del intervalo de confianza al 95% (-0,022; -0,194) se puede concluir que en el estudio se observan diferencia estadísticamente significativas entre la incidencia de la jaqueca entre los dos grupos. Por tanto, es posible generalizar a la población la existencia de una menor frecuencia de jaquecas cuando se aplica este nuevo medicamento, aunque más investigaciones serán necesarias al respecto.


Siguiente paso

Una vez visto un ejemplo de aplicación, vamos a ver la teoría y la fórmula de este índice. Para ello, haz clic en el siguiente botón:





Fuente bibliográfica

Referencia en estilo APA-7: 
  • Leasure, A. R., Stirlen, J., y Lu, S. H. (2012). Prevention of ventilator-associated pneumonia through aspiration of subglottic secretions: a systematic review and meta-analysis. Dimensions of Critical Care Nursing, 31(2), 102-117.

Jacob Sierra Díaz y  Alti

viernes, 1 de marzo de 2024

Teoría | Introducción al tamaño del efecto

Los índices del tamaño del efecto son valores de gran relevancia en el mundo de la investigación. Pero, ¿a qué nos referimos cuando hablamos de tamaño del efecto? ¿podemos usar un procedimiento único para obtener un tamaño del efecto global? o ¿qué aplicación práctica puede tener un tamaño del efecto en la síntesis de la evidencia empírica? Trataremos de dar respuesta a cada una de estas cuestiones a su debido tiempo. Para ello, debemos empezar a presentar una definición rigurosa del tamaño del efecto.


Definición de tamaño del efecto 

Cohen (1988) define el tamaño del efecto como un índice estadístico que refleja el grado en que existe el fenómeno objeto de estudio. Más recientemente, Kelley y Preachyer (2012; p. 140) propone que el tamaño del efecto debe ser entendido como una reflexión cuantitativa de la magnitud de algún fenómeno objeto de estudio que se emplea para tratar de dar respuesta a una cuestión de interés. 

Vista un par de definiciones formales, veamos algunos ejemplos de tamaño del efecto:
  • Se ha realizado un estudio experimental en la que se compara en dos grupos poblacionales (fumadores y no fumadores) el nivel de nicotina en el organismo tras una intervención de actividad física moderada de un  mes de duración. La medida del tamaño del efecto reflejará en qué medida el impacto de la actividad física reduce el nivel de nicotina en el organismo, mediante la diferencia de medias.
  • Se desea realizar un estudio descriptivo en el que se pretende estimar la prevalencia de un tipo de cáncer. Por tanto, el tamaño del efecto deberá de ser una proporción (porcentaje) o tasa.
  • Se ha realizado un estudio diagnóstico en el que se pone a prueba una innovadora técnica de radioterapia. Para ello se comparará en dos grupos esta nueva técnica con la ya establecida (gold standard), empleando la medida del tamaño del efecto con el fin de observar la fiabilidad de dicha innovadora técnica, siendo el tamaño del efecto obtenido a través del cálculo de la sensibilidad y especificidad.
  • Se desea realizar un estudio retrospectivo sobre el consumo de una sustancia estupefaciente como un posible factor de riesgo en una enfermedad. Por tanto, la medida del tamaño del efecto será determinada por el grado de asociación entre el hecho de haber consumido una determinada droga y la presencia de una enfermedad específica asociada a dicha droga, a través del odds ratio.

Estos ejemplos nos permiten entender que un tamaño del efecto puede presentarse de distintas maneras: a veces en forma de porcentajes y otras veces a través de otras fórmulas en función de la naturaleza del estudio. Por tanto, no deberíamos hablar de UN tamaño del efecto, sino más bien de "familias" que son más apropiadas en función de lo que estemos estudiando.

A continuación, se muestra uno de los índices más conocidos del tamaño del efecto: la d de Cohen para comparación de dos medias muestrales. 




Tipos del tamaño del efecto 

A continuación, mencionaremos los tamaños del efecto más importantes en función de cada tipo de de estudios de investigación:

ESTUDIOS EXPERIMENTALES
  • Variables continuas
    • Diferencia de medias estandarizada
    • Diferencia de medias
    • Índice de cambio medio estandarizado
    • Diferencia de cambios medios estandarizados


ESTUDIOS NO EXPERIMENTALES
  • Variables genéricas
    • Familia de ínidices r o coeficientes de correlación
    • Análisis de proporciones, prevalencias o tasas


OTRAS MEDIDAS
  • Log response ratio
  • Coeficiente de regresión
  • Elasticities
  • Hazard ratios
  • ...


Fuentes bibliográficas

Referencias en estilo APA-7: 
  • Cohen, J. (1988). Statistical power analysis for the behavioral sciences. Hillsdale.
  • Kelley, K., y Preacher, K. J. (2012). On effect size. Psychological Methods, 17(1), 137-152.


Jacob Sierra Díaz y Alti