viernes, 11 de diciembre de 2020

INTERVALOS DE CONFIANZA.

 

En estudios médicos los investigadores deberían usualmente estar interesados en determinar el tamaño de la diferencia de una variable respuesta medida en ambos grupos, más que la simple indicación de que no hay diferencia estadísticamente significativa. Los intervalos de confianza presentan un rango de valores, sobre la base de una muestra de datos, en los cuales el valor poblacional para una diferencia o un parámetro es probable que esté contenido. En casos en los que el efecto estimado del tratamiento es pequeño, el intervalo de confianza indica cuando el beneficio de tratamiento clínicamente valioso sigue siendo plausible a la luz de los datos y puede ayudar a evitar confundir la falta de evidencia de efectividad con evidencia de falta de efectividad. Son especialmente utilizados en ensayos clínicos y meta análisis.

Los intervalos de confianza deberían utilizarse para presentar los resultados más importantes de una investigación, por tanto, deberían incluirse en el resumen y las conclusiones de una publicación científica. Para interpretar un intervalo de confianza se estudia una muestra, al resumir los datos se obtienen estadísticos, o valores muestrales como la media o la proporción muestrales que nos dan una idea del correspondiente parámetro, es decir el valor de la media o la proporción calculado hipotéticamente en base al estudio de todos los individuos de la población.

Los intervalos de confianza indican la in(precisión) con que la muestra del estudio estima el valor del parámetro. Otra forma de interpretar alude a determinar los resultados que tomaría la variable de interés si se repitiera el estudio en múltiples ocasiones. Lo correcto es indicar que, al calcular un intervalo de confianza, en el 95% de las veces el verdadero parámetro podría estar contenido en el rango de valores del intervalo calculado; y por tanto en un 5% de las veces podría no estar en ese rango de valores.

A medida que aumentamos el tamaño de muestra, podemos disponer de mayor evidencia y por tanto realizar una estimación con mayor validez, esto ocurre porque el intervalo de confianza depende en parte, del error estándar, el cual se obtiene al dividir la desviación estándar muestral entre la raíz del tamaño de la muestra, es decir una vez la raíz del tamaño muestral aumente en relación con la desviación estándar, el ancho del intervalo será menor. El otro aspecto que influye sobre la amplitud del intervalo es el nivel de confianza, a mayor nivel de confianza, si se mantiene inalterado el error estándar, la amplitud del intervalo aumenta.

Podemos decir entonces que, si dejamos constante el nivel de confianza y la desviación estándar observada, a medida que aumenta el tamaño de muestra la amplitud de un intervalo de confianza se reduce y, por tanto, la precisión de la estimación aumenta. La potencia aumenta también cuando se aumenta el tamaño del efecto, ya que disminuye la probabilidad de error beta (aceptar una hipótesis nula falsa), sin embargo, podría aumentar el riesgo de cometer un error alfa (rechazar una hipótesis nula cierta).

Hay que recordar que la amplitud de un intervalo decrece a una tasa equivalente de raíz del tamaño de muestra. Por tanto, un intervalo de confianza muy amplio podría sugerirnos que la muestra utilizada no fue la adecuada en tamaño y un intervalo de confianza muy estrecho, que utilizamos demasiados pacientes, y esto, en ciencias de la salud podría resultar no ético, por la posibilidad de exponer a más de los individuos necesarios a tratamientos con potenciales riesgos colaterales.

Tipos de intervalos de confianza:

Si bien, los intervalos de confianza pueden pensarse como métodos complementarios de las pruebas hipótesis, ya que aportan información adicional; sin embargo, algunos Estadísticos y Epidemiólogos prefieren sustituir el uso de pruebas de hipótesis por intervalos de confianza, con el argumento que estos últimos pueden aplicarse a la solución de cualquier problema que resuelven las pruebas de hipótesis. Ahora se expondrá la clasificación de los intervalos de confianza atendiendo al tipo de problema que pretenden resolver. A continuación, se enumeran algunos de los muchos intervalos de confianza existentes y se anota en paréntesis la prueba estadística que estos sustituyen o complementan:

1. Estimación de un parámetro:

a) De una media poblacional (Prueba de T Student de una media).

b) De una proporción poblacional (Prueba de Z para una muestra, test binomial).

c) De una mediana poblacional (podría ser el equivalente o el complemento de una prueba de rangos signados de Wilcoxon para una mediana, o la prueba de signos para una muestra)

d) De la sensibilidad y la especificidad de una prueba diagnóstica.

2. Estimación de una diferencia poblacional:

a) De medias poblacionales, dos muestras independientes (T de Student).

b) De medias poblacionales, dos muestras relacionadas (T de Student pareada).

c) De proporciones poblacionales, dos muestras independientes (Prueba de Z de proporciones    independientes, test de ji cuadrado, prueba exacta de Fisher).

d) De proporciones poblacionales, dos muestras relacionadas (Prueba de Z de proporciones relacionadas, test de McNemar).

e) De medianas poblacionales, dos muestras independientes (Prueba de Mann-Whitney).

f) De medianas poblacionales, dos muestras relacionadas (Prueba de rangos signados de Wilxcoxon).

g) De la diferencia de dos coeficientes de correlación (Transformación de Fisher previo a la aplicación de un test de Z).

h) De la diferencia de dos curvas roc (Covarianza de dos áreas bajo la curva correlacionadas).

i) De la diferencia de pendientes poblacionales de dos curvas de regresión

j) De las diferencias de medias en comparaciones múltiples (ANDEVA + métodos de comparaciones múltiples).

3. Estimación del tamaño del efecto:

a) De un riesgo relativo, de una OR, de una razón de prevalencias (Prueba de ji cuadrado, prueba exacta de Fisher).

b) De una OR en un estudio de casos y controles pareados (Test de Mc Nemar).

c) De un coeficiente de correlación poblacional (Transformación de Fisher y luego estadístico Z, test de T).

d) De un Hazard Ratio en una regresión de Cox.

e) De una OR ajustada en una regresión logística (Estadística de Wald).

f) De un coeficiente Kappa para concordancia entre dos variables categóricas (Test de T para coeficiente Kappa poblacional).

g) De la estimación del área bajo una curva roc (Prueba binomial, Test U de Mann-Whitney para una muestra).

h) De la pendiente poblacional de una regresión (Prueba de T para una pendiente poblacional).

No hay comentarios.:

Publicar un comentario

VIDEO DE BIOESTADISTICA.