En
estudios médicos los investigadores deberían usualmente estar interesados en
determinar el tamaño de la diferencia de una variable respuesta medida en ambos
grupos, más que la simple indicación de que no hay diferencia estadísticamente
significativa. Los intervalos de confianza presentan un rango de valores, sobre
la base de una muestra de datos, en los cuales el valor poblacional para una
diferencia o un parámetro es probable que esté contenido. En casos en los que
el efecto estimado del tratamiento es pequeño, el intervalo de confianza indica
cuando el beneficio de tratamiento clínicamente valioso sigue siendo plausible
a la luz de los datos y puede ayudar a evitar confundir la falta de evidencia
de efectividad con evidencia de falta de efectividad. Son especialmente
utilizados en ensayos clínicos y meta análisis.
Los
intervalos de confianza deberían utilizarse para presentar los resultados más
importantes de una investigación, por tanto, deberían incluirse en el resumen y
las conclusiones de una publicación científica. Para interpretar un intervalo
de confianza se estudia una muestra, al resumir los datos se obtienen
estadísticos, o valores muestrales como la media o la proporción muestrales que
nos dan una idea del correspondiente parámetro, es decir el valor de la media o
la proporción calculado hipotéticamente en base al estudio de todos los
individuos de la población.
Los
intervalos de confianza indican la in(precisión) con que la muestra del estudio
estima el valor del parámetro. Otra forma de interpretar alude a determinar los
resultados que tomaría la variable de interés si se repitiera el estudio en
múltiples ocasiones. Lo correcto es indicar que, al calcular un intervalo de
confianza, en el 95% de las veces el verdadero parámetro podría estar contenido
en el rango de valores del intervalo calculado; y por tanto en un 5% de las
veces podría no estar en ese rango de valores.
A
medida que aumentamos el tamaño de muestra, podemos disponer de mayor evidencia
y por tanto realizar una estimación con mayor validez, esto ocurre porque el
intervalo de confianza depende en parte, del error estándar, el cual se obtiene
al dividir la desviación estándar muestral entre la raíz del tamaño de la
muestra, es decir una vez la raíz del tamaño muestral aumente en relación con
la desviación estándar, el ancho del intervalo será menor. El otro aspecto que
influye sobre la amplitud del intervalo es el nivel de confianza, a mayor nivel
de confianza, si se mantiene inalterado el error estándar, la amplitud del
intervalo aumenta.
Podemos
decir entonces que, si dejamos constante el nivel de confianza y la desviación
estándar observada, a medida que aumenta el tamaño de muestra la amplitud de un
intervalo de confianza se reduce y, por tanto, la precisión de la estimación
aumenta. La potencia aumenta también cuando se aumenta el tamaño del efecto, ya
que disminuye la probabilidad de error beta (aceptar una hipótesis nula falsa),
sin embargo, podría aumentar el riesgo de cometer un error alfa (rechazar una
hipótesis nula cierta).
Hay
que recordar que la amplitud de un intervalo decrece a una tasa equivalente de
raíz del tamaño de muestra. Por tanto, un intervalo de confianza muy amplio
podría sugerirnos que la muestra utilizada no fue la adecuada en tamaño y un
intervalo de confianza muy estrecho, que utilizamos demasiados pacientes, y
esto, en ciencias de la salud podría resultar no ético, por la posibilidad de exponer
a más de los individuos necesarios a tratamientos con potenciales riesgos
colaterales.
Tipos
de intervalos de confianza:
Si
bien, los intervalos de confianza pueden pensarse como métodos complementarios
de las pruebas hipótesis, ya que aportan información adicional; sin embargo,
algunos Estadísticos y Epidemiólogos prefieren sustituir el uso de pruebas de
hipótesis por intervalos de confianza, con el argumento que estos últimos
pueden aplicarse a la solución de cualquier problema que resuelven las pruebas
de hipótesis. Ahora se expondrá la clasificación de los intervalos de confianza
atendiendo al tipo de problema que pretenden resolver. A continuación, se
enumeran algunos de los muchos intervalos de confianza existentes y se anota en
paréntesis la prueba estadística que estos sustituyen o complementan:
1.
Estimación de un parámetro:
a) De una media poblacional (Prueba de T
Student de una media).
b) De una proporción poblacional (Prueba de
Z para una muestra, test binomial).
c) De una mediana poblacional (podría ser
el equivalente o el complemento de una prueba de rangos signados de Wilcoxon
para una mediana, o la prueba de signos para una muestra)
d) De la sensibilidad y la especificidad de
una prueba diagnóstica.
2.
Estimación de una diferencia poblacional:
a) De medias poblacionales, dos muestras
independientes (T de Student).
b) De medias poblacionales, dos muestras
relacionadas (T de Student pareada).
c) De proporciones poblacionales, dos
muestras independientes (Prueba de Z de proporciones independientes, test de ji
cuadrado, prueba exacta de Fisher).
d) De proporciones poblacionales, dos
muestras relacionadas (Prueba de Z de proporciones relacionadas, test de
McNemar).
e) De medianas poblacionales, dos muestras
independientes (Prueba de Mann-Whitney).
f) De medianas poblacionales, dos muestras
relacionadas (Prueba de rangos signados de Wilxcoxon).
g) De la diferencia de dos coeficientes de
correlación (Transformación de Fisher previo a la aplicación de un test de Z).
h) De la diferencia de dos curvas roc
(Covarianza de dos áreas bajo la curva correlacionadas).
i) De la diferencia de pendientes
poblacionales de dos curvas de regresión
j) De las diferencias de medias en
comparaciones múltiples (ANDEVA + métodos de comparaciones múltiples).
3.
Estimación del tamaño del efecto:
a) De un riesgo relativo, de una OR, de
una razón de prevalencias (Prueba de ji cuadrado, prueba exacta de Fisher).
b) De una OR en un estudio de casos y
controles pareados (Test de Mc Nemar).
c) De un coeficiente de correlación
poblacional (Transformación de Fisher y luego estadístico Z, test de T).
d) De un Hazard Ratio en una regresión de
Cox.
e) De una OR ajustada en una regresión
logística (Estadística de Wald).
f) De un coeficiente Kappa para
concordancia entre dos variables categóricas (Test de T para coeficiente Kappa
poblacional).
g) De la estimación del área bajo una curva
roc (Prueba binomial, Test U de Mann-Whitney para una muestra).
h) De la pendiente poblacional de una
regresión (Prueba de T para una pendiente poblacional).
No hay comentarios.:
Publicar un comentario