Error estándar: definición y cálculo

Descubre qué es el error estándar, cómo se calcula y por qué es clave para estimar la precisión de una media muestral en estadística.

Autor: Leandro Alegsa

El error estándar es la desviación estándar de la distribución muestral de una estadística. Dicho de forma sencilla, indica cuánto puede variar una estadística, como la media, si se repite el muestreo muchas veces. También puede entenderse como una estimación de esa desviación estándar cuando solo se dispone de una muestra del grupo completo.

La media de una muestra se usa con frecuencia para estimar la media de toda una población, porque medir a todos los individuos suele ser costoso, lento o imposible. Sin embargo, si se toma otra muestra del mismo grupo, su media no será exactamente igual. El error estándar de la media ayuda a medir esa variación y muestra qué tan cerca podría estar la media muestral de la media real de la población.

Qué indica el error estándar

El error estándar no describe la dispersión de los datos originales, sino la precisión de una estimación. Por eso, cuanto menor es el error estándar, más fiable suele ser la estimación obtenida a partir de la muestra. En cambio, un error estándar grande indica que la estadística calculada puede cambiar bastante de una muestra a otra.

Este concepto es muy útil en estadística inferencial, porque permite valorar la incertidumbre asociada a estimaciones, intervalos de confianza y pruebas de hipótesis. En otras palabras, ayuda a responder preguntas como: ¿qué tan representativa es esta muestra? o ¿cuánta confianza puedo tener en este resultado?

Cálculo del error estándar

Cuando se trata del error estándar de la media, una forma habitual de calcularlo es la siguiente:

Error estándar de la media = desviación estándar / raíz cuadrada del tamaño de la muestra

Es decir, si la desviación estándar de los datos es s y el tamaño de la muestra es n, entonces:

EE = s / √n

Esta fórmula muestra dos ideas importantes:

  • Si la variabilidad de los datos es mayor, el error estándar también tiende a ser mayor.
  • Si el tamaño de la muestra aumenta, el error estándar disminuye.

Por eso, trabajar con muestras más grandes suele ofrecer estimaciones más precisas que trabajar con muestras pequeñas.

Diferencia entre error estándar y desviación estándar

Es común confundir ambos conceptos, pero no significan lo mismo. La desviación estándar mide cuánto se dispersan los datos dentro de una muestra o población. En cambio, el error estándar mide cuánto puede variar una estadística muestral, como la media, entre distintas muestras.

En resumen:

  • Desviación estándar: describe la variabilidad de los datos.
  • Error estándar: describe la precisión de una estimación basada en una muestra.

Por qué en la práctica suele ser una estimación

En las mediciones reales, normalmente no se conoce el verdadero valor del error estándar de toda la población, porque no se puede estudiar cada caso posible. Por eso, el término error estándar se usa a menudo para referirse a una estimación cercana del valor real, obtenida a partir de la muestra.

Cuanto más grande y representativa sea la muestra, mejor será esa estimación. Además, si los datos son muy heterogéneos, el error estándar puede ser más alto, lo que indica mayor incertidumbre en la media u otra estadística calculada.

Interpretación básica

Un error estándar pequeño sugiere que la estadística muestral es estable y probablemente cercana al valor de la población. Un error estándar grande sugiere lo contrario: que los resultados pueden cambiar bastante de una muestra a otra.

Por ello, el error estándar es una herramienta clave para interpretar resultados en investigación, encuestas, experimentos y análisis de datos. No informa por sí solo sobre si un resultado es “bueno” o “malo”, pero sí sobre su nivel de precisión.

Para un valor muestreado con un error insesgado distribuido normalmente, lo anterior representa la proporción de muestras que caerían entre 0, 1, 2 y 3 desviaciones estándar por encima y por debajo del valor real.Zoom
Para un valor muestreado con un error insesgado distribuido normalmente, lo anterior representa la proporción de muestras que caerían entre 0, 1, 2 y 3 desviaciones estándar por encima y por debajo del valor real.

Cómo encontrar el error estándar de la media

Una forma de encontrar el error estándar de la media es tener muchas muestras. En primer lugar, se calcula la media de cada muestra. A continuación, se calcula la media y la desviación típica de esas medias muestrales. La desviación estándar de todos los promedios de las muestras es el error estándar de la media. Esto puede suponer mucho trabajo. A veces es demasiado difícil o cuesta demasiado dinero tener muchas muestras.

Otra forma de encontrar el error estándar de la media es utilizar una ecuación que sólo necesita una muestra. El error estándar de la media suele estimarse mediante la desviación estándar de una muestra de todo el grupo (desviación estándar de la muestra) dividida por la raíz cuadrada del tamaño de la muestra.

S E x ¯ = s n {\displaystyle SE_{\bar {x}} = {\frac {s} {\sqrt {n}}}} {\displaystyle SE_{\bar {x}}\ ={\frac {s}{\sqrt {n}}}}

donde

s es la desviación estándar de la muestra (es decir, la estimación basada en la muestra de la desviación estándar de la población), y

n es el número de mediciones de la muestra.

¿Qué tamaño debe tener la muestra para que la estimación del error estándar de la media se acerque al error estándar real de la media de todo el grupo? Debe haber al menos seis mediciones en la muestra. Entonces el error estándar de la media de la muestra estará dentro del 5% del error estándar de la media si se midiera todo el grupo.

Correcciones para algunos casos

Existe otra ecuación que debe utilizarse si el número de mediciones es igual o superior al 5% de todo el grupo:

Existen ecuaciones especiales que deben utilizarse si una muestra tiene menos de 20 mediciones.

A veces una muestra procede de un solo lugar aunque todo el grupo esté repartido. También, a veces, una muestra puede realizarse en un periodo de tiempo corto cuando todo el grupo abarca un tiempo más largo. En este caso, los números de la muestra no son independientes. Entonces se utilizan ecuaciones especiales para intentar corregir esto.

Utilidad

Un resultado práctico: Uno puede estar más seguro de un valor medio teniendo más mediciones en una muestra. Entonces el error estándar de la media será menor porque la desviación estándar se divide por un número mayor. Sin embargo, para que la incertidumbre (error estándar de la media) de un valor medio sea la mitad, el tamaño de la muestra (n) debe ser cuatro veces mayor. Esto se debe a que la desviación estándar se divide por la raíz cuadrada del tamaño de la muestra. Para que la incertidumbre sea una décima parte, el tamaño de la muestra (n) debe ser cien veces mayor.

Los errores estándar son fáciles de calcular y se utilizan mucho porque:

  • Si se conoce el error estándar de varias magnitudes individuales, se puede calcular fácilmente el error estándar de alguna función de las magnitudes en muchos casos;
  • Cuando se conoce la distribución de la probabilidad del valor, puede utilizarse para calcular una buena aproximación a un intervalo de confianza exacto; y
  • Cuando no se conoce la distribución de la probabilidad, se pueden utilizar otras ecuaciones para estimar un intervalo de confianza
  • Cuando el tamaño de la muestra es muy grande, el principio del teorema del límite central muestra que los números de la muestra son muy parecidos a los del grupo entero (tienen una distribución normal).

Error estándar relativo

El error estándar relativo (RSE) es el error estándar dividido por la media. Este número es menor que uno. Si se multiplica por el 100%, se obtiene como porcentaje de la media. Esto ayuda a mostrar si la incertidumbre es importante o no. Por ejemplo, consideremos dos encuestas sobre los ingresos de los hogares que dan como resultado una media muestral de 50.000 dólares. Si una encuesta tiene un error estándar de 10.000 dólares y la otra tiene un error estándar de 5.000 dólares, entonces los errores estándar relativos son del 20% y del 10% respectivamente. La encuesta con el error estándar relativo más bajo es mejor porque tiene una medición más precisa (la incertidumbre es menor).

De hecho, las personas que necesitan conocer los valores medios suelen decidir lo pequeña que debe ser la incertidumbre antes de decidirse a utilizar la información. Por ejemplo, el Centro Nacional de Estadísticas de Salud de EE.UU. no informa de una media si el error estándar relativo supera el 30%. El NCHS también exige al menos 30 observaciones para que se informe de una estimación. []

Ejemplo

Por ejemplo, hay muchas gallinetas en las aguas del Golfo de México. Para saber cuánto pesa de media una gallineta de 42 cm, no es posible medir todas las gallineta que miden 42 cm. En cambio, es posible medir algunas de ellas. Los peces que se miden se denominan muestra. La tabla muestra los pesos de dos muestras de gallinetas, todas ellas de 42 cm de longitud. El peso medio de la primera muestra es de 0,741 kg. El peso medio de la segunda muestra es de 0,735 kg, un poco diferente al de la primera. Cada una de estas medias es un poco diferente de la media que se obtendría midiendo cada gallineta de 42 cm de longitud (lo que no es posible de todos modos).

La incertidumbre en la media puede utilizarse para saber lo cerca que está la media de las muestras de la media que se obtendría al medir todo el grupo. La incertidumbre en la media se estima como la desviación estándar de la muestra, dividida por la raíz cuadrada del número de muestras menos uno. La tabla muestra que las incertidumbres en las medias de las dos muestras están muy próximas entre sí. Además, la incertidumbre relativa es la incertidumbre en la media dividida por la media, multiplicada por el 100%. La incertidumbre relativa en este ejemplo es de 2,38% y 2,50% para las dos muestras.

Conociendo la incertidumbre en la media, se puede saber lo cerca que está la media de la muestra de la media que se obtendría al medir todo el grupo. La media de todo el grupo está entre a) la media de la muestra más la incertidumbre en la media, y b) la media de la muestra menos la incertidumbre en la media. En este ejemplo, se espera que el peso medio de todas las gallinetas de 42 cm de longitud del Golfo de México sea de 0,723-0,759 kg según la primera muestra, y de 0,717-0,753 según la segunda.

Zoom


Ejemplo de una gallineta (también conocida como corvinón rojo, Sciaenops ocellatus) utilizada en el ejemplo.Zoom
Ejemplo de una gallineta (también conocida como corvinón rojo, Sciaenops ocellatus) utilizada en el ejemplo.

Preguntas y respuestas

P: ¿Qué es el error estándar?


R: El error típico es la desviación típica de la distribución muestral de una estadística.

P: ¿Se puede utilizar el término error estándar para una estimación de la desviación estándar?


R: Sí, el término error típico puede utilizarse para una estimación (buena suposición) de esa desviación típica tomada de una muestra de todo el grupo.

P: ¿Cómo se estima la media de todo un grupo?


R: La media de una parte de un grupo (llamada muestra) es la forma habitual de estimar la media de todo el grupo.

P: ¿Por qué es difícil medir todo el grupo?


R: A menudo es demasiado difícil o costoso medir a todo el grupo.

P: ¿Qué es el error típico de la media y qué determina?


R: El error estándar de la media es una forma de saber lo cerca que está la media de la muestra de la media de todo el grupo. Es una forma de saber hasta qué punto se puede estar seguro de la media de la muestra.

P: ¿Se suele conocer el verdadero valor de la desviación típica de la media en las mediciones reales?


R: No, el verdadero valor de la desviación típica de la media de todo el grupo no suele conocerse en las mediciones reales.

P: ¿Cómo afecta el número de mediciones de una muestra a la precisión de la estimación?


R: Cuantas más mediciones haya en una muestra, más se acercará la estimación al número verdadero para todo el grupo.


Buscar dentro de la enciclopedia
AlegsaOnline.com - 2020 / 2025 - License CC3