Descripción
El test de Kolmogorov-Smirnov de bondad de ajuste (test KS) permite evaluar si una muestra de datos proviene de una distribución de probabilidad continua previamente especificada. A diferencia del chi-cuadrado de bondad de ajuste, no requiere agrupar los datos en intervalos y trabaja directamente con los valores individuales de la muestra, lo que lo hace especialmente adecuado para distribuciones continuas.
La idea central es comparar la función de distribución empírica \(F_n(x)\) —la proporción de observaciones menores o iguales que \(x\)— con la función de distribución teórica \(F_0(x)\) bajo la hipótesis nula. El estadístico de contraste es la máxima discrepancia en valor absoluto entre ambas funciones.
Por ejemplo, si se registran los tiempos de respuesta de 25 servidores y se quiere saber si siguen una distribución Exponencial con tasa λ = 0,5, el test KS cuantifica cuánto se aleja la distribución empírica de esa Exponencial y calcula la probabilidad de que esa diferencia sea atribuible al azar de muestreo.
El estadístico \(D_n\) sigue la distribución de Kolmogorov bajo la hipótesis nula cuando los parámetros de la distribución son conocidos y no se estiman con los propios datos. El test es siempre bilateral: detecta cualquier tipo de desviación respecto al modelo teórico, en cualquier región de la distribución.
Hipótesis y estadístico
\(H_0\): la muestra proviene de la distribución teórica \(F_0\)
\(H_1\): la muestra no proviene de \(F_0\)
\(D_n = \sup_x \left| F_n(x) - F_0(x) \right|\)
Calculadora
Introduce los datos de la muestra separados por comas, selecciona la distribución teórica e introduce sus parámetros conocidos.
Contraste rápido
Se ordenan los datos de menor a mayor: \(x_{(1)} \leq x_{(2)} \leq \cdots \leq x_{(n)}\). La función de distribución empírica \(F_n\) es la función escalonada que salta en \(1/n\) en cada observación. El estadístico \(D_n\) mide la máxima distancia entre \(F_n\) y la distribución teórica \(F_0\), considerando tanto el valor justo antes como justo después de cada salto:
\(D_n = \max_{1 \leq i \leq n}\left\{ \left|\frac{i}{n} - F_0(x_{(i)})\right|,\, \left|\frac{i-1}{n} - F_0(x_{(i)})\right| \right\}\)
Bajo \(H_0\), la distribución de \(\sqrt{n}\,D_n\) converge a la distribución de Kolmogorov. El p-valor se obtiene mediante la fórmula asintótica:
\(p \approx 2\sum_{k=1}^{\infty}(-1)^{k-1}\exp\!\left(-2k^2 n D_n^2\right)\)
Esta aproximación es fiable para \(n \geq 20\). Con muestras más pequeñas, el p-valor es aproximado y conviene interpretar los resultados con cautela. Si los parámetros de la distribución se han estimado con los propios datos (en lugar de ser conocidos de antemano), los p-valores calculados con esta fórmula son demasiado grandes: el test resulta conservador. En ese caso, para normalidad se recomienda el test de Lilliefors; para otras distribuciones, existen variantes análogas con correcciones específicas.
¿Qué calcula esta herramienta?
Esta calculadora recibe los valores individuales de la muestra, la distribución teórica elegida (Normal, Uniforme o Exponencial) con sus parámetros conocidos, y el nivel de significación. Ordena los datos, calcula la función de distribución empírica y la teórica en cada punto muestral, obtiene el estadístico \(D_n\) y el p-valor aproximado mediante la distribución de Kolmogorov, y emite una decisión de contraste automática.
También muestra una tabla con los valores ordenados, las probabilidades acumuladas empíricas y teóricas en cada punto, y la discrepancia \(|F_n - F_0|\). El gráfico superpone la función escalonada empírica y la curva teórica, con una línea roja que marca la máxima separación \(D_n\).
Fórmula utilizada
Para la distribución Normal(\(\mu, \sigma\)):
\(F_0(x) = \Phi\!\left(\frac{x-\mu}{\sigma}\right) = \frac{1}{2}\!\left[1 + \mathrm{erf}\!\left(\frac{x-\mu}{\sigma\sqrt{2}}\right)\right]\)
Para la distribución Uniforme(\(a, b\)):
\(F_0(x) = \frac{x - a}{b - a}, \quad a \leq x \leq b\)
Para la distribución Exponencial(\(\lambda\)):
\(F_0(x) = 1 - e^{-\lambda x}, \quad x \geq 0\)
Ejemplo de uso
Un investigador mide la presión arterial sistólica (en mmHg) de 12 pacientes: 118, 122, 130, 115, 128, 125, 119, 135, 121, 127, 124, 131. Quiere contrastar si estos valores son compatibles con una distribución Normal con media 125 y desviación típica 6 (parámetros de referencia conocidos de estudios previos). Introduce los datos, selecciona «Normal», indica μ = 125 y σ = 6, fija α = 0,05 y pulsa calcular. El test indicará si hay evidencia para rechazar el modelo Normal propuesto.
En ingeniería de fiabilidad, el test KS se usa frecuentemente para contrastar si los tiempos de fallo siguen una distribución Exponencial o Weibull con parámetros de diseño. En ciencias naturales y sociales se emplea para verificar el supuesto de normalidad cuando los parámetros son conocidos de antemano, o para comparar distribuciones de tiempos de espera con un modelo Exponencial teórico.
Cómo interpretar el resultado
Si el p-valor es menor que \(\alpha\), se rechaza \(H_0\) y se concluye que hay evidencia estadística de que los datos no provienen de la distribución teórica especificada. Si el p-valor es mayor o igual que \(\alpha\), no hay evidencia suficiente para rechazar el modelo con ese nivel de significación.
El gráfico de las funciones de distribución permite identificar en qué zona de valores se produce la mayor discrepancia. La línea roja vertical marca el punto de máxima separación \(D_n\): si se sitúa en la cola izquierda, los datos tienen menos masa de la esperada en valores bajos; si aparece en la cola derecha, lo contrario.
Un no rechazo de \(H_0\) no significa que los datos «sean» de la distribución elegida: solo indica que son compatibles con ese modelo al nivel de significación elegido. Con muestras pequeñas, el test tiene poca potencia para detectar desviaciones moderadas.
Preguntas frecuentes
- ¿Cuándo usar el test KS en lugar del chi-cuadrado de bondad de ajuste? El test KS es preferible para distribuciones continuas y muestras no muy grandes, porque no requiere agrupar datos en intervalos y es más potente en ese contexto. El chi-cuadrado es más adecuado para datos categóricos o cuando se trabaja con grandes muestras de datos continuos previamente agrupados.
- ¿Qué ocurre si estimo los parámetros con los propios datos? Si los parámetros de la distribución teórica se estiman con la misma muestra, el test KS estándar es conservador: los p-valores son mayores de lo que deberían, lo que reduce la potencia. Para normalidad con parámetros estimados usa el test de Lilliefors; para otras distribuciones existen variantes análogas.
- ¿El test KS funciona para distribuciones discretas? No está diseñado para distribuciones discretas. Con ellas, la distribución del estadístico \(D_n\) bajo \(H_0\) cambia y la aproximación de Kolmogorov es inexacta. Para datos discretos (recuentos por categoría), usa el chi-cuadrado de bondad de ajuste.
- ¿Cuántas observaciones se necesitan? Para que la aproximación asintótica del p-valor sea fiable se recomienda \(n \geq 20\). Con muestras más pequeñas el p-valor es aproximado y la potencia para detectar desviaciones moderadas es baja.
- ¿El test es siempre bilateral? Sí. El estadístico \(D_n = \sup|F_n - F_0|\) mide la máxima discrepancia en cualquier dirección, de modo que el test detecta tanto exceso como defecto de masa respecto al modelo teórico en cualquier región. No existe una versión estándar unilateral del test KS de una muestra.
- ¿Qué diferencia hay con el test KS de dos muestras? El test de una muestra (bondad de ajuste) compara los datos con una distribución teórica completamente especificada. El test de dos muestras contrasta si dos muestras independientes provienen de la misma distribución, sin necesidad de especificar cuál es esa distribución.