logo móvil
Contáctanos

Bootstrap frente a Jackknife: Intervalos de confianza, comprobación de hipótesis, estimación de la densidad y regresión kernel

Autores: Blanco, Jessica; Cruz, Laura; Giraldo, Ramón

Idioma: Español

Editor: Universidad Pedagógica y Tecnológica de Colombia - UPTC

Año: 2024

Ver Artículo científico

Acceso abierto

Artículo científico


Categoría

Matemáticas

Licencia

CC BY – Atribución

Consultas: 44

Citaciones: Ciencia en Desarrollo Vol. 15 Núm. 2


Descripción

Se comparan los métodos Bootstrap y Jackknife en varios contextos estadísticos. Inicialmente usando estimaciones de coeficientes de variación obtenidos a partir de muestras de varios modelos de probabilidad (Normal, Gama, Binomial y Poisson) generadas por simulación de Monte Carlo. Con los resultados se evalúa sesgo y varianza los estimadores. También se estudia el desempeño de los dos procedimientos inferenciales considerados en problemas de una muestra, estimación de la densidad y regresión kernel. Los resultados muestran que en el caso del coeficiente de variación Jackknife tiene menor sesgo pero mayor error estándar. Bootstrap es más potente en este contexto. En lo referente a la estimación de la densidad (histograma y Kernel) y la estimación del ancho de banda en la estimación de la función de regresión Jackknife produce estimaciones más cercanas a las clásicas que las halladas con Bootstrap. Los correspondientes intervalos de confianza con Jackknife son más cortos que los establecidos con Bootstrap.

INTRODUCCIÓN

Dos métodos de remuestreo populares y ampliamente utilizados en el análisis de datos reales son Bootstrap [6, 10] y Jackknife [24, 25, 31]. Ambos son métodos estadísticos no paramétricos. Estas técnicas, que requieren alta computación, pueden ser utilizadas para estimar el sesgo y el error estándar de estimadores no tradicionales, especialmente útiles cuando la distribución muestral de un estimador es desconocida o no se puede definir matemáticamente, lo que impide el uso de los métodos clásicos de análisis estadístico. Las muestras de los datos observados nos permiten extraer conclusiones sobre la población de interés. Hoy en día, estos enfoques son viables gracias a la disponibilidad de computadoras de alta velocidad. Los intervalos de confianza basados en Bootstrap y otros métodos de remuestreo (por ejemplo, Jackknife) deben ser utilizados siempre que haya razones para dudar de las suposiciones de los intervalos de confianza paramétricos. Cuando la distribución subyacente de alguna estadística de interés es desconocida, estas estrategias pueden ser beneficiosas.

Los métodos Bootstrap y Jackknife son técnicas poderosas utilizadas en estadística para estimar la variabilidad de una estadística o evaluar la bondad de ajuste de un modelo estadístico. Mientras que el método Bootstrap realiza el remuestreo con reemplazo, el método Jackknife deja fuera sistemáticamente una observación a la vez. La elección del método depende del problema, y ambos métodos pueden ser útiles en diferentes escenarios. Bootstrap y Jackknife han sido utilizados y comparados en varios escenarios estadísticos. Entre otros, en regresión lineal [11, 33], regresión cuantil [15, 19], análisis de varianza [7, 8] y modelos lineales generalizados [21]. Bootstrap y Jackknife pueden ser utilizados en estimación de densidad con kernel y regresión con kernel para estimar la variabilidad de las funciones de densidad y regresión y, por lo tanto, definir intervalos de confianza. En este trabajo, exploramos la aplicabilidad de estos métodos en la estimación del ancho de banda en ambos escenarios, estimación de densidad con kernel y regresión con kernel. El análisis se realiza utilizando datos simulados en R [26].

Documentos Relacionados

Temas Virtualpro