domingo, 1 de noviembre de 2020

Estadística Paramétrica y No Paramétrica Definición y Criterios

Tanto la Estadística Paramétrica y la no Paramétrica son parte de la Estadística Inferencial que a su vez hace parte de la Estadística en si.

La estadística Inferencial comprende métodos y procedimientos que que por medio de la inducción determina propiedades de una población estadística, a partir de una parte de esta.


1.PARÁMETRO DEFINICIÓN

Se conoce como parámetro al dato que se considera como imprescindible y orientativo para lograr evaluar o valorar una determinada situación. A partir de un parámetro, una cierta circunstancia puede comprenderse o ubicarse en perspectiva. Función definida sobre valores numéricos que caracteriza una población o un modelo.

2.Parametro estadístico :

 Existen tres grandes grupos de parámetros: de posición, dispersión y forma. 

Las medidas de posición posibilitan la identificación del valor alrededor del cual se agrupan mayormente los datos. Existen dos tipos de parámetros de dispersión:

Los de tendencia central (media, moda y mediana).

Los de posición no central (percentiles, deciles y cuartiles).

Por su parte, las medidas de dispersión sirven para resumir cuál es la distribución de los datos. El problema de estos parámetros es que por sí mismos resultan insuficientes al simplificar en exceso la información, por lo que se hace necesario que se acompañen de otros parámetros accesorios que den información sobre la heterogeneidad de los datos.

Parte de la inferencia estadística que utiliza estadísticos y criterios de resolución fundamentados en distribuciones conocidas. 

Esta es mas confiable que la no Paramétrica, porque nos da más exactitud y nos permite conocer con más validez  los resultados del rechazo o aceptación de la muestra de nuestra prueba de hipótesis.

Los parámetros de forma indican la forma que presenta el histograma de los datos, siendo la representación más habitual la de campana de Gauss. Aquí cabría destacar los coeficientes de asimetría y curtosis.

Imagen de la Campana de Gauss, sacada de sitio: https://laplazuela.net/


3.Estadística Paramétrica

Las técnicas estadísticas de estimación de parámetros, intervalos de confianza y prueba de hipótesis son, en conjunto, denominadas estadística paramétrica y son aplicadas básicamente a variables continuas. Estas técnicas se basan en especificar una forma de distribución de la variable aleatoria y de los estadísticos derivados de los datos.

En estadística paramétrica se asume que la población de la cual la muestra es extraída es normal o aproximadamente normal. Esta propiedad es necesaria para que la prueba de hipótesis sea válida.

Las pruebas paramétricas asumen distribuciones estadísticas subyacentes a los datos. Por tanto, deben cumplirse algunas condiciones de validez, de modo que el resultado de la prueba paramétrica sea fiable.

Por ejemplo, la prueba t de Student para dos muestras independientes será fiable solo si cada muestra se ajusta a una distribución normal y si las varianzas son homogéneas.

La estadística inferencial paramétrica hace suposiciones específicas acerca de la población o poblaciones que se muestrean. De allí la importancia del Teorema del Límite Central para esta clase de inferencias (el supuesto de normalidad es parte fundamental de las pruebas paramétricas).Los métodos descritos con anterioridad. (Estimación puntual, estimación de intervalo y pruebas de hipótesis) en su forma paramétrica se derivan principalmente de trabajos realizados por Neyman y Pearson como proyecto conjunto.

De hecho su trabajo se dirigió al problema principal de las pruebas de hipótesis: Construir una teoría matemática de pruebas que se utilicen para reducir la frecuencia de conclusiones erróneas respecto a las hipótesis consideradas. Como resultado se definieron una serie de estadísticos de prueba que, siendo fijo el Error Tipo I, dejan libre la probabilidad de Error Tipo II. De allí que la teoría de Neyman y Pearson haya dejado a un lado la dependencia entre probabilidades de Errores Tipo I y Tipo II para centrarse en restringir el tamaño de la región crítica.

Los análisis paramétricos partes de los siguientes supuestos:

1.           La distribución poblacional de la variable dependiente es normal: el universo tiene distribución normal.

2.           El nivel de medición de las variables es por intervalos de razón.

3.           Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.

 

 

Estadística No Paramétrica:

La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo.

Las principales pruebas no paramétricas son las siguientes:

Prueba χ² de Pearson

Prueba binomial

Prueba de Anderson-Darling

Prueba de Cochran

Prueba de Cohen kappa

Prueba de Fisher

Prueba de Friedman

Prueba de Kendal

La estadística no paramétrica es una rama de la estadística no basada en familias parametrizadas de distribuciones de probabilidad. Incluye estadística descriptiva e inferenciales. Los parámetros típicos son la media, la varianza, entre otras. A diferencia de las estadística paramétrica, las estadística no paramétrica no hacen suposiciones acerca de las distribuciones de probabilidad de las variables que se están evaluando.

Los métodos no paramétricos son ampliamente utilizados para estudiar las poblaciones que toman un orden clasificado (como revisiones de películas que reciben de una a cuatro estrellas). El uso de métodos no paramétricos puede ser necesario cuando los datos tienen una clasificación pero no una interpretación numérica clara, como cuando se evalúan las preferencias. En términos de niveles de medición, los métodos no paramétricos resultan en datos “ordinales”.

Como los métodos no paramétricos hacen menos suposiciones, su aplicabilidad es mucho más amplia que los métodos paramétricos correspondientes. En particular, pueden aplicarse en situaciones en las que se sabe menos sobre la aplicación en cuestión. Además, debido a la dependencia de menos suposiciones, los métodos no paramétricos son más robustos.

 

Debido a esta simplicidad y a su mayor robustez, los métodos no paramétricos son vistos por algunos estadísticos como ideales dado que dejan menos espacio para uso indebido y malentendidos. La mayor aplicabilidad y mayor robustez de las pruebas no paramétricas tiene un costo: en los casos en que una prueba paramétrica sería apropiada, las pruebas no paramétricas tienen menos potencia. En otras palabras, se puede requerir un tamaño de muestra mayor para sacar conclusiones con el mismo grado de confianza.

Si volvemos al ejemplo de la prueba t veremos que existen supuestos sobre las distribuciones poblacionales de la media muestral y del valor de la media poblacional. En el caso de que uno de sus supuestos no se cumpla, las técnicas paramétricas (si no son robustas) generarán resultados erróneos y por ende las conclusiones de sus hipótesis serán inválidas.

Las técnicas estadísticas no paramétricas ofrecen menor rigidez con respecto a sus condiciones que las técnicas paramétricas, aunque sacrificando para ello su potencia de explicación. Son procedimientos estadísticos que poseen ciertas propiedades bajo supuestos generales y sin importar la población de la cual los datos han sido obtenidos.

La mayoría de las veces estos supuestos se refieren, por ejemplo, a la simetría o continuidad de la distribución poblacional. La inferencia no paramétrica constituye un campo muy amplio que va desde las equivalencias no paramétricas de las pruebas paramétricas existentes hasta llegar a las estimaciones de punto e intervalo de constantes poblacionales que no pueden ser llevadas a modelos paramétricos por su complejidad (percentiles, deciles, otros)

El rápido desarrollo de las técnicas no paramétricas ha sido en parte por las siguientes razones:

Las técnicas no paramétricas hacen supuestos muy generales respecto a la distribución de probabilidad que siguen los datos. En particular, dejan de lado el supuesto de normalidad en una población.

Son aplicables cuando la teoría de normalidad no puede ser utilizada, por ejemplo cuando no se trabaja con magnitudes de observaciones sino con sus rangos.

ENTONCES PODEMOS DECIR QUE:

PARAMÉTRICO = ESTRICTO 

NO PARAMÉTRICO = NO ESTRICTO 


BIBLOGRAFÍA: 

Manuel Fabricio Reyes Wagnio, Yesennia Kathiuska Vargas Matute, Freddy Mauricio Burgos Robalino, Sulie M. Navarrete  . (Mayo 2018). Estadística una herramienta para la Gestión . Babahoyo, Ecuador: CIDEPRO.

https://economipedia.com/definiciones/diferencia-entre-estadistica-parametrica-y-no-parametrica.html#:~:text=La%20estad%C3%ADstica%20param%C3%A9trica%20utiliza%20c%C3%A1lculos,utilizar%20t%C3%A9cnicas%20de%20estad%C3%ADstica%20param%C3%A9trica.

https://es.wikipedia.org/wiki/Estad%C3%ADstica_inferencial

No hay comentarios:

Publicar un comentario

Estadística--4 Ejemplos Coeficiente de correlación lineal de Pearson

 Coeficiente de correlación lineal de Pearson Ejemplo1:   Se hizo una tabla muestra de las alturas redondeadas en centímetros (cm) y pesados...