Tanto la Estadística Paramétrica y la no Paramétrica son parte de la Estadística Inferencial que a su vez hace parte de la Estadística en si.
La estadística Inferencial comprende métodos y procedimientos que que por medio de la inducción determina propiedades de una población estadística, a partir de una parte de esta.
1.PARÁMETRO DEFINICIÓN
Se conoce como parámetro al dato que se considera como imprescindible y orientativo para lograr evaluar o valorar una determinada situación. A partir de un parámetro, una cierta circunstancia puede comprenderse o ubicarse en perspectiva. Función definida sobre valores numéricos que caracteriza una población o un modelo.
2.Parametro estadístico :
Existen tres grandes grupos de parámetros: de posición, dispersión y forma.
Las medidas de posición posibilitan la identificación del valor alrededor del cual se agrupan mayormente los datos. Existen dos tipos de parámetros de dispersión:
Los de tendencia central (media, moda y mediana).
Los de posición no central (percentiles, deciles y cuartiles).
Por su parte, las medidas de dispersión sirven para resumir cuál es la distribución de los datos. El problema de estos parámetros es que por sí mismos resultan insuficientes al simplificar en exceso la información, por lo que se hace necesario que se acompañen de otros parámetros accesorios que den información sobre la heterogeneidad de los datos.
Parte de la inferencia estadística que utiliza estadísticos y criterios de resolución fundamentados en distribuciones conocidas.
Esta es mas confiable que la no Paramétrica, porque nos da más exactitud y nos permite conocer con más validez los resultados del rechazo o aceptación de la muestra de nuestra prueba de hipótesis.
Los parámetros de forma indican la forma que presenta el histograma de los datos, siendo la representación más habitual la de campana de Gauss. Aquí cabría destacar los coeficientes de asimetría y curtosis.
Las técnicas estadísticas de estimación de parámetros, intervalos de confianza y prueba de hipótesis son, en conjunto, denominadas estadística paramétrica y son aplicadas básicamente a variables continuas. Estas técnicas se basan en especificar una forma de distribución de la variable aleatoria y de los estadísticos derivados de los datos.
En estadística paramétrica se asume que la población de la cual la
muestra es extraída es normal o aproximadamente normal. Esta propiedad es
necesaria para que la prueba de hipótesis sea válida.
Las pruebas paramétricas asumen distribuciones estadísticas subyacentes
a los datos. Por tanto, deben cumplirse algunas condiciones de validez, de modo
que el resultado de la prueba paramétrica sea fiable.
Por ejemplo, la prueba t de Student para dos muestras independientes será fiable solo si cada muestra se ajusta a una distribución normal y si las varianzas son homogéneas.
La estadística inferencial paramétrica hace suposiciones
específicas acerca de la población o poblaciones que se muestrean. De allí la
importancia del Teorema del Límite Central para esta clase de inferencias (el
supuesto de normalidad es parte fundamental de las pruebas paramétricas).Los
métodos descritos con anterioridad. (Estimación puntual, estimación de
intervalo y pruebas de hipótesis) en su forma paramétrica se derivan
principalmente de trabajos realizados por Neyman y Pearson como proyecto
conjunto.
De hecho su
trabajo se dirigió al problema principal de las pruebas de hipótesis: Construir
una teoría matemática de pruebas que se utilicen para reducir la frecuencia de
conclusiones erróneas respecto a las hipótesis consideradas. Como resultado se
definieron una serie de estadísticos de prueba que, siendo fijo el Error Tipo
I, dejan libre la probabilidad de Error Tipo II. De allí que la teoría de
Neyman y Pearson haya dejado a un lado la dependencia entre probabilidades de
Errores Tipo I y Tipo II para centrarse en restringir el tamaño de la región
crítica.
Los análisis
paramétricos partes de los siguientes supuestos:
1.
La distribución poblacional de la
variable dependiente es normal: el universo tiene distribución normal.
2.
El nivel de medición de las
variables es por intervalos de razón.
3.
Cuando dos o más poblaciones son
estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen
una dispersión similar en sus distribuciones.
Estadística No Paramétrica:
La
estadística no paramétrica es una rama de la estadística que estudia las
pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los
llamados criterios paramétricos. Su distribución no puede ser definida a
priori, pues son los datos observados los que la determinan. La utilización de
estos métodos se hace recomendable cuando no se puede asumir que los datos se
ajusten a una distribución conocida, cuando el nivel de medida empleado no sea,
como mínimo, de intervalo.
Las
principales pruebas no paramétricas son las siguientes:
Prueba χ² de Pearson
Prueba binomial
Prueba de Anderson-Darling
Prueba de Cochran
Prueba de Cohen kappa
Prueba de Fisher
Prueba de Friedman
Prueba de Kendal
La
estadística no paramétrica es una rama de la estadística no basada en familias
parametrizadas de distribuciones de probabilidad. Incluye estadística descriptiva
e inferenciales. Los parámetros típicos son la media, la varianza, entre otras.
A diferencia de las estadística paramétrica, las estadística no paramétrica no
hacen suposiciones acerca de las distribuciones de probabilidad de las
variables que se están evaluando.
Los
métodos no paramétricos son ampliamente utilizados para estudiar las
poblaciones que toman un orden clasificado (como revisiones de películas que
reciben de una a cuatro estrellas). El uso de métodos no paramétricos puede ser
necesario cuando los datos tienen una clasificación pero no una interpretación
numérica clara, como cuando se evalúan las preferencias. En términos de niveles
de medición, los métodos no paramétricos resultan en datos “ordinales”.
Como los métodos no paramétricos hacen menos suposiciones, su
aplicabilidad es mucho más amplia que los métodos paramétricos
correspondientes. En particular, pueden aplicarse en situaciones en las que se
sabe menos sobre la aplicación en cuestión. Además, debido a la dependencia de
menos suposiciones, los métodos no paramétricos son más robustos.
Debido a esta
simplicidad y a su mayor robustez, los métodos no paramétricos son vistos por
algunos estadísticos como ideales dado que dejan menos espacio para uso
indebido y malentendidos. La mayor aplicabilidad y mayor robustez de las
pruebas no paramétricas tiene un costo: en los casos en que una prueba
paramétrica sería apropiada, las pruebas no paramétricas tienen menos potencia.
En otras palabras, se puede requerir un tamaño de muestra mayor para sacar
conclusiones con el mismo grado de confianza.
Si
volvemos al ejemplo de la prueba t veremos que existen supuestos sobre las
distribuciones poblacionales de la media muestral y del valor de la media
poblacional. En el caso de que uno de sus supuestos no se cumpla, las técnicas
paramétricas (si no son robustas) generarán resultados erróneos y por ende las
conclusiones de sus hipótesis serán inválidas.
Las
técnicas estadísticas no paramétricas ofrecen menor rigidez con respecto a sus
condiciones que las técnicas paramétricas, aunque sacrificando para ello su
potencia de explicación. Son procedimientos estadísticos que poseen ciertas
propiedades bajo supuestos generales y sin importar la población de la cual los
datos han sido obtenidos.
La mayoría de las veces estos
supuestos se refieren, por ejemplo, a la simetría o continuidad de la
distribución poblacional. La inferencia no paramétrica constituye un campo muy
amplio que va desde las equivalencias no paramétricas de las pruebas
paramétricas existentes hasta llegar a las estimaciones de punto e intervalo de
constantes poblacionales que no pueden ser llevadas a modelos paramétricos por su
complejidad (percentiles, deciles, otros)
El
rápido desarrollo de las técnicas no paramétricas ha sido en parte por las
siguientes razones:
Las
técnicas no paramétricas hacen supuestos muy generales respecto a la
distribución de probabilidad que siguen los datos. En particular, dejan de lado
el supuesto de normalidad en una población.
Son aplicables
cuando la teoría de normalidad no puede ser utilizada, por ejemplo cuando no se
trabaja con magnitudes de observaciones sino con sus rangos.
ENTONCES PODEMOS DECIR QUE:
PARAMÉTRICO = ESTRICTO
NO PARAMÉTRICO = NO ESTRICTO
BIBLOGRAFÍA:
Manuel Fabricio Reyes Wagnio, Yesennia Kathiuska Vargas Matute, Freddy Mauricio Burgos Robalino, Sulie M. Navarrete . (Mayo 2018). Estadística una herramienta para la Gestión . Babahoyo, Ecuador: CIDEPRO.
https://economipedia.com/definiciones/diferencia-entre-estadistica-parametrica-y-no-parametrica.html#:~:text=La%20estad%C3%ADstica%20param%C3%A9trica%20utiliza%20c%C3%A1lculos,utilizar%20t%C3%A9cnicas%20de%20estad%C3%ADstica%20param%C3%A9trica.
https://es.wikipedia.org/wiki/Estad%C3%ADstica_inferencial
No hay comentarios:
Publicar un comentario