martes, 3 de noviembre de 2020

Probabilidades


LA PROBABILIDAD:



En estadística definimos como probabilidad como la posibilidad relativa de que ocurra un evento, y ese evento puede ser estimable o calculable.

Nociones Básicas 

1.Experimento Aleatorio

Con la finalidad de facilitar la comprensión de lo que sigue, definiremos algunos términos.

1.1. Experimento Definición:

Es un proceso mediante el cual se obtiene un resultado de una observación. Además, un experimento puede ser determinístico y no determinístico.

1.2. Experimento Determinístico Definición:

Es cuando el resultado de la observación de es determinado en forma precisa y por las condiciones bajo las cuales se realiza dicho experimento.

1.3 Experimento Aleatorio Definición:

Un experimento es aleatorio o no determinístico cuando el resultado de la observación no puede predecir con exactitud antes de realizar el experimento.

 2) Ejemplos de experimentos determinísticos:

a)      Observa la suma de dos números naturales pares

b)      Observar el color de una bola extraída de una urna que contiene sólo bolas negras

c)      Observa el área barrida durante cierto periodo de tiempo por los planetas obedeciendo las leyes de Kepler

3) Ejemplos de experimentos No determinísticos:

a)      Lanzar un dado y observar el número que aparece en la cara superior.

b)      Lanzar una moneda 8 veces y observar la sucesión de caras.

c)      Contar el número de piezas defectuosas producidas por una maquina X en un día determinado.

4)Características de un Experimento aleatorio

1. Cada experimento puede ser repetido indefinidamente (cuantas veces sea), sin cambiar las condiciones de esta.

2. No se conoce un particular valor a priori, sin embargo, puede es posible describir el conjunto de todos los posibles resultados del experimento.

3. Cuando el experimento es repetido un número grande de veces, aparece un modelo de regularidad, esto es habrá una estabilidad de la fracción h= f/n (frecuencia Relativa), donde “n” es el número de repeticiones y f es el número de éxitos de un particular resultado establecido antes de la realización del experimento. 


5) Espacio Muestral 
En simples palabras es el conjunto de todos los posibles resultados del experimento. Un ejemplo serio el siguiente:

Consideremos el experimento aleatorio de lanzar un dado y observar el número que aparece en la cara superior. Entonces el espacio muestral seria así:
Posibles resultados por caras
 

   Ω={1,2,3,4,5,6}
  
Son los 6 posibles resultados que puede arrojar el dado. 
Otro ejemplo será el siguiente:
Supongamos que de un lote de 20 celulares hay 8 defectuosos, Se selecciona un articula al azar y se le saca, uno después de otro hasta obtener el ultimo celular defectuoso. Luego se cuenta el número total de artículos sacados del lote. Entonces el espacio muestral que proporciona mayor información con relación a este experimento es. 

Ω={9,10,11,12,13,14,15,16,17,18,19,20}
El espacio muestral serían los 12 celulares que no son defectuosos. 



Un ejemplo mas:
Sea el Experimento: lanzar 3 monedas y observar el resultado.
El espacio muestral que nos proporciona mayor información con respecto a este experimento es…

Ω={ccc,ccs,csc,scc,css,scs,ssc,sss}

                                                               C = cara y  S= sello 


Y como solo tenemos 2 posibles resultados de cada moneda entonces podemos también estimarlo con 2 elevado a la 3, y nos sale como resultado 8 posibles combinaciones.

Reglas de adicción de probabilidades

P(AB) = P(A) + P(B) − P(AB)

Donde:

·         P(A): probabilidad de que ocurra el evento A.

·         P(B): probabilidad de que ocurra el evento B.

·         P(AB): probabilidad de que ocurra el evento A o el evento B.

·         P(AB): probabilidad de que ocurra el evento A y el evento B a la vez.

Ejemplos si son mutuamente excluyentes

Sean A y B dos eventos de un cierto experimento aleatorio, se dice que estos eventos son mutuamente excluyentes si no pueden ocurrir juntos 

  Entonces P(AB) = 0

 

En un experimento aleatorio consiste en seleccionar un alumno de la universidad UPAO y observar su edad. Sea el evento A: el alumno seleccionado al azar tiene más de 24 años y B: el alumno elegido al azar tiene menos de 21 años.

 

Por lo tanto, el evento (AB) = 0 y consecuente los eventos A y B son mutuamente excluyentes.

 

REGLAS DE LA MULTIPLICACIÓN 

Aquí estimaremos la probabilidad de que la ocurrencia de dos eventos sea simultánea. Hay dos reglas de multiplicación: Regla general de multiplicación y Regla especial de multiplicación.

Regla especial de multiplicación.

Requiere que dos eventos, A y B, sean independientes. Lo son si el hecho de que ocurra uno no altera la probabilidad de que ocurra el otro.

Una forma de entender la independencia consiste en suponer que los eventos A y B  Ocurren en diferentes tiempos. Por ejemplo, cuando el evento B ocurre después del 
evento A, ¿influye A en la probabilidad de que el evento B ocurra? Si la respuesta es no, entonces A y B son independientes.


En el caso de dos eventos que son independientes, A y B, la probabilidad de que A y B ocurran se determina multiplicando las dos probabilidades, tal que es la regla especial dela multiplicación es:

P(AnB) = P(A) P(B)

Ejemplo:

El dueño de un hotel ha modernizado sus instalaciones. Observó que el 20% de los autos que pasan por ahí, se detienen a alquilar un cuarto. ¿Cuál es la probabilidad de que los próximos dos carros se detengan? Asumiendo que son eventos independientes:

P(AnB) = P(A) P(B) = 0.2*0.8=.04

¿Cuál es la probabilidad de que el primer auto pare y el segundo no lo haga?

P(AnB) = P(A)(1-P(B))=0.2*0.8=.16

 

El dueño de un hotel ha modernizado sus instalaciones. Observó que el 20% de los autos que pasan por ahí, se detienen a alquilar un cuarto. ¿Cuál es la probabilidad de que los próximos dos carros se detengan? Asumiendo que son eventos independientes:

P(AnB) = P(A) P(B) = 0.2*0.8=.04

¿Cuál es la probabilidad de que el primer auto pare y el segundo no lo haga?

P(AnB) = P(A)(1-P(B))=0.2*0.8=.16

Regla general de la multiplicación.

 Si dos eventos no son independientes, se dice que son dependientes. Se considera que el primer evento determina la probabilidad del segundo. Si dos eventos, A y B son dependientes, la probabilidad conjunta de que ambos ocurran sede termina multiplicando la probabilidad de que ocurra el evento A por la probabilidad condicional de que ocurra el evento B, dado que A ha ocurrido.

P(AnB) = P(A) P(B/A)


Lo anterior se lee "la probabilidad conjunta de A y B es igual al producto de la probabilidad de A por la probabilidad de B, dado que ha ocurrido A".

Por ejemplo:            

En una ciudad se realizó una encuesta y a cada encuestado se le hicieron sólo dos preguntas:

¿Es el último dígito de su número de seguro social un número impar?

¿Ha mentido alguna vez en su solicitud de empleo?

La segunda pregunta es delicada y es de suponer que las personas no dirán la verdad por diversas razones, sobre todo si la respuesta es sí. Para eliminar ese posible sesgo, se pidió los encuestados que lanzaran una moneda al aire y respondieran a la pregunta (a) si el resultado es águila y a la pregunta (b) si el resultado era sol. El 37 por ciento de las personas respondieron que sí.

¿Cuál es la probabilidad de que un encuestado haya respondido a la pregunta delicada (b) afirmativamente?

Definimos los eventos:

A: El encuestado responde afirmativamente.

a: El encuestado contesta la pregunta (a)
b: El encuestado contesta la pregunta (b)

Sabemos que P(A)=0.37

Como las preguntas se determinaron lanzando una moneda, sabemos que P(a)= 0.50 y P(b)= 0.50

Sabemos cuáles son las respuestas a la pregunta (a). El último dígito de la mitad de todos los números de seguro social es impar (del 0 al 9 hay 5 números divisibles entre 2). Por lo tanto la probabilidad de que la respuesta (a) sea afirmativa, P(A|a)= 0.50

Lo que necesitamos saber es P(A|b), que es la probabilidad de que contestó afirmativamente, dado que respondió a la pregunta (b).

Podemos hallar esa probabilidad utilizando las probabilidades que tenemos

Sabemos que los eventos (a) y (b) son mutuamente excluyentes y colectivamente exhaustivos. También sabemos que las probabilidades conjuntas de (Ana)(Anb) también son mutuamente excluyentes y colectivamente exhaustivas y su unión es A.

P(A) = P ( A n a) + P (A n B) 

Aplicaciones de la probabilidad en la Electrónica: 

La Ingeniería electrónica no está excluida de la probabilidad, ni mucho menos de la estadística.

Uno de las aplicaciones que tiene es utilizarla a la hora de hacer placas PCB, para saber dónde van a ir las pistas, ya que hay muchas posibles combinaciones que se ajustan a lo que queremos.

La carrera de ingeniería electrónica no es ajena a estos procedimientos. Es imposible descartar comportamientos probabilísticos en cualquier diseño experimental especialmente cuando de circuitos se trata. La corriente eléctrica está suficientemente estudiada como para determinar su comportamiento bajo ciertas condiciones impuestas con la creación de elementos de control. 

Biblografía:

Maximo Mitacc Meza. (1996). PROBABILIDADES . En TOPICOS DE ESTADISITCA DESCRIPTIVA Y PROBABILIDAD(211). LIMA PERÚ: San Marcos .

http://estadistica-electronica.blogspot.com/

https://concepto.de/probabilidad/

https://matemovil.com/regla-de-la-suma-o-adicion-de-probabilidades/

https://probabilidadyestadisticados.weebly.com/blog/probabilidad-y-estadistica



Aplicaciones de la probabilidad en la Electrónica: 


 

domingo, 1 de noviembre de 2020

Estadística Paramétrica y No Paramétrica Definición y Criterios

Tanto la Estadística Paramétrica y la no Paramétrica son parte de la Estadística Inferencial que a su vez hace parte de la Estadística en si.

La estadística Inferencial comprende métodos y procedimientos que que por medio de la inducción determina propiedades de una población estadística, a partir de una parte de esta.


1.PARÁMETRO DEFINICIÓN

Se conoce como parámetro al dato que se considera como imprescindible y orientativo para lograr evaluar o valorar una determinada situación. A partir de un parámetro, una cierta circunstancia puede comprenderse o ubicarse en perspectiva. Función definida sobre valores numéricos que caracteriza una población o un modelo.

2.Parametro estadístico :

 Existen tres grandes grupos de parámetros: de posición, dispersión y forma. 

Las medidas de posición posibilitan la identificación del valor alrededor del cual se agrupan mayormente los datos. Existen dos tipos de parámetros de dispersión:

Los de tendencia central (media, moda y mediana).

Los de posición no central (percentiles, deciles y cuartiles).

Por su parte, las medidas de dispersión sirven para resumir cuál es la distribución de los datos. El problema de estos parámetros es que por sí mismos resultan insuficientes al simplificar en exceso la información, por lo que se hace necesario que se acompañen de otros parámetros accesorios que den información sobre la heterogeneidad de los datos.

Parte de la inferencia estadística que utiliza estadísticos y criterios de resolución fundamentados en distribuciones conocidas. 

Esta es mas confiable que la no Paramétrica, porque nos da más exactitud y nos permite conocer con más validez  los resultados del rechazo o aceptación de la muestra de nuestra prueba de hipótesis.

Los parámetros de forma indican la forma que presenta el histograma de los datos, siendo la representación más habitual la de campana de Gauss. Aquí cabría destacar los coeficientes de asimetría y curtosis.

Imagen de la Campana de Gauss, sacada de sitio: https://laplazuela.net/


3.Estadística Paramétrica

Las técnicas estadísticas de estimación de parámetros, intervalos de confianza y prueba de hipótesis son, en conjunto, denominadas estadística paramétrica y son aplicadas básicamente a variables continuas. Estas técnicas se basan en especificar una forma de distribución de la variable aleatoria y de los estadísticos derivados de los datos.

En estadística paramétrica se asume que la población de la cual la muestra es extraída es normal o aproximadamente normal. Esta propiedad es necesaria para que la prueba de hipótesis sea válida.

Las pruebas paramétricas asumen distribuciones estadísticas subyacentes a los datos. Por tanto, deben cumplirse algunas condiciones de validez, de modo que el resultado de la prueba paramétrica sea fiable.

Por ejemplo, la prueba t de Student para dos muestras independientes será fiable solo si cada muestra se ajusta a una distribución normal y si las varianzas son homogéneas.

La estadística inferencial paramétrica hace suposiciones específicas acerca de la población o poblaciones que se muestrean. De allí la importancia del Teorema del Límite Central para esta clase de inferencias (el supuesto de normalidad es parte fundamental de las pruebas paramétricas).Los métodos descritos con anterioridad. (Estimación puntual, estimación de intervalo y pruebas de hipótesis) en su forma paramétrica se derivan principalmente de trabajos realizados por Neyman y Pearson como proyecto conjunto.

De hecho su trabajo se dirigió al problema principal de las pruebas de hipótesis: Construir una teoría matemática de pruebas que se utilicen para reducir la frecuencia de conclusiones erróneas respecto a las hipótesis consideradas. Como resultado se definieron una serie de estadísticos de prueba que, siendo fijo el Error Tipo I, dejan libre la probabilidad de Error Tipo II. De allí que la teoría de Neyman y Pearson haya dejado a un lado la dependencia entre probabilidades de Errores Tipo I y Tipo II para centrarse en restringir el tamaño de la región crítica.

Los análisis paramétricos partes de los siguientes supuestos:

1.           La distribución poblacional de la variable dependiente es normal: el universo tiene distribución normal.

2.           El nivel de medición de las variables es por intervalos de razón.

3.           Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.

 

 

Estadística No Paramétrica:

La estadística no paramétrica es una rama de la estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución conocida, cuando el nivel de medida empleado no sea, como mínimo, de intervalo.

Las principales pruebas no paramétricas son las siguientes:

Prueba χ² de Pearson

Prueba binomial

Prueba de Anderson-Darling

Prueba de Cochran

Prueba de Cohen kappa

Prueba de Fisher

Prueba de Friedman

Prueba de Kendal

La estadística no paramétrica es una rama de la estadística no basada en familias parametrizadas de distribuciones de probabilidad. Incluye estadística descriptiva e inferenciales. Los parámetros típicos son la media, la varianza, entre otras. A diferencia de las estadística paramétrica, las estadística no paramétrica no hacen suposiciones acerca de las distribuciones de probabilidad de las variables que se están evaluando.

Los métodos no paramétricos son ampliamente utilizados para estudiar las poblaciones que toman un orden clasificado (como revisiones de películas que reciben de una a cuatro estrellas). El uso de métodos no paramétricos puede ser necesario cuando los datos tienen una clasificación pero no una interpretación numérica clara, como cuando se evalúan las preferencias. En términos de niveles de medición, los métodos no paramétricos resultan en datos “ordinales”.

Como los métodos no paramétricos hacen menos suposiciones, su aplicabilidad es mucho más amplia que los métodos paramétricos correspondientes. En particular, pueden aplicarse en situaciones en las que se sabe menos sobre la aplicación en cuestión. Además, debido a la dependencia de menos suposiciones, los métodos no paramétricos son más robustos.

 

Debido a esta simplicidad y a su mayor robustez, los métodos no paramétricos son vistos por algunos estadísticos como ideales dado que dejan menos espacio para uso indebido y malentendidos. La mayor aplicabilidad y mayor robustez de las pruebas no paramétricas tiene un costo: en los casos en que una prueba paramétrica sería apropiada, las pruebas no paramétricas tienen menos potencia. En otras palabras, se puede requerir un tamaño de muestra mayor para sacar conclusiones con el mismo grado de confianza.

Si volvemos al ejemplo de la prueba t veremos que existen supuestos sobre las distribuciones poblacionales de la media muestral y del valor de la media poblacional. En el caso de que uno de sus supuestos no se cumpla, las técnicas paramétricas (si no son robustas) generarán resultados erróneos y por ende las conclusiones de sus hipótesis serán inválidas.

Las técnicas estadísticas no paramétricas ofrecen menor rigidez con respecto a sus condiciones que las técnicas paramétricas, aunque sacrificando para ello su potencia de explicación. Son procedimientos estadísticos que poseen ciertas propiedades bajo supuestos generales y sin importar la población de la cual los datos han sido obtenidos.

La mayoría de las veces estos supuestos se refieren, por ejemplo, a la simetría o continuidad de la distribución poblacional. La inferencia no paramétrica constituye un campo muy amplio que va desde las equivalencias no paramétricas de las pruebas paramétricas existentes hasta llegar a las estimaciones de punto e intervalo de constantes poblacionales que no pueden ser llevadas a modelos paramétricos por su complejidad (percentiles, deciles, otros)

El rápido desarrollo de las técnicas no paramétricas ha sido en parte por las siguientes razones:

Las técnicas no paramétricas hacen supuestos muy generales respecto a la distribución de probabilidad que siguen los datos. En particular, dejan de lado el supuesto de normalidad en una población.

Son aplicables cuando la teoría de normalidad no puede ser utilizada, por ejemplo cuando no se trabaja con magnitudes de observaciones sino con sus rangos.

ENTONCES PODEMOS DECIR QUE:

PARAMÉTRICO = ESTRICTO 

NO PARAMÉTRICO = NO ESTRICTO 


BIBLOGRAFÍA: 

Manuel Fabricio Reyes Wagnio, Yesennia Kathiuska Vargas Matute, Freddy Mauricio Burgos Robalino, Sulie M. Navarrete  . (Mayo 2018). Estadística una herramienta para la Gestión . Babahoyo, Ecuador: CIDEPRO.

https://economipedia.com/definiciones/diferencia-entre-estadistica-parametrica-y-no-parametrica.html#:~:text=La%20estad%C3%ADstica%20param%C3%A9trica%20utiliza%20c%C3%A1lculos,utilizar%20t%C3%A9cnicas%20de%20estad%C3%ADstica%20param%C3%A9trica.

https://es.wikipedia.org/wiki/Estad%C3%ADstica_inferencial

Estadística--4 Ejemplos Coeficiente de correlación lineal de Pearson

 Coeficiente de correlación lineal de Pearson Ejemplo1:   Se hizo una tabla muestra de las alturas redondeadas en centímetros (cm) y pesados...