Acerca de algunas distribuciones

octubre 13, 2008

En lo que sigue vamos a intentar explicar de donde vienen las distribuciones mas comunes. Los casos de la Poisson y la Normal son los mas interesantes.

Para las 3 primeras consideremos que tenemos una moneda que al tirarla tiene probabilidad p de salir cara y 1-p de salir ceca.

1) Distribucion Binomial

Si X\sim Bi(n,p) entonces p_x(k)={n\choose k}p^k(1-p)^{n-k} y X cuenta el numero de caras en n tiradas.

2) Distribucion Geometrica

Si X\sim Ge(p) entonces p_x(k)=p(1-p)^{k-1} y X cuenta el numero de tiradas hasta la primer cara.

3) Distribucion Binomial Negativa

Si X\sim BN(r,p) entonces p_x(k)={k-1\choose r-1}p^r(1-p)^{k-r} y X cuenta el numero de tiradas hasta la r-esima cara.

4) Distribucion Poisson

Si X\sim P(\lambda) entonces p_x(k)={{\lambda}^k\over k!}e^{-\lambda}. Para entender la naturaleza de esta distribucion tenemos que antes probar algunas cosas y dar un par de definciones.

En primer lugar, veamos que la Poisson se puede obtener como limite de binomiales, si X_n\sim Bi(n,p_n) con \lim_{n\rightarrow \infty} np_n=\lambda entonces

\lim_{n\rightarrow \infty} P(X_n=k)= {{\lambda}^k\over k!}e^{-\lambda}=P(X=k)

Ahora, supongamos que para cada t\in \mathbb{R}_{\geq 0} tenemos una variable aleatoria X_t que va a contar la cantidad de ocurrencias de cierto evento en los primeros t segundos. Es razonable pedirle a las X_t que verifiquen las siguientes condiciones:

  • P(X_0=0)=1.
  • P(X_{t+s}-X_s=k)=P(X_t=k) para todos t,s\geq 0.
  • X_{t_1},X_{t_2}-X_{t_1},...,X_{t_n}-X_{t_{n-1}} son variables aleatorias independientes.
  • \lim_{t\rightarrow 0} {P(X_t=1)\over t}=\lambda y \lim_{t\rightarrow 0}{P(X_t>1)\over t}=0.

Si la familia de variables aleatorias \{X_t\} verifica las condiciones anteriores entonces decimos que tenemos un proceso de Poisson y se tiene que X_t\sim P(\lambda t) para todo t\geq 0.

5) Distribucion Uniforme

Si X\sim U(a,b) entonces f_x(t)={1\over b-a}\chi_{[a,b]}(t). La distribucion uniforme es lo que entedemos usualmente cuando decimos que es como “tomar un punto al azar de un intervalo”. Por ejemplo si decimos que la hora en que llega el colectivo es una variable aleatoria con distribucion U(10,11) estamos diciendo que el colectivo va a llegar entre las 10 y las 11 con la misma chance para cualquier momento.

6) Distribucion Exponencial

Si X\sim Exp(\lambda) entonces f_x(t)=\lambda  e^{-\lambda t}\chi_{(0,+\infty)}(t). La propiedad que caracteriza a la exponencial es su falta de memoria: P(X>r+s|X>s)=P(X>r).

Se tiene que si X es una variable aleatoria continua (es decir que tiene densidad) y P(X>0)=1, si P(X>r+s|X>s)=P(X>r) entonces existe \lambda>0 tal que X\sim Exp(\lambda).

Por otro lado, dado un proceso de Poisson \{X_t\}, si definimos T(w)=inf \{t:X_t(w)\geq 1\} (si por ejemplo el proceso modela la cantidad de llammadas hasta el instante t luego T es el tiempo de espera hasta la primer llamada) entonces T es una variable aleatoria y T\sim Exp(\lambda). Es interesante notar como la falta de memoria es una propiedad natural del tiempo de espera.

La distribucion geometrica tambien tiene la propiedad de falta de memoria.

7) Distribucion Gamma

Si X\sim \Gamma(\alpha,\lambda) entonces f_x(t)={\lambda^{\alpha}\over \Gamma(\alpha)}t^{\alpha - 1}e^{-\lambda t}\chi_{(0,\infty)}(t). Si tomamos \alpha = 1 se obtiene la distribucion exponencial de parametero \lambda.

Esta distribucion se puede usar por ejemplo para variables aleatorias que cuenten cuanto se tarda en que ocurran n eventos (por ejemplo n llamadas). Siguiendo el ejemplo de la distribucion exponencial, el tiempo de espera hasta la n-esima llamada es una variable aleatoria con distribucion \Gamma(n,\lambda).

Lo anterior se deduce de que si X\sim \Gamma(\alpha_1,\lambda) y Y\sim \Gamma(\alpha_2,\lambda) entonces X+Y\sim \Gamma(\alpha_1+\alpha_2,\lambda).

8) Distribucion Normal

Si X\sim N(\mu,\sigma^2) entonces f_x(t)={1\over \sigma \sqrt{2\pi}}e^{{-(t-\mu)^2 \over 2\sigma^2}}.

La importancia de la distribucion normal reside en el Teorema central del limite que afirma vagamente que si tenemos una sucesion de variables aleatorias independientes e identicamente distribuidas entonces cualquier suma de una cantidad suficientemente grande de ellas estara mas o menos distribuida como una normal. Si hay una distribucion entonces que merezca el titulo de “la mas natural” tiene que ser esta!!!

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: