Sobre Proba

diciembre 21, 2008

1_ Aleatoriedad, Esperanza y Varianza.
2_ Probabilidad como frecuencia relativa.
3_ ¿Que es la ley de los grandes numeros?¿Por que se llama asi?
4_ ¿Que significa el teorema central del limite?
5_ ¿De donde sale la distribucion de Poisson? ¿Que es un proceso de Poisson?
6_ Variable Aleatoria vs Funcion medible
7_ Sigma-algebra como informacion.
8_ ¿En que se diferencia la Teoria de la Medida de la Teoria de Probabilidades?
9_ Real-Proba o Proba-Real

1_Aleatoriedad, Esperanza y Varianza.

Supongamos que tenemos una particula sobre la recta real y sea X su posicion. Puede ser que no sepamos cuanto vale X sino que solo tenemos una densidad f y sea sabe que P(X\in [a,b])=\int_a^b f(x)dx. Decimos entonces que X es una variable aleatoria.

Si tenemos que arriesgar cuanto vale X, ¿que diriamos? En principio podemos arriesgar cualquier cosa, pero una propuesta razonable es la esperanza de X (*) que no es otra cosa que un promedio ponderado de X.

E(X)=\int xf(x)dx

Podemos definir ahora la varianza de X como

V(X)=\int (x-E(X))^2 f(x)dx

La varianza vendria a ser el error cuadratico cometido al reemplazar X por su esperanza, o dicho de otro modo el precio que pagamos al resumir X por E(X). Mas precisamente, si definimos

f(\mu)=\int (x-\mu)^2f(x)dx

Luego f tiene un minimo global en \mu=E(X). Notemos que V(X)\geq 0 con igualdad solo en el caso en que X=E(X) casi siempre.

Por otro lado, si f esta muy concentrada alrededor de un x en particular entonces X tendra probabilidad grande de valer cerca de x por lo que la varianza sera chica. Analogamente si f es una funcion bastante suave y que no esta muy concentrada en ningun lado entonces cualquier resumen de X sera poco confiable por lo que V(X) sera grande.

El principio de incertidumbre se puede formular como que si X e Y denotan la posicion y momento de una particula en la recta entonces V(x)V(Y)\geq {\hbar^2\over 4} donde \hbar es la constante de Planck.  Es decir que no podemos estar muy seguro de cuanto vale X y de  cuanto vale Y  porque eso querria decir que las densidades de ambas estan muy conentradas por lo que V(X) y V(Y) deberian ser ambas “pequeñas”.

(*) En las preguntas que siguen se dan otros argumentos por lo que la esperanza de una variable aleatoria X es un “resumen” razonable de X.

2.1_ Probabilidad como frecuencia relativa.

Supongamos que estamos interesados en calcular la probabilidad de que ocurra cierto evento A al realizar cierto experimento. Lo que podemos hacer es lo siguiente, repitamos varias veces el experimento y verifiquemos en cada caso si A ocurrio o no. Sea f_n = numero de veces que ocurrio A en los primeros n experimentos, luego f=lim {f_n\over n} es la frecuencia relativa de A.

La propuesta frecuentista es poner P(A)=f, es decir, interpretar las probabilidades como frecuencias relativas. Cabe preguntarse si la interpretacion frecuentista es correcta cuando partimos de un espacio de probabilidad (\Omega,P) (con las probabilidades ya dadas). Es decir, ¿es la frecuencia relativa de que ocurra A su probabilidad?

La respuesta es que sí! Y es un simple corolario de la ley de los grandes numeros.

Continuara….

3_ ¿Que es la ley de los grandes numeros? ¿Porque se llama asi?

Una presentacion informal es la siguiente:

Supongamos que jugamos el siguiente juego, tiramos un dado y  si sale par nos pagan $2, si sale 1 o 3 pagamos $1 y si sale 5 pagamos $3. Podemos decir entonces que vamos a ganar $2 con probabilidad 1\over 2, perder $1 con probabilidad 1\over 3 y $2 con probabilidad 1\over 6.

Sea X la ganacia, es decir que X = 2, -1 o -3. Notemos que X no es un numero sino una variable aleatoria que toma los valores 2, -1 o -3 con probabilidades {1\over 2}, {1\over 3}, {1\over 6} respectivamente.

El valor esperado de X que denotaremos por E(X) (su esperanza) es:

E(X)= 2*{1\over 2}-1*{1\over 3}-3*{1\over 6}= {1\over 6}

Veamos que este valor no es arbitrario y que E(X) es un numero intimamente relacionado a la variable aleatoria X.

Supongamos ademas que no jugamos una sola vez sino varias y sean X_1,....,X_n,.... las respectivas ganancias en cada turno. Por ultimo pongamos S_n=X_1+...+X_n, la ganancia despues de haber jugado n veces.

La Ley debil de los grandes numeros dice que con probabilidad alta, si n es grande entonces S_n\over n (la ganacia promedio) es parecido a 1\over 6.

La Ley fuerte de los grandes numeros dice que con probabilidad 1, lim {S_n\over n}={1\over 6}.

Es decir que si jugamos indefinidamente, a la larga es como si en cada turno estemos ganando {1\over 6}. Por esto es que llamamos a 1\over 6 el “valor esperado del juego”. (Otra interpretacion es que si en vez de tirar una persona muchas veces el mismo dado pensamos en muchas personas tirando el dado al mismo tiempo entonces en promedio cada una de ellas va a ganar 1\over 6).

Podemos concluir entonces que este juego no es justo ya que la banca va a perder plata con probabilidad muy grande.

De forma mas general, dada una sucesion de variables aleatorias X_1,X_2,...,X_n,... independientes e identicamente distribuidas con esperanza \mu se tiene que:

Ley Debil: Para todo \epsilon >0, P(|{S_n\over n}-\mu|>\epsilon)\rightarrow 0

Ley Fuerte: {S_n\over n}\rightarrow \mu con probabilidad 1.

Dicho de otra forma, la ley debil dice que para valores grandes de n, S_n\over n es parecido a \mu con probabilidad alta. La ley fuerte dice en cambio que con probabilidad 1, S_n\over n tiende a \mu. El interes esta centrado en lo que ocurre “a la larga” (o para valores grandes de n, de ahi el nombre).

2.2_ Probabilidad como frecuencia relativa.

Volviendo a la propuesta frecuentista….

El experimento en cuestion seria “tomar un punto de \Omega” y que ocurra A no es otra cosa que “el punto estaba en A“. Pongamos X_i=1 si en el n-esimo experimento ocurrio A y X_i=0 en caso contrario, luego las X_i son variables aleatorias independientes e identicamente distribuidas pues X_i=1 con probabilidad P(A) y X_i=0 con probabilidad 1-P(A).

Luego:

E(X_1)=...=E(X_n)=...=1*P(A)+0*(1-P(A))=P(A)

Notemos que f_n=X_1+X_2+...+X_n, luego por la ley fuerte de los grandes numeros

f=lim {f_n\over n}= lim {S_n\over n}=E[X_1]=P(A)

Es decir que f=P(A) como queriamos!!!!!

Si tenemos variables aleatorias X_1,...,X_n,... independientes y con la misma distribucion F. ¿Como podemos hacer para estimar F?

La distribucion empirica luego de las primeras n observaciones es

F_n(t)={I_t(X_1)+...+I_t(X_n)\over n}

Donde I_t(x)=1 si x<t y I_t(x)=0 en caso contrario. Notemos que I_t(X_1),...,I_t(X_n) son variables aleatorias independientes e identicamente distribuidas con E(I_t(X_i))=P(I_t(X_i)=1)=P(X_i<t)=F(t).

Luego por la Ley de los grandes Numeros F_n(t)\rightarrow F(t) (puntualmente).

Teorema Glivenko-Cantelli: F_n(t)\rightarrow F(t) uniformemente con probabilidad 1.

4_ ¿Que significa el teorema central del limite?

“One of the most beautiful and significant principles in mathematics is the central limit theorem: any random quantity that arises as the sum of many small independent contributions is distributed very much like a Gaussian random variable. The most familiar example is coin tossing. We use a coin whose decoration is a bit austere: it has +1 on one side and -1 on the other. Let \epsilon_1,\epsilon_2,...,\epsilon_n be the outcomes of n independent tosses. Thus the \epsilon_i are independent random variables, each of which takes the values +1 and -1 each with probability 1\over 2. Then the normalised sum

S_n = {1\over \sqrt n}\sum_1^n\epsilon_i

belongs to an interval I of the real line with probability very close to

{1\over {\sqrt 2\pi}}\int_I e^{t^2\over 2}dt

The normalisation 1/{\sqrt n}, ensures that the variance of S_n is 1: so there is some hope that the S_n will all be similarly distributed.” Keith Ball

Es por esto que la distribucion normal (o la famosa campana de Gauss) aparece por todos lados (y de ahi que la llamamos “Normal”) pues si una variable aleatoria es la suma de muchas variables aleatorias independientes con una alta probabilidad de que cada una de ellas sume poquito entonces la distribucion de nuestra variable aleatoria sera muy parecida a la de una normal (ver por ejemplo la version de Lyapunov del Teorema Central del Limite).

Un ejemplo de como usar en la practica el teorema central del limite:

Una fabrica tiene rollos de tela puestos en venta. Se sabe que los metros de tela de una tercera parte de ellos tienen una distribucion U[10,30] y el numero de metros de tela de los rollos restantes tienen una distribucion U[20,30].

¿Calcular cuantos rollos deberia comprar la tienda para que la probabilidad de adquirir por lo menos 800 metros de tela sea al menos 0.95?

Para responder la pregunta anterior lo que necesitamos es la distribucion F_S de la variable aleatoria S=total de metros de tela comprados. El problema es que si bien para valores pequeños de n se puede obtener la distribucion F_S, para valores mas grandes la cuenta se vuelve cada vez mas complicada y eso sin mencionar que n es la incognita!!!

¿Como nos ayuda el teorema central del limite en este caso? La idea es que como S=X_1+....+X_n (donde X_i es la variable aleatoria que da cuenta de los metros de tela en el i-esimo rollo) con las X_i independientes e identicamente distribuidas entonces para n grande S tiene que ser parecida a una normal N(\mu,\sigma^2) (donde \mu=E(S) y \sigma^2=V(S)).

Si calculamos \mu y \sigma^2 entonces podemos aproximar la distribucion de S y obtener una respuesta aproximada.

\mu=E(S)=nE(X)={70n\over 3}
\sigma^2=V(S)=nV(X)={200n\over 9}

Luego S es como una normal N({70n\over 3},{200n\over 9}), o dicho de otra manera S^*={S-{70n\over 3} \over \sqrt {200n\over 9}} es como una normal N(0,1).

Ahora, S>800 si y solo si

S^*>{800-{70n\over 3}\over \sqrt {200n\over 9}}={240-7n\over {\sqrt {2n}}}

Pero como S^* \sim N(0,1) luego P(S^*>t)>0,95 si y solo si t>-1,64 de donde

{240-7n\over {\sqrt {2n}}}>-1,64

Es decir que n\geq 35. En conclusion, si la tienda compra al menos 35 rollos entonces tendra al menos 800 metros de tela con probabilidad >0,95.

Notemos que para la cuenta que hicimos no importa la distribucion de la X, nos alcanza con conocer su esperanza y su varianza. Es cierto que la anterior no es una respuesta exacta sino aproximada. De todas formas se puede dar cotas para el error cometido:

Teorema (Berry-Esseen): Existe una constante C tal que si la variables aleatorias X_1,...,X_n,... son independientes e identicamente distribuidas con E(X_1)=0, E(X_1^2)=\sigma^2 y E(|X_1|^3)=p <\infty entonces

|P({S_n-n\mu \over {\sqrt {n\sigma^2}}}<t)-F(t)|< {Cp\over \sigma^3\sqrt n}

“I know of scarcely anything so apt to impress the imagination as the wonderful form of cosmic order expressed by the “Law of Frequency of Error”. The law would have been personified by the Greeks and deified, if they had known of it. It reigns with serenity and in complete self-effacement, amidst the wildest confusion. The huger the mob, and the greater the apparent anarchy, the more perfect is its sway. It is the supreme law of Unreason. Whenever a large sample of chaotic elements are taken in hand and marshaled in the order of their magnitude, an unsuspected and most beautiful form of regularity proves to have been latent all along.”

Sir Francis Galton en Natural Inheritance, 1889.

5_ ¿De donde sale la distribuciond de Poisson? ¿Que es un proceso de Poisson?

Asi como el interes por la distribucion normal esta justificado por el teorema central del limite, hay una buena razon para estar interesados en variables aleatorias con distribucion de Poisson.

Supongamos que para cada t\in \mathbb{R}_{\geq 0} tenemos una variable aleatoria X_t que va a contar la cantidad de ocurrencias de cierto evento en los primeros t segundos. Es razonable pedirle a las X_t que verifiquen las siguientes condiciones:

* P(X_0=0)=1.
* P(X_{t+s}-X_s=k)=P(X_t=k) para todos t,s\geq 0.
* X_{t_1},X_{t_2}-X_{t_1},...,X_{t_n}-X_{t_{n-1}} son variables aleatorias independientes.
* \lim_{t\rightarrow 0} {P(X_t=1)\over t}=\lambda y \lim_{t\rightarrow 0}{P(X_t>1)\over t}=0.

Si la familia de variables aleatorias \{X_t\} verifica las condiciones anteriores entonces decimos que tenemos un proceso de Poisson y se tiene que X_t\sim P(\lambda t) para todo t\geq 0.

6_ Variable Aleatoria vs Funcion medible

Diccionario Proba/Real

Espacio Muestral/Espacio de Medida
Probabilidad/Medida
Variable Aleatoria/Funcion Medible
Observables/Medibles
Funcion Caracteristica/Transformada de Fourier
Esperanza/Integral de Lebesgue

No es un simple capricho el llamar variable aleatoria a las funciones medibles. Es cierto que formalmente son equivalentes, pero solo formalmente!!!

Una funcion es una relacion entre dominio y codominio, si estamos interesados en conocer la funcion estamos interesados en saber qué elemento del codominio corresponde a cada elemento del dominio.

Cuando pensamos en una variable aleatoria el dominio pasa a un segundo plano, lo que nos interesa es su distribucion!! En cierto sentido podemos decir que “conocemos” una variable aleatoria cuando “conocemos” su distribucion pero seria una locura decir lo mismo de una funcion medible!!!

Consideremos los procesos de Poisson, podemos pensar para fijar ideas que X_t es la cantidad de llamadas recibidas en los primeros t segundos. Es impsoible saber cuantas llamadas van a haber pero lo que si sabemos es que X_t tendra una distribucion P(\lambda t). Esto seria una mera curiosidad desde el punto de vista de la teoria de la medida pero desde el probabilistico es todo lo que queriamos! (este ademas me parece un buen ejemplo para pensar acerca de ¿que es una variable aleatoria? ¿cuando la conocemos?¿Que es la aleatoriedad? etc…).

Cuando yo curse proba me ponia nervioso que me hablaban de las distribuciones y no me decian de donde salian, yo queria que me digan “esto es una funcion, este es su dominio y este su codominio”. Mi dibujo mental era algo asi:

funcionmedible

¡Es que estaba anclado en el formalismo! ¡Yo queria verla como una funcion medible! Me costo bastante cambiar la forma de ver las cosas y correr la atencion de “la relacion entre” a  “la distribucion”.

Si ahora me pidieran que dibuje una Variable Aleatoria el dibujo que haria  seria algo asi:

variablealeatoria2

No digo que lo unico que importe sea la distribucion ni que “el diccionario” sea inutil, solo que me parece una actitud peligrosa (y en la que cae la mayoria de la gente) decir que una variable aleatoria es lo mismo que una funcion medible. Me parece que hacer esto es negar toda la motivacion e intucion de una variable aleatoria, es reducir la matematica a su aspecto formal.

7_ Sigma-Algebra como informacion.

Un buen ejemplo de esta “intuicion” es la sigma-algebra como “informacion”. A mi me gusta pensar de la siguiente manera, supongamos que realizamos un experimento. Si lo que nos interesa es distinguir entre los posibles resultados podemos tratar de observar si ocurrieron ciertas cosas. Cada cosa que se pueda “observar” y nos permita dividir a los posibles resultados de nuestro experimento en dos (ocurrio y no ocurrio) nos dara un conjunto de nuestra \sigma- algebra.

Por ejemplo si el experimento es tirar un dado podemos distinguir facilmente entre cada posible resultado \{1\},\{2\},\{3\},\{4\},\{5\},\{6\}. Pero ¿que pasa si no tenemos informacion completa???

Quizas las caras de los dados estan medio borrosas y el 1 y el 2 no se distinguen muy bien en cuyo caso nuestra \sigma-algebra deberia ser la generada por \{1,2\},\{3\},\{4\},\{5\},\{6\}.

La situacion podria ser todavia mas complicada, quizas la unica informacion que podemos obtener del experimento es si el resultado es par o impar y si es mayor a 3 o no. En este caso la \sigma-algebra deberia ser la generada por \{1,3,5\} y \{1,3\}. En este caso no tenemos forma de decidir si el resultado es 1 o no, decimos entonces que el {1} no es “observable”.

Otro ejemplo, pensemos en una persona tirando una moneda. Nuestro espacio muestral sera \Omega= \{0,1\}^{\mathbb{N}}.

Consideremos ahora, para cada n, la \sigma-algebra {\cal F}_n generada por los conjuntos de la forma:

\Omega_{\epsilon_1,...,\epsilon_n}=\{w\in \Omega:w=(w_1,...,w_n,..),w_1=\epsilon_1,w_2=\epsilon_2,...,w_n=\epsilon_n\}

La informacion en {\cal F}_n es la de las primeras n tiradas.

En cambio si consideramos \cal F la \sigma-algebra que contiene a todos los subconjuntos de \Omega entonces \cal F es toda la informacion!!!

Dada una variable aleatoria X:\Omega \rightarrow \mathbb{R}, la sigma-algebra \sigma(X) es la menor \sigma-algebra en \Omega que hace de X una funcion medible. La idea seria que \sigma(X) es la informacion que nos da conocer el valor de X. Por ejemplo si X(w_1)=X(w_2) entonces no habra forma de distinguir entre w_1 y w_2 por lo que \sigma(X) no los separa.

Siguiendo con el ejemplo de la persona tirando un dado indefinidamente, si X_n(w)=w_n luego \sigma(X_n) seria la \sigma-algebra \{\{\emptyset\},\Omega^n_1,\Omega^n_2,\Omega\} donde \Omega^n_i=\{w:w=(w_1,..,w_n,...), w_n=i\}. La informacion que nos da conocer X_n es el resultado en la n-esima tirada.

El siguiente teorema parece bastante natural en este contexto aunque no por eso no deja de ser sorprendente. La idea es que si Y no aporta ningun informacion a X entonces es porque era una funcion (medible) de X.

Teorema (Doob): Dadas X,Y:\Omega \rightarrow \mathbb{R} variables aleatorias, Y es funcion (medible) de X si y solo si Y es \sigma(X)-medible.

Es facil entender ahora la esperanza condicional de una variable aleatoria respecto de otra. Si conocemos Y, ¿que arriesgariamos para X? La esperanza condicional E[X|Y] no es otra cosa que la mejor propuesta para aproximar a X (o resumir…) conociendo el valor de Y. La idea es que solamente con la informacion que nos da conocer Y tenemos que arriesgar un valor para X.

Notemos que E[X|Y] es funcion (medible) de Y si y solo si es \sigma(Y)-medible, es decir si depende solo de la informacion que nos da la sigma-algebra \sigma(Y) que no es otra cosa que la informacion que nos da conocer Y (esto no es un argumento, solo un “lo que estamos diciendo es coherente).

De forma mas general se puede definir la esperanza condicional E[X|{\cal F}] de una variable aleatoria X respecto de una \sigma-algebra \cal F que no sera otra cosa que la funcion \cal F-medible que mejor aproxime a X (o la mejor apuesta para X con la informacion de \cal F).

8_ ¿En que se diferencia la Teoria de la Medida de la Teoria de Probabilidades?

Ademas de la aleatoriedad que está en el nucelo de la teoria de probabilidades hay dos ideas o conceptos que la diferencian de la teoria de la medida: la de independencia y la de usar distintas \sigma-algebras en el mismo espacio.

Con respecto a la independcia Kolmogorov dice:

“The concept of mutual independence of two or more experiments holds, in a certain sense, a central position in the theory of probability. Indeed, as we have already seen, the theory of probability can be regarded from the mathematical point of view as a special application of the general theory of additive set functions. One naturally asks, how did it happen that the theory of probability developed into a large individual science possessing its own methods?

In order to answer this question, we must point out the specialization undergone by general problems in the theory of additive set functions when they are propose in the theory of probability.

The fact that our additive set function P(A) is non-negative and satisfies the condition P(E)=1, does not in itself cause new difficulties. Random variables from a mathematical point of view represent merely functions measurable with respect to P(A), while their mathematical expectations are abstract Lebesgue integrals. The mere introduction of the above concepts, therefore, would not be sufficient to produce a basis for the development of a large new theory.

Historically, the independence of experiments and random variables represent the very mathematical concept that has given the theory of probability its peculiar stamp. The classical work of LaPlace, Poisson, Tchebychev, Markov, Liapounov, Mises and Bernstein is actually dedicated to the fundamental investigation of series of independent random variables. Though the latest dissertations (Markov, Bernstein and others) frequently fail to assume complete independence, they nevertheless reveal the necessity of introducing analogous, weaker conditions in order to obtain sufficiently significant results.

We thus see, in the concept of independence, at least the germ of the peculiar type of problem in probability theory.”

Un ejemplo de varias \sigma-algebras en un mismo espacio es en la misma definicion de Martingalas:

Sea X_1,...,X_n,... una sucesion de variables aleatorias en un espacio de probabilidad (\Omega,{\cal F},P) y sea {\cal F}_1\subset...\subset {\cal F}_n\subset {\cal F}_{n+1}\subset... una sucesion creciente de \sigma-algebras en \cal F. Se dice que la sucesion X_1,X_2,..,X_n,... es una martingala si

(1) X_n es {\cal F}_n-medible.
(2) E[|X_n|]<\infty
(3) E[X_{n+1}|{\cal F}_n]=X_n

Si X_n representa la fortuna de un apostador luego de la n-esima apuesta y {\cal F}_n representa su informacion sobre el juego hasta ese momento entonces la condicion (3) dice que el valor esperado de su fortuna en la proxima jugada sera el mismo que el de ahora (por eso las martingalas modelan juegos “justos”).

9_Real-Proba o Proba-Real

¿Que es mejor, cursar antes Real que Proba o Proba antes que Real?

Con el tiempo cambie de opinion, ahora me parece mejor cursar proba lo mas rapido posible y real dejarla para mas adelante.

En primer lugar, Proba es una materia mas sencilla que Real. Idealmente me da la impresion que lo mejor es cursar proba inmediatamente despues de Avanzado y Real despues de Proba. No es que crea que Proba sea necesaria como ejemplo para Real (*), pero sí creo que Real es una materia mas dificil que requiere de mas abstraccion y de mas madurez. Digamos que no cursaria Real despues que proba por una cuestion de correlatividades sino de tiempos o de madurez.

Hay algo que me gustaba de Proba y eran esos ejercicios con enunciado como un cuentito y que gran parte de la dificultad estaba en saber darse cuenta qué datos eran los importantes y saber traducirlos al lenguaje de Proba. Me parece que esta bueno tener una materia lo antes posible que trabaje este “paso a lo formal”.

Podria argumentarse que “Proba usa Real”. Hay infinidad de definiciones en Proba que podrian evitarse si uno ya curso Real, y mas importante aun, no solo evitar sino hacerlas mas claras!!!

En Proba se pierde mucho tiempo dando vueltas o escondiendo las sigma-algebras, los borelianos, las convergencias casi todo punto y en probabilidad (ie: en medida), las funciones caracteristicas etc…

Por ejemplo, en Proba uno define la esperanza de una variable aleatoria via una integral de Stieltjes (que hasta es complicado escribir Stieltjes!!). Lo malo de hacer esto es que no solo la defincion es algo oscura sino que hay cosas que cuesta bastante trabajo demostrar (ie: la esperanza de la suma es la suma de las esperaznas). Lo que se hace para esquivar este problema es dar definiciones alternativas para el caso continuo y el caso discreto y despues se ven que coinciden (y por ende las cosas se prueban solo en el caso continuo o en el discreto).

Todo esto es “ocultar la verdad” que es mas simple y mas clara. La esperanza de una variable aleatoria no es otra cosa que su integral sobre el espacio muestral respecto de la probabilidad. Las propiedades de la esperanza resultan todas obvias.

Es cierto, esto es un punto en contra de cursar antes Proba que Real. Pero y que??

¿Que hay de malo en decir que la esperanza de la suma es la suma de las esperanzas y dejarlo para demostrarlo mas adelante? ¿Porque ponerse tan nervioso al usar algo y despues demostrarlo con todo rigor? ¿Hay alguna ley que nos prohibe usar algo que sabemos cierto pero todavia no estamos en condiciones de demostrar? O será que tienen miedo a que Nicholas Bourbaki se levante de su tumba para juzgarlos y condenarlos!!!!

La matematica no es lineal, ni siquiera esta ordenada; porque entonces no permitirse el usar algo y despues volver para demostrarlo??? Yo veo esto como una limitacion, si no tenemos todos los elementos bien delimitados y estamos seguros de que sean ciertos no avanzamos. Me parece que esta bueno poder ir para adelante solo guiados por la intuicion y despues volver y demostrar bien todo lo que usamos. Inclusive diria que a veces el rigor matematico se ha transformado en un carcelero que no nos deja ver mas alla que de los limites de lo expresamente bien definido.

Wikipedia dice sobre Bourbaki:

“The emphasis on rigour may be seen as a reaction to the work of Henri Poincaré, who stressed the importance of free-flowing mathematical intuition, at a cost of completeness in presentation.”

Para mi gusto lo mas interesante de Proba es la tension entre “lo intuitivo” y lo “expresable matematicamente”.  Me gusta cuando uno logra describir lo que tenia en la cabeza o cuando le da forma a una idea vaga, cuando demuestra el teorema central del limite y dice “con razon la campana de Gauss estaba por todos lados!!” o cuando via Ley de los Grandes Numeros nos damos cuenta que la idea de frecuencia relativa se corresponde con la de probabilidad. No por las demostraciones en si (que tambien estan buenas!) sino el ir y venir entre “idea intuitiva” y “matematicamente correcto”. Si nos preocupamos solamente por demostrar todo rigurosamente se pierde todo esto.

En definitiva, si hoy tuviera que votar, voto por cursar Proba antes que Real(**).

(*)Uno de los argumentos mas absurdos que escuche acerca de porque cursar primero Proba y despues Real es que la gente en Real necesita del ejemplo de la probabilidad para motivar medida abstracta. ¿Estamos todos locos???? La verdadera motivacion de la medida no es otra cosa que la que le da su nombre, “area, volumen, etc…” Hasta a un nene en tercer grado se lo puede convencer de que es interesante tener una medida en un conjunto, no hay idea mas vieja que la de tratar de medir!!!!

(**)Todo esto con respecto a si uno quiere aprender Proba o que ésta le aporte algo, porque por otro lado creo que es mas facil aprobar Proba habiendo cursado Real que sin (y al reves no vale, o sea, no me parece mas facil Real habiendo cursado Proba).

2 Responses to “Sobre Proba”

  1. Pablo Groisman Says:

    Hola, me gustaron mucho (y coincido mucho!) con los puntos 6, 8 y 9. Incluido el (*). Con el (**) no tanto. Gracias por la claridad!
    Saludos,
    Patu.


Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: