Si $X$ y $Y$ son variables aleatorias con esperanza finita y ${a,b,c\in \mathbb {R} }$ son constantes entonces
${\operatorname {E} [c]=c}$
${\operatorname {E} [cX]=c\operatorname {E} [X]}$
Si ${X\geq 0}$ entonces ${\operatorname {E} [X]\geq 0}$
Si ${X\leq Y}$ entonces ${\operatorname {E} [X]\leq \operatorname {E} [Y]}$
Si $X$ está delimitada por dos números reales, $a$ y $b$, esto es ${a<X<b}$ entonces también lo está su media, es decir, ${a<\operatorname {E} [X]<b}$
Si ${Y=a+bX}$, entonces ${\operatorname {E} [Y]=\operatorname {E} [a+bX]=a+b\operatorname {E} [X]}$
${\operatorname {Var} (X+Y)=\operatorname {Var} (X)+\operatorname {Var} (Y)+2\operatorname {Cov} (X,Y)}$, donde ${\operatorname {Cov} (X,Y)}$ denota la covarianza de $X$ e $Y$
${\operatorname {Var} (X+Y)=\operatorname {Var} (X)+\operatorname {Var} (Y)}$ si $X$ y $Y$ son variables aleatorias independientes.
${\operatorname {Var} (Y)=\operatorname {E} (\operatorname {Var} (Y|X))+\operatorname {Var} (\operatorname {E} (Y|X))}$ cálculo de la Varianza por Pitágoras, dónde ${Y|X}$ es la variable aleatoria condicional $Y$ dado $X$.
$$\operatorname {E}(N ⋅ Y ) = \operatorname {E}(\operatorname {E}(N ⋅ Y ∣ N)) = \operatorname {E}(g(N))$$
$$\operatorname {g}(n) = \operatorname {E}(N ⋅ Y ∣ N = n)$$
Ejemplo
Si ${N}$ es una v.a. de ${μ_{n}}$ y ${\sigma^2_{n}}$, ${X_i}$ es una v.a. de ${μ_{x_i}}$ y ${\sigma^2_{x_i}}$, ${N}$ y ${X_i}$ son iid., y ${K} = {\sum _{i=0}^N {X_i}}$
$${Z\sim N(0,1) ⟹ X = \sigma Z + μ ∼ N(\mu, \sigma ^{2})}$$
Distribución Binomial
Si una variable aleatoria discreta $X$ tiene una distribución binomial con parámetros $n\in\mathbb{N}$ y $p$ con ${0<p<1}$ entonces escribiremos ${X\sim \operatorname {Bin} (n,p)}$
La distribución binomial, describe el número de aciertos en una serie de n experimentos independientes con posibles resultados binarios, es decir, de «sí» o «no», todos ellos con probabilidad de acierto p y probabilidad de fallo q = 1 − p.
Si ${X}$ es una variable aleatoria discreta que mide el "número de éxitos" y se realiza un único experimento con dos posibles resultados denominados éxito y fracaso, se dice que la variable aleatoria ${X}$ se distribuye como una Bernoulli de parámetro ${p}$ con ${0<p<1} $ y escribimos ${X\sim \operatorname {Bernoulli} (p)}$
Si ${X_{1},X_{2},\dots ,X_{n}}$ son $n$ variables aleatorias independientes e identicamente distribuidas con ${X_{i}\sim \operatorname {Bernoulli} (p)}$ entonces la variable aleatoria ${X_{1}+X_{2}+\dots +X_{n}}$ sigue una distribución binomial con parámetros $n$ y $p$, es decir
Si $X$ es una variable aleatoria continua con distribución uniforme continua entonces escribiremos ${X\sim \operatorname {U} (a,b)}$ o ${X\sim \operatorname {Unif} (a,b)}$
Si $X$ es una variable aleatoria discreta cuyo soporte es el conjunto ${{x_{1},x_{2},\dots ,x_{n}}}$ y tiene una distribución uniforme discreta entonces escribiremos ${X\sim \operatorname {Uniforme} (x_{1},x_{2},\dots ,x_{n})}$
La distribución uniforme discreta, recoge un conjunto finito de valores que son resultan ser todos igualmente probables. Esta distribución describe, por ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de casino equilibrados (sin sesgo).
Sea ${\lambda >0}$ y $X$ una variable aleatoria discreta, si la variable aleatoria $X$ tiene una distribución de Poisson con parámetro $\lambda$ entonces escribiremos ${X\sim \operatorname {Poisson} (\lambda )}$ o ${X\sim \operatorname {Poi} (\lambda )}$
Como consecuencia del teorema central del límite, para valores grandes de $\lambda$ , una variable aleatoria de Poisson $X$ puede aproximarse por otra normal dado que el cociente
$${Y={\frac {X-\lambda }{\sqrt {\lambda }}}}$$ converge a una distribución normal de media 0 y varianza 1.
Distribución Geométrica
Si una variable aleatoria discreta ${X}$ sigue una distribución geométrica con parámetro ${0<p<1}$ entonces escribiremos ${X\sim \operatorname {Geometrica} (p)}$ o simplemente ${X\sim \operatorname {Geo} (p)}$
La distribución geométrica, describe el número de intentos necesarios hasta conseguir el primer acierto.
Una variable aleatoria discreta $X$ tiene una distribución hipergeométrica con parámetros ${N=0,1,\dots }$, ${K=0,1,\dots ,N}$ y ${n=0,1,\dots ,N}$ y escribimos ${X\sim \operatorname {HG} (N,K,n)}$
Si una variable aleatoria ${X\sim \operatorname {HG} (N,K,1)}$ entonces ${X\sim \operatorname {Bernoulli} \left({\frac {K}{N}}\right)}$
La distribución hipergeométrica, mide la probabilidad de obtener x (0 ≤ x ≤ d) elementos de una determinada clase formada por d elementos pertenecientes a una población de N elementos, tomando una muestra de n elementos de la población sin reemplazo.
Distribuciones de variable continua
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un intervalo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
$$F(x)=P(X\leq x)=\int _{-\infty }^{x}f(t),dt$$
El Teorema del Límite Central
Si ${X1, \dots,X_n}$ son i.i.d. y ${s2 = \operatorname{Var}(Xi) < \infty}$ entonces para cualquier ${z}$, donde ${Z\sim\operatorname{N}(0, 1)}$
Una distribución binomial de parámetros $n$ y $p$ es aproximadamente normal para grandes valores de $n$, y $p$ no demasiado cercano a 0 o a 1
La normal aproximada tiene parámetros $μ = np$, $σ^2 = np(1 − p)$
Una distribución de Poisson con parámetro $λ$ es aproximadamente normal para grandes valores de $λ$
La distribución normal aproximada tiene parámetros $μ = σ^2 = λ$.
$$X_1+X_2+\dots+X_n \sim N(\mu, \sigma^2)$$
$$X_1+X_2+\dots+X_n \sim N(n ⋅ \operatorname{E}(X), n ⋅ \operatorname{Var}(X))$$
Sea ${X1}$, ${X2}$, $\dots$ una secuencia de v.a. independientes e igualmente distribuidas tales que ${µ = \operatorname{E} (X_i)}$ existe. Sea
$$\overline{X}_n = \frac{(X_1+X_2+\dots+X_n)}{n} \sim N(\operatorname{E}(X), \frac{\operatorname{Var}(X)}{n}) $$