Usuario:Jaqueline93/Independencia (probabilidad)

 

La independencia es una noción fundamental en la teoría de la probabilidad, así como en la estadística y en la teoría de los procesos estocásticos.

Dos eventos son independientes, estadísticamente independientes o estocásticamente independientes [1]​ si la probabilidad de uno no afecta la probabilidad de ocurrencia del otro. De manera similar, dos variables aleatorias son independientes si la realización de una no afecta la distribución de probabilidad de la otra.

Cuando se trata de una colección de más de dos eventos es necesario distinguir dos nociones de independencia. Una se denomina independiente por pares si dos eventos cualesquiera de la colección son independientes entre sí, mientras que la independencia mutua (o independencia colectiva) de los eventos significa que cada evento es independiente de cualquier combinación de otros eventos de la colección.

Existe una noción similar para las colecciones de variables aleatorias. La independencia mutua implica independencia por parejas, pero no al revés. Generalmente en los libros sobre la teoría de la probabilidad, la estadística y los procesos estocásticos, la independencia se refiere a la independencia mutua.

Definición editar

Por eventos editar

Dos eventos editar

Dos eventos   y   son independientes (con frecuencia escritos de forma simbólica como   o  , donde el último se suele utilizar para la independencia condicional) si y solo si su probabilidad conjunta es igual al producto de sus probabilidades: [2]: p. 29 [3]: p. 10 

 

Sean   y   dos sucesos tales que , intuitivamente   es independiente de   si la probabilidad de   condicionada por   es igual a la probabilidad de  . Es decir si:

 

De la propia definición de probabilidad

 

se deduce que:
 

De manera similar se da que:

 

De esta forma vemos que la ocurrencia de   no afecta la probabilidad de  , y viceversa. En otras palabras,   y   son independientes entre si.

Aunque las expresiones derivadas pueden parecer más intuitivas, no son la definición por preferencia, ya que las probabilidades condicionales pueden no estar definidas si   o   son 0.

Por lo tanto queda claro que cuando   es independiente de  , entonces   también es independiente de   .

Probabilidad logarítmica y contenido de información editar

Expresado en términos de probabilidad logarítmica, dos eventos son independientes si y solo si la probabilidad logarítmica del evento conjunto es la suma de la probabilidad logarítmica de los eventos individuales:

 

En la teoría de la información, la probabilidad logarítmica negativa se interpreta como contenido de información y, por lo tanto, dos eventos son independientes si y solo si el contenido de información del evento combinado es igual al del la suma de los eventos individuales:

 

Más de dos eventos editar

Un conjunto finito de eventos.   es independiente por pares si cada par de eventos es independiente[4]​.

Es decir, si y solo si para todos los pares con indices   distintos entre ellos entonces,

 

Un conjunto finito de eventos es mutuamente independiente si cada evento es independiente de cualquier intersección de los otros eventos. [4][3]: p. 11  

Esto se llama la regla de multiplicación para eventos independientes. Hay que tener en cuenta que no es una condición única que involucra solo el producto de todas las probabilidades de todos los eventos; debe ser cierto para todos los subconjuntos de eventos.

Para más de dos eventos, un conjunto de eventos mutuamente independientes es (por definición) independiente por pares; pero lo contrario no es necesariamente cierto . [2]: p. 30 

Propiedades editar

Auto-independencia editar

Un evento es independiente de sí mismo si y sólo si

 

De esta forma un evento es independiente de sí mismo si y sólo si ocurre casi con certeza, es decir si su probabilidad de aparecer es 1, o si casi con certeza ocurre su complemento, es decir su probabilidad es 0; este hecho es útil cuando se prueban las leyes cero-uno.

Expectativa y covarianza editar

Si   y   son variables aleatorias independientes, entonces la esperanza   tiene la propiedad

 

y la covarianza   es cero, como se sigue de la siguiente expresión

 

Lo contrario no se cumple: si dos variables aleatorias tienen una covarianza igual a 0, es posible que no sean independientes.

Del mismo modo para dos procesos estocásticos   y   : Si son independientes, entonces no están correlacionados. [5]: p. 151 

Función característica editar

Dos variables aleatorias   y   son independientes si y solo si la función característica del vector aleatorio   satisface

 

En particular, la función característica de su suma es el producto de sus funciones características individuales (la implicación inversa no se cumple):

 

Ejemplos editar

Dados editar

Si tengo dos eventos "se obtiene un 6 la primera vez que se lanza un dado" y "se obtiene un 6 la segunda vez que se lanza un dado" estos son independientes.

Por el contrario, el evento "se obtiene un 6 la primera vez que se lanza un dado" y el evento "la suma de los números obtenidos en el primer y segundo lanzamiento da 8" no son independientes.

Tomar una carta editar

Si se sacan dos cartas con reemplazo de una baraja de cartas, el evento "se saca una tarjeta roja en el primer intento" y "se saca una tarjeta roja en el segundo intento" son independientes.

Por el contrario, si se sacan dos cartas sin reemplazo de una baraja de cartas, el hecho de sacar una carta roja en el primer intento y el de sacar una carta roja en el segundo intento no son independientes, porque una baraja de la cual se ha extraído una carta roja entonces tiene menos cartas rojas ya que esta no vuelve a ser reemplazada.

Independencia condicional editar

Para eventos editar

Los eventos   y   son independientes condicionalmente dado un evento   cuando

  .

Ver también editar

Referencias editar

  1. Russell, Stuart; Norvig, Peter (2002). Artificial Intelligence: A Modern Approach. Prentice Hall. p. 478. ISBN 0-13-790395-2. 
  2. a b Florescu, Ionut (2014). Probability and Stochastic Processes. Wiley. ISBN 978-0-470-62455-5.  Error en la cita: Etiqueta <ref> no válida; el nombre «Florescu» está definido varias veces con contenidos diferentes
  3. a b Gallager, Robert G. (2013). Stochastic Processes Theory for Applications. Cambridge University Press. ISBN 978-1-107-03975-9.  Error en la cita: Etiqueta <ref> no válida; el nombre «Gallager» está definido varias veces con contenidos diferentes
  4. a b Feller, W (1971). «Stochastic Independence». An Introduction to Probability Theory and Its Applications. Wiley.  Error en la cita: Etiqueta <ref> no válida; el nombre «Feller» está definido varias veces con contenidos diferentes
  5. Park,Kun Il (2018). Fundamentals of Probability and Stochastic Processes with Applications to Communications. Springer. ISBN 978-3-319-68074-3. 

[[Categoría:Probabilidades]] [[Categoría:Teoria de probabilidad]]