domingo, 3 de octubre de 2010

VIDEO TUTORIAL SOBRE DISTRIBUCION BINOMIAL(ej # 2)

martes, 28 de septiembre de 2010

DIAGRAMA DE ARBOL

Un diagrama de árbol es una representación gráfica de un experimento que consta de r pasos, donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo.

Ejemplo:

Una universidad tiene de tres facultades:
  • La 1ª con el 50% de estudiantes.
  • La 2ª con el 25% de estudiantes.
  • La 3ª con el 25% de estudiantes.
Las mujeres están repartidas uniformemente, siendo un 60% del total en cada facultad.
Árbol con el planteamiento del problema.
¿Probabilidad de encontrar una alumna de la primera facultad?
Árbol con la probabilidad de encontrar una mujer en la primera facultad.

P(alumna \ de \ la \ 1^a \ facultad) = 0,5 \cdot 0,6 = 0,3

¿Probabilidad de encontrar un alumno varón?
Árbol con la probabilidad de encontrar un varón en la universidad.

P(alumno \ var\acute{o}n) = 0,5 \cdot 0,4 + 0,25 \cdot 0,4 + 0,25 \cdot 0,4= 0,4

sábado, 25 de septiembre de 2010

TAMAÑO MUESTRAL PARA UNA MUESTRA INFINITA

Con estos estudios pretendemos hacer inferencias a valores poblacionales (proporciones, medias) a partir de una muestra.
A.1. Estimar una proporción:
Si deseamos estimar una proporción, debemos saber:
  1. El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96, para una seguridad del 99% = 2.58.
  2. La precisión que deseamos para nuestro estudio.
  3. Una idea del valor aproximado del parámetro que queremos medir (en este caso una proporción). Esta idea se puede obtener revisando la literatura, por estudio pilotos previos. En caso de no tener dicha información utilizaremos el valor p = 0.5 (50%).
Ejemplo: ¿A cuantas personas tendríamos que estudiar para conocer la prevalencia de diabetes?
Seguridad = 95%; Precisión = 3%: Proporción esperada = asumamos que puede ser próxima al 5%; si no tuviésemos ninguna idea de dicha proporción utilizaríamos el valor p = 0,5 (50%) que maximiza el tamaño muestral:
donde:
  • Za 2 = 1.962 (ya que la seguridad es del 95%)
  • p = proporción esperada (en este caso 5% = 0.05)
  • q = 1 – p (en este caso 1 – 0.05 = 0.95)
  • d = precisión (en este caso deseamos un 3%)
Si la población es finita, es decir conocemos el total de la población y deseásemos saber cuántos del total tendremos que estudiar la respuesta seria:
donde:
  • N = Total de la población
  • Za2 = 1.962 (si la seguridad es del 95%)
  • p = proporción esperada (en este caso 5% = 0.05)
  • q = 1 – p (en este caso 1-0.05 = 0.95)
  • d = precisión (en este caso deseamos un 3%).
¿A cuántas personas tendría que estudiar de una población de 15.000 habitantes para conocer la prevalencia de diabetes?
Seguridad = 95%; Precisión = 3%; proporción esperada = asumamos que puede ser próxima al 5% ; si no tuviese ninguna idea de dicha proporción utilizaríamos el valor p = 0.5 (50%) que maximiza el tamaño muestral.
Según diferentes seguridades el coeficiente de Za varía, así:
  • Si la seguridad Za fuese del 90% el coeficiente sería 1.645
  • Si la seguridad Za fuese del 95% el coeficiente sería 1.96
  • Si la seguridad Za fuese del 97.5% el coeficiente sería 2.24
  • Si la seguridad Za fuese del 99% el coeficiente sería 2.576
A.2. Estimar una media:
Si deseamos estimar una media: debemos saber:
  • El nivel de confianza o seguridad (1-a ). El nivel de confianza prefijado da lugar a un coeficiente (Za ). Para una seguridad del 95% = 1.96; para una seguridad del 99% = 2.58.
  • La precisión con que se desea estimar el parámetro (2 * d es la amplitud del intervalo de confianza).
  • Una idea de la varianza S2 de la distribución de la variable cuantitativa que se supone existe en la población.
Ejemplo: Si deseamos conocer la media de la glucemia basal de una población, con una seguridad del 95 % y una precisión de ± 3 mg/dl y tenemos información por un estudio piloto o revisión bibliográfica que la varianza es de 250 mg/dl
Si la población es finita, como previamente se señaló, es decir conocemos el total de la población y desearíamos saber cuantos del total tendríamos que estudiar, la respuesta sería:

AREA BAJO LA CURVA

Distribución normal estándar



Esta curva "de campana" es la distribución normal estándar.
Puedes usar la tabla de abajo para saber el área bajo la curva desde la línea central hasta cualquier línea vertical "a valor Z" hasta 3, en incrementos de 0.1
Esto te dice qué parte de la población está dentro de "Z" desviaciones estándar de la media.
En lugar de una tabla LARGA, hemos puesto los incrementos de 0.1 hacia abajo, y los de 0.01 de lado.
Por ejemplo, para saber el área debajo de la curva entre 0 y 0.45, ve a la fila de 0.4, y sigue de lado hasta 0.45, allí pone 0.1736
Como la curva es simétrica, la tabla vale para ir en las dos direcciones, así que 0.45 negativo también tiene un área de 0.1736


AREAS BAJO LA CURVA NORMAL

No importa cuáles sean los valores de la  para una distribución de probabilidad normal, el área total bajo la curva es 1.00, de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad que:

1.Aproximadamente 68% de todos los valores de una población normalmente distribuida se encuentra dentro  de  desviación estándar de la media.

2. Aproximadamente 95.5 % de todos los valores de una población normalmente distribuida se encuentra dentro de  desviación estándar de la media.

3. Aproximadamente 99.7 % de todos los valores de una población normalmente distribuida se encuentra dentro  de desviación estándar de la media.


 USO DE LA TABLA DE DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDAR

  DISTRIBUCIÓN DE PROBABILIDAD NORMAL ESTÁNDARÁreas bajo la distribución de probabilidad Normal Estándar entre la media y valores positivos de Z m = 0 y s²=1


Z0.000.010.020.030.040.050.060.070.080.09
0.00.00000.00400.00800.01200.01600.01990.02390.02790.03190.0359
0.10.03980.04380.04780.05170.05570.05960.06360.06750.07140.0753
0.20.07930.08320.08710.09100.09480.09870.10260.10640.11030.1141
0.30.11790.12170.12550.12930.13310.13680.14060.14430.14800.1517
0.40.15540.15910.16280.16640.17000.17360.17720.18080.18440.1879
0.50.19150.19500.19850.20190.20540.20880.21230.21570.21900.2224
0.60.22570.22910.23240.23570.23890.24220.24540.24860.25170.2549
0.70.25800.26110.26420.26730.27040.27340.27640.27940.28230.2852
0.80.28810.29100.29390.29670.29950.30230.30510.30780.31060.3133
0.90.31590.31860.32120.32380.32640.32890.33150.33400.33650.3389
1.00.34130.34380.34610.34850.35080.35310.35540.35770.35990.3621
1.10.36430.36650.36860.37080.37290.37490.37700.37900.38100.3830
1.20.38490.38690.38880.39070.39250.39440.39620.39800.39970.4015
1.30.40320.40490.40660.40820.40990.41150.41310.41470.41620.4177
1.40.41920.42070.42220.42360.42510.42650.42790.42920.43060.4319
1.50.43320.43450.43570.43700.43820.43940.44060.44180.44290.4441
1.60.44520.44630.44740.44840.44950.45050.45150.45250.45350.4545
1.70.45540.45640.45730.45820.45910.45990.46080.46160.46250.4633
1.80.46410.46490.46560.46640.46710.46780.46860.46930.46990.4706
1.90.47130.47190.47260.47320.47380.47440.47500.47560.47610.4767
2.00.47720.47780.47830.47880.47930.47980.48030.48080.48120.4817
2.10.48210.48260.48300.48340.48380.48420.48460.48500.48540.4857
2.20.48610.48640.48680.48710.48750.48780.48810.48840.48870.4890
2.30.48930.48960.48980.49010.49040.49060.49090.49110.49130.4916
2.40.49180.49200.49220.49250.49270.49290.49310.49320.49340.4936
2.50.49380.49400.49410.49430.49450.49460.49480.49490.49510.4952
2.60.49530.49550.49560.49570.49590.49600.49610.49620.49630.4964
2.70.49650.49660.49670.49680.49690.49700.49710.49720.49730.4974
2.80.49740.49750.49760.49770.49770.49780.49790.49790.49800.4981
2.90.49810.49820.49820.49830.49840.49840.49850.49850.49860.4986
3.00.49870.49870.49870.49880.49880.49890.49890.49890.49900.4990

Observe en esta tabla la localización de la columna identificada con z. El valor de z está derivado de la formula:

X =  valor de la variable aleatoria que nos preocupa
media de la distribución de la variable aleatoria
= desviación estándar de la distribución
 Z = número de desviaciones estándar que hay desde x a la media de la distribución

Utilizamos Z en lugar del ‘ número de desviaciones estándar’ porque las variables aleatorias normalmente distribuidas tienen muchas unidades diferentes de medición: dólares, pulgadas, partes por millón, kilogramos, segundos. Como vamos a utilizar una tabla, la tabla I, hablamos en términos de unidades estándar (que en realidad significa desviaciones estándar), y denotamos a éstas con el símbolo z.

X                    
-25    0    25    50    75    100    125
----------------------------------------- Z =   
-3     -2    -1     0      1       2        3


La tabla representa las probabilidades o áreas bajo la curva normal calculadas desde la  hasta los valores particulares de interés X. Usando la ecuación de Z, esto corresponde a las probabilidades o áreas bajo la curva normal estandarizada desde la media ( = 0) hasta los valores transformados de interés Z.
Sólo se enumeran entradas positivas de Z en la tabla , puesto que para una distribución simétrica  de este tipo con una media de cero, el área que va desde la media hasta +Z (es decir, Z desviaciones estándar por encima de la media) debe ser idéntica al área que va desde la media hasta –Z (es decir, Z desviaciones estándar por debajo de la media).
También podemos  encontrar la tabla que indica el área bajo la curva normal estándar que corresponde a P(Z < z) para valores de z que van de –3.49 a 3.49.
Al usar la tabla observamos que todos los valores Z deben registrarse con hasta dos lugares decimales. Por tanto, nuestro valor de interés particular Z se registra como +.2. para leer el área de probabilidad bajo la curva desde la media hasta Z = +.20, podemos recorrer hacia abajo la columna Z de la tabla hasta que ubiquemos el valor de interés Z. Así pues, nos detenemos en la fila Z = .2. A continuación, leemos esta fila hasta que intersecamos la columna que contiene el lugar de centésimas del valor Z. Por lo tanto, en la tabla, la probabilidad tabulada para Z = 0.20 corresponde a la intersección de la fila Z = .2 con la columna Z = .00 como se muestra.


Z
.00
.01
.02
.03
.04
.05
.06
.07
.08
.09
0.0
0.00000
0.00399
0.00798
0.01197
0.01595
0.01994
0.02392
0.02790
0.03188
0.03586
0.1
0.03983
0.04380
0.04776
0.05172
0.05567
0.05962
0.06356
0.06749
0.07142
0.07535
0.2
0.07926
0.08317
0.08706
0.09095
0.09483
0.09871
0.10257
0.10642
0.11026
0.11409

DISTRIBUCION BINOMIAL

Supongamos que un experimento aleatorio tiene las siguientes características:
  • En cada prueba del experimento sólo son posibles dos resultados: el suceso A (éxito) y su contrario`A (fracaso).
  • El resultado obtenido en cada prueba es independiente de los resultados obtenidos anteriormente.
  • La probabilidad del suceso A es constante, la representamos por  p, y no varía de una prueba a otra. La probabilidad de `A   es  1- p  y la representamos por  q .
  • El experimento consta de un número  n  de pruebas.
Todo experimento que tenga estas características diremos que sigue el modelo de la distribución Binomial. A la variable  X  que expresa el número de éxitos obtenidos en cada prueba del experimento, la llamaremos variable aleatoria binomial.

La variable binomial es una variable aleatoria discreta, sólo puede tomar los valores 0, 1, 2, 3, 4, ..., n  suponiendo que se han realizado  n  pruebas. Como hay que considerar todas las maneras posibles de obtener  k-éxitos  y  (n-k) fracasos debemos calcular éstas por combinaciones (número combinatorio n sobre k).

La distribución Binomial se suele representar por  B(n,p)  siendo  n  y  p  los parámetros de dicha distribución.

Función de Probabilidad de la v.a. Binomial

Función de probabilidad de la distribución Binomial o también denominada función de la distribución de Bernoulli (para n=1). Verificándose:  0 £  p £ 1

Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido tablas para algunos valores de  n  y  p  que nos facilitan el trabajo.
Ver Tabla de la Función de Probabilidad de la Binomial
Parámetros de la Distribución Binomial
Función de Distribución de la v.a. Binomial

siendo k el mayor número entero menor o igual a xi.
Esta función de distribución proporciona, para cada número real xi, la probabilidad de que la variable X tome valores menores o iguales que xi.
El cálculo de las F(x) = p( X £x) puede resultar laborioso, por ello se  han construido tablas para algunos valores de  n  y  p  que nos facilitan el trabajo.

Sea X una variable aleatoria discreta correspondiente a una distribución binomial.

Ejemplo 1
Una máquina fabrica una determinada pieza y se sabe que produce un 7 por 1000 de piezas defectuosas. Hallar la probabilidad de que al examinar 50 piezas sólo haya una defectuosa.
Solución :
Se trata de una distribución binomial de parámetros B(50, 0'007) y debemos calcular la probabilidad  p(X=1).
Ejemplo 2
La probabilidad de éxito de una determinada vacuna es 0,72. Calcula la probabilidad de a que una vez administrada a 15 pacientes:
a) Ninguno sufra la enfermedad
b) Todos sufran la enfermedad
c) Dos de ellos contraigan la enfermedad
Solución :
Se trata de una distribución binomial de parámetros B(15, 0'72)
Ejemplo 3
La probabilidad de que el carburador de un coche salga de fábrica defectuoso es del 4 por 100. Hallar :
a) El número de carburadores defectuosos esperados en un lote de 1000
b) La varianza y la desviación típica.
Solución :

ESTADISTICA DESCRIPTIVA

Una vez que se han recogido los valores que toman las variables de nuestro estudio (datos), procederemos al análisis descriptivo de los mismos. Para variables categóricas, como el sexo o el estadiaje, se quiere conocer el número de casos en cada una de las categorías, reflejando habitualmente el porcentaje que representan del total, y expresándolo en una tabla de frecuencias.
Para variables numéricas, en las que puede haber un gran número de valores observados distintos, se ha de optar por un método de análisis distinto, respondiendo a las siguientes preguntas:

  1. ¿Alrededor de qué valor se agrupan los datos?
  2. Supuesto que se agrupan alrededor de un número, ¿cómo lo hacen? ¿muy concentrados? ¿muy dispersos?
a. Medidas de tendencia central
Las medidas de centralización vienen a responder a la primera pregunta. La medida más evidente que podemos calcular para describir un conjunto de observaciones numéricas es su valor medio. La media no es más que la suma de todos los valores de una variable dividida entre el número total de datos de los que se dispone.
Como ejemplo, consideremos 10 pacientes de edades 21 años, 32, 15, 59, 60, 61, 64, 60, 71, y 80. La media de edad de estos sujetos será de:

Más formalmente, si denotamos por (X1, X2,...,Xn) los n datos que tenemos recogidos de la variable en cuestión, el valor medio vendrá dado por:
Otra medida de tendencia central que se utiliza habitualmente es la mediana. Es la observación equidistante de los extremos.
La mediana del ejemplo anterior sería el valor que deja a la mitad de los datos por encima de dicho valor y a la otra mitad por debajo. Si ordenamos los datos de mayor a menor observamos la secuencia:
15, 21, 32, 59, 60, 60,61, 64, 71, 80.
Como quiera que en este ejemplo el número de observaciones es par (10 individuos), los dos valores que se encuentran en el medio son 60 y 60. Si realizamos el cálculo de la media de estos dos valores nos dará a su vez 60, que es el valor de la mediana.
Si la media y la mediana son iguales, la distribución de la variable es simétrica. La media es muy sensible a la variación de las puntuaciones. Sin embargo, la mediana es menos sensible a dichos cambios.
Por último, otra medida de tendencia central, no tan usual como las anteriores, es la moda, siendo éste el valor de la variable que presenta una mayor frecuencia.
En el ejemplo anterior el valor que más se repite es 60, que es la moda

b. Medidas de dispersión
Tal y como se adelantaba antes, otro aspecto a tener en cuenta al describir datos continuos es la dispersión de los mismos. Existen distintas formas de cuantificar esa variabilidad. De todas ellas, la varianza (S2) de los datos es la más utilizada. Es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución.
Esta varianza muestral se obtiene como la suma de las de las diferencias de cuadrados y por tanto tiene como unidades de medida el cuadrado de las unidades de medida en que se mide la variable estudiada.
En el ejemplo anterior la varianza sería:
Sx2=
La desviación típica (S) es la raíz cuadrada de la varianza. Expresa la dispersión de la distribución y se expresa en las mismas unidades de medida de la variable. La desviación típica es la medida de dispersión más utilizada en estadística.
Aunque esta fórmula de la desviación típica muestral es correcta, en la práctica, la estadística nos interesa para realizar inferencias poblacionales, por lo que en el denominador se utiliza, en lugar de n, el valor n-1.
Por tanto, la medida que se utiliza es la cuasidesviación típica, dada por:
Aunque en muchos contextos se utiliza el término de desviación típica para referirse a ambas expresiones.
En los cálculos del ejercicio previo, la desviación típica muestral, que tiene como denominador n, el valor sería 20.678. A efectos de cálculo lo haremos como n-1 y el resultado seria 21,79.
El haber cambiado el denominador de n por n-1 está en relación al hecho de que esta segunda fórmula es una estimación más precisa de la desviación estándar verdadera de la población y posee las propiedades que necesitamos para realizar inferencias a la población.
Cuando se quieren señalar valores extremos en una distribución de datos, se suele utilizar la amplitud como medida de dispersión. La amplitud es la diferencia entre el valor mayor y el menor de la distribución.
Por ejemplo, utilizando los datos del ejemplo previo tendremos 80-15 =65.
Como medidas de variabilidad más importantes, conviene destacar algunas características de la varianza y desviación típica:

  • Son índices que describen la variabilidad o dispersión y por tanto cuando los datos están muy alejados de la media, el numerador de sus fórmulas será grande y la varianza y la desviación típica lo serán.
  • Al aumentar el tamaño de la muestra, disminuye la varianza y la desviación típica. Para reducir a la mitad la desviación típica, la muestra se tiene que multiplicar por 4.
  • Cuando todos los datos de la distribución son iguales, la varianza y la desviación típica son iguales a 0.
  • Para su cálculo se utilizan todos los datos de la distribución; por tanto, cualquier cambio de valor será detectado.
Otra medida que se suele utilizar es el coeficiente de variación (CV). Es una medida de dispersión relativa de los datos y se calcula dividiendo la desviación típica muestral por la media y multiplicando el cociente por 100. Su utilidad estriba en que nos permite comparar la dispersión o variabilidad de dos o más grupos. Así, por ejemplo, si tenemos el peso de 5 pacientes (70, 60, 56, 83 y 79 Kg) cuya media es de 69,6 kg. y su desviación típica (s) = 10,44 y la TAS de los mismos (150, 170, 135, 180 y 195 mmHg) cuya media es de 166 mmHg y su desviación típica de 21,3. La pregunta sería: ¿qué distribución es más dispersa, el peso o la tensión arterial? Si comparamos las desviaciones típicas observamos que la desviación típica de la tensión arterial es mucho mayor; sin embargo, no podemos comparar dos variables que tienen escalas de medidas diferentes, por lo que calculamos los coeficientes de variación:
CV de la variable peso = 

CV de la variable TAS = 
A la vista de los resultados, observamos que la variable peso tiene mayor dispersión.
Cuando los datos se distribuyen de forma simétrica (y ya hemos dicho que esto ocurre cuando los valores de su media y mediana están próximos), se usan para describir esa variable su media y desviación típica. En el caso de distribuciones asimétricas, la mediana y la amplitud son medidas más adecuadas. En este caso, se suelen utilizar además los cuartiles y percentiles.
Los cuartiles y percentiles no son medidas de tendencia central sino medidas de posición. El percentil es el valor de la variable que indica el porcentaje de una distribución que es igual o menor a esa cifra.
Así, por ejemplo, el percentil 80 es el valor de la variable que es igual o deja por debajo de sí al 80% del total de las puntuaciones. Los cuartiles son los valores de la variable que dejan por debajo de sí el 25%, 50% y el 75% del total de las puntuaciones y así tenemos por tanto el primer cuartil (Q1), el segundo (Q2) y el tercer cuartil (Q3).

PROBABILIDAD CONDICIONAL E INDEPENDIENTE

Probabilidad condicionada

De Wikipedia, la enciclopedia libre
Probabilidad condicionada es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B.
No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos.
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.

Definición

Dado un espacio de probabilidad (Ω,F,P) y dos eventos (o sucesos) A, B\in F con P(B) > 0, la probabilidad condicional de A dado B está definida como:
P(A \mid B) = \frac{P(A \cap B)}{P(B)}.

P(A \mid B) se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A.

 Interpretación

P(A \mid B) se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, P(A \mid B) sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe.
Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene gripe y dolor de cabeza P(A \cap B). En este caso P(A \mid B), es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa P(A \cap B) y el área de B representa a P(B), formalmente se tiene que:
P(A \mid B) = \frac{P(A \cap B)}{P(B)}.

 Propiedades

  1. P(A \mid B) + P(\bar{A} \mid B) = 1
  2.  B \subseteq A \to P(A \mid B) = 1

Pero NO es cierto que P(A \mid B) + P(A \mid \bar{B}) = 1

La proporción de zona verde dentro de B es la misma que la de A en todo el espacio y, de la misma forma, la proporción de la zona verde dentro de A es la misma que la de B en todo el espacio. Son sucesos independientes.

Independencia de sucesos

Artículo principal: Independencia (probabilidad)
Dos sucesos aleatorios A y B son independientes si y sólo si:
P(A \cap B) \ = \ P(A)  P(B).
O sea que si A y B son independientes, su probabilidad conjunta, P(A \cap B) ó P(A,B).
puede ser expresada como el producto de las probabilidades individuales. Equivalentemente:
P(A|B) \ = \ P(A)
 P(B|A) \ = \ P(B).
En otras palabras, si A y B son independientes, la probabilidad condicional de A dado B es simplemente la probabilidad de A y viceversa.

 Exclusividad mutua


Los conjuntos A y B no intersecan. Son mutuamente excluyentes.
Dos sucesos A y B son mutuamente excluyentes si y sólo si A \cap B = \emptyset. Entonces, P(A \cap B) = 0.
Además, si P(B) > 0 entonces P(A\mid B) es igual a 0.

 La falacia de la probabilidad condicional

La falacia de la probabilidad condicional se basa en asumir que P(A|B) es casi igual a P(B|A). El matemático John Allen Paulos analiza en su libro El hombre anumérico este error muy común cometido por doctores, abogados y otras personas que desconocen la probabilidad.
La verdadera relación entre P(A|B) y P(B|A) es la siguiente:
P(B \mid A)= P(A \mid B) \cdot \frac{P(B)}{P(A)} (Teorema de Bayes)

Problemas de ejemplo

---La paradoja del falso positivo---
La magnitud de este problema es la mejor entendida en términos de probabilidades condicionales.
Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto está bien. Escogiendo un individuo al azar:
P(enfermo) = 1% = 0.01 y P(sano) = 99% = 0.99
Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una posibilidad del 1 % de conseguir un falso positivo, esto es:
P(positivo | sano) = 1% y P(negativo | sano) = 99%
Finalmente, supongamosque aplicando la prueba a una persona que tiene la enfermedad, hay una posibilidad del 1 % de un falso negativo, esto es:
P(negativo | enfermo) = 1% y P(positivo | enfermo) = 99%

Ahora, uno puede calcular lo siguiente:
La fracción de individuos en el grupo que están sanos y dan negativo:

P( sano \cap negativo) = P(sano) \times P(negativo|sano)=99% \times 99%=98.01%

La fracción de individuos en el grupo que están enfermos y dan positivo:

P( enfermo \cap positivo) = P(enfermo) \times P(postivo|enfermo) = 1% \times 99% = 0.99%

La fracción de individuos en el grupo que dan falso positivo:

P( sano \cap positivo) = P(sano) \times P(postivo|sano) = 99% \times 1% = 0.99%

La fracción de individuos en el grupo que dan falso negativo:

P( enfermo \cap negativo) = P(enfermo) \times P(negativo|enfermo) = 1% \times 1% = 0.01%

Además, la fracción de individuos en el grupo que dan positivo:

P( positivo ) = P ( sano \cap positivo ) + P ( enfermo \cap postivo ) = 0.99% + 0.99% = 1.98%

Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un resultado de la prueba positivo:
P(enfermo|positivo) = \frac{P(enfermo \cap positivo)}{P(positivo)}=\frac{0.99%}{1.98%}=50%
En este ejemplo, debería ser fácil ver la diferencia entre las probabilidades condicionadas P (positivo | enfermo) (que es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la probabilidad de que un individuo enfermo de positivo en la prueba; la segunda es la probabilidad de que un individuo que da positivo en la prueba tenga realmente la enfermedad. Con los números escogidos aquí, este último resultado probablemente sería considerado inaceptable: la mitad de la gente que da positivo en realidad está sana.


La probabilidad de tener una enfermedad rara es de 0,001: P(enfermo) = 0,001


La probabilidad de que cuando el paciente está enfermo se acierte en el diagnóstico es de 0,99: P(positivo | enfermo) = 0,99
La probabilidad de falso positivo es de 0,05: P(positivo | sano) = 0,05
Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay de que tenga la enfermedad?
P(enfermo|positivo)=\frac{P(enfermo) \times P(positivo|enfermo)}{P(positivo)} P(enfermo|positivo)= P(enfermo) \times \frac{P(positivo|enfermo)}{P(enfermo) \times P(positivo|enfermo)+P(sano) \times P(positivo|sano)} P(enfermo|positivo)=\frac{ 0,001 \times 0,99 }{0,001 \times 0,99+0,999 \times 0,05}= 0,019= 1,9%



Probabilidad Independiente

De Wikipedia, la enciclopedia libre
En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre sí cuando la probabilidad de cada uno de ellos no está influida por que el otro suceso ocurra o no, es decir, cuando ambos sucesos no están correlacionados.

Definición formal

Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si A y B son dos sucesos, y P(A) y P(B) son las probabilidades de que ocurran respectivamente entonces:
A y B son independientes si y solo si P(A\cap B) = P(A)P(B)

 Motivación de la definición

Sean A y B dos sucesos tales que P(B) > 0, intuitivamente A es independiente de B si la probabilidad de A condicionada por B es igual a la probabilidad de A. Es decir si:
P(A|B) \ = \ P(A)
De la propia definición de probabilidad condicionada:
P(A \mid B) = \frac{P(A \cap B)}{P(B)}.
se deduce que P(A \cap B) \ = \ P(A \mid B) P(B), y dado que P(A|B) \ = \ P(A) deducimos trivialmente que P(A \cap B) \ = \ P(A)  P(B),.
Si el suceso A es independiente del suceso B, automáticamente el suceso B es independiente de A.

 Propiedades

La independencia de sucesos es algo muy importante para la estadística y es condición necesaria en multitud de teoremas. Por ejemplo, una de las primeras propiedades que se deriva de la definición de sucesos independientes es que si dos sucesos son independientes entre sí, la probabilidad de la intersección es igual al producto de las probabilidades.