domingo, 16 de noviembre de 2014

Para que sean útiles, nuestras creencias deben someterse a la lógica de la probabilidad. Daniel Kahneman



USO DE DISTRIBUCIONES DE PROBABILIDAD EN CIENCIAS DE LA SALUD:



El desarrollo y el nivel de aplicación que la Bioestadística, como herramienta útil y rigurosa en el campo de la investigación en todas las Ciencias Sociales, ha experimentado en los últimos años, ha sido enorme. Donde, el interés por descubrir nuevos procedimientos a través de la experiencia acumulada, ha sido determinante en la necesidad de que todos los profesionales en el área de la salud, se vean inmersos en la formación y aprendizaje de técnicas básicas de metodología de la investigación y de algunas mas concretas como el análisis de datos.


Los modelos teóricos a los que se hace referencia se reducen en muchos casos a (o incluyen en su formulación) funciones de probabilidad. La teoría de la probabilidad tiene su origen en el estudio de los juegos de azar, que impulsaron los primeros estudios sobre cálculo de probabilidades en el siglo XVI, aunque no es hasta el siglo XVIII cuando se aborda la probabilidad desde una perspectiva matemática con la demostración de la “ley débil de los grandes números” según la cual, al aumentar el número de pruebas, la frecuencia de un suceso tiende a aproximarse a un número fijo denominado probabilidad. Este enfoque, denominado enfoque frecuentista, se modela matemáticamente en el siglo XX cuando Kolmogorov formula la teoría axiomática de la probabilidad1. Dicha teoría define la probabilidad como una función que asigna a cada posible resultado de un experimento aleatorio un valor no negativo, de forma que se cumpla la propiedad aditiva. La definición axiomática establece las reglas que deben cumplir las probabilidades, aunque no asigna valores concretos.

Uno de los conceptos más importantes de la teoría de probabilidades es el de variable aleatoria que, intuitivamente, puede definirse como cualquier característica medible que toma diferentes valores con probabilidades determinadas. Toda variable aleatoria posee una distribución de probabilidad que describe su comportamiento. Si la variable es discreta, es decir, si toma valores aislados dentro de un intervalo, su distribución de probabilidad especifica todos los valores posibles de la variable junto con la probabilidad de que cada uno ocurra. En el caso continuo, es decir, cuando la variable puede tomar cualquier valor de un intervalo, la distribución de probabilidad permite determinar las probabilidades correspondientes con subintervalos de valores. Una forma usual de describir la distribución de probabilidad de una variable aleatoria es mediante la denominada función de densidad, en tanto que lo que se conoce como función de distribución representa las probabilidades acumuladas.

El primer ámbito de aplicación de la Estadística fue la medición física y posteriormente cualquier tipo de medición, pero en general ligada a poder precisar la media o el promedio de una variable o magnitud. Es decir, intentando estimar de alguna forma la exactitud de la medición con la máxima precisión posible o por lo menos cuantificada. Incluso los grandes estadísticos del siglo pasado, como Pearson, Fisher, Gosset, Snedecor, Wilcoxon, y tantos otros, se dedicaron preferentemente o bien al control de calidad o al diseño experimental, sobre todo en el ámbito agropecuario, área en la que los resultados obviamente se centran en los promedios de producción obtenidos con la menor variabilidad posible.

En Ciencias de la Salud, se han aplicado históricamente esos criterios en el entorno más cercano al ensayo experimental, como es el ensayo clínico. Sin embargo existen grandes diferencias conceptuales entre los ensayos clínicos y los diseños experimentales desarrollados por los citados autores.

Por otro lado, una gran parte de los estudios no pretenden observar el promedio resultante al efectuar una experiencia o al efectuar una observación pre o postintervención en un colectivo de pacientes. A nadie le satisfaría la idea de que le curasen en promedio, sino que lo que es de interés es cuál es la probabilidad de curación, cuál es la probabilidad de sobrevivir más de un número de años determinado después de una intervención quirúrgica oncológica o después de haber sufrido un infarto de miocardio. Es decir, en la mayoría de casos el interés del clínico se basa en la necesidad de precisar la probabilidad de que ocurra un fenómeno o no, y eso en general se denomina el valor pronóstico de una acción. Este tipo de análisis requiere de la resolución y determinación de funciones de probabilidad que no tienen nada que ver, en principio, con la conocida distribución normal o campana de Gauss.

El conocimiento exacto de los parámetros que definen a una población solo es posible si se conoce la distribución poblacional de cada variable en cuestión. La mayoría de distribuciones de interés en Ciencias de la Salud, como la normal, binomial, hipergeométrica, T- Student, Poisson y tantas otras, requieren el cálculo de permutaciones y por lo tanto de la determinación de factoriales. Sin embargo, la distribución normal resulta especialmente muy útil en medicina, ya que se adecúa perfectamente a un amplio abanico de variables que se manejan habitualmente, lo que la convierte en una herramienta fundamental en la estimación de numerosos parámetros, tomando en cuenta, que el objetivo primordial y que persigue la estadística aplicada a las Ciencias de la salud es lograr una medicina basada en evidencias o pruebas que puedan contrastar las hipótesis planteadas en la incidencia de una enfermedad dentro de una determinada población.







La probabilidad no trata de posibilidades, sino sobre la creencia de la existencia de un resultado, causa o motivo alternativo. Nassim Taleb


PROPIEDADES DE LA ESPERANZA MATEMÁTICA, VARIANZA MATEMÁTICA Y DESVIACIÓN ESTÁNDAR

ESPERANZA MATEMÁTICA O VALOR ESPERADO DE UNA VARIABLE ALEATORIA:

El valor esperado de una variable aleatoria E(x) es un parámetro de centralización y su significado es similar al de la media aritmética de un conjunto de datos. En realidad, puede considerarse que es una generalización del concepto de media aritmética, esto se refiere a un conjunto de datos que en la mayoría de los casos constituyen una muestra de una población mucho mayor, E(x) coincidiría con la media aritmética poblacional en el caso de que pudiera estudiarse toda la población, en este caso E(x)= Ω pero este calculo seria posible en algunas poblaciones finitas.

En el caso de una variable aleatoria discreta, el calculo del valor esperado se realiza según, la siguiente expresión:                                                        
                                                                      ∞
E(x) = Σ Xi f(Xi)
                                                                     i=1

Propiedades de la Esperanza Matemática:

  • El valor esperado de una constante es igual a ella misma E(C) = C, siendo C una constante.
         Ejemplos: Si la constante es el numero 2, entonces se tiene que: E(2) = 2
                         Si la constante es el numero 8, entonces se tiene que: E(8) = 8

  • Si X y Y son variables aleatorias se cumple que: E(X+Y) = E(X) + E(Y) ; esto indica que el valor esperado de la suma de dos variables aleatorias es igual a la suma de dos valores esperados.
        Ejemplos: E(2+8) = E(2) + E(8)
                        E(4+3) = E(4) + E(3)

  • El valor esperado del producto de una constante por una variable aleatoria, es igual al producto de la constante por el valor esperado de la variable: E(C . X) = C . E(X)
        Ejemplos: E(4 . X) = 4 . E(X)
                        E(3 . X) = 3 . E(X)

  • Si X es una variable aleatoria e Y es otra variable aleatoria, el valor esperado del producto de las variables es igual al producto de los valores esperados, solamente en el caso de que las variables X e Y sean independientes, entonces se tiene que:  
    E(X .Y) = E(X) . E(Y) únicamente en el caso de que X e Y sean variables aleatorias independientes
        Ejemplos: E(3 . 4) = E(3) . E(4) Solo si 3 y 4 son variables aleatorias independientes
                        E(5 . 2) = E(5) . E(2) Solo si 5 y 2 son variables aleatorias independientes

EJEMPLO: Sean X e Y dos variables aleatorias cuyos valores esperados son: E(X) = 6 y E(Y) = 5. Calcular E(2X + 4Y + 3). Aplicando las propiedades del valor esperado se tiene:
E(2X + 4Y + 3) = E(2X) + E(4Y) + E(3)
Se ha aplicado la segunda propiedad donde: el valor esperado de la suma de dos variables aleatorias es igual a la suma de dos valores esperados.
E(2 . X) = 2 . E(X) Tercera propiedad
E(4 . Y) = 4 . E(Y) Tercera propiedad
E(3) = 3 Primera propiedad
E(2X + 4Y + 3) = E(2X) + E(4Y) + E(3) = 2.6 + 4.5 + 3 = 12 + 20 + 3 = 35



VARIANZA MATEMÁTICA:
La esperanza y la mediana de una variable aleatoria son características de su distribución que describen un valor central. Sin embargo, variables aleatorias con distribuciones muy distintas pueden tener la misma esperanza. Por ejemplo pueden diferir en cuan dispersos alrededor de la esperanza están los valores que toma la variable. Variables con la misma esperanza pueden estar más o menos dispersas. Esto nos lleva a definir otras características de una variable aleatoria, que midan la dispersión alrededor de un valor central. Tampoco existe una única manera de medir dicha “dispersión”. Consideremos una variable aleatoria X. Podríamos considerar la distancia entre los valores que toma X y su esperanza, es decir |X − E (X)| y como esto resulta ser una variable aleatoria, calcular su esperanza E (|X − E (X)|) .

Definimos la varianza de la variable aleatoria X por :

Var (X) = E ((X − E (X)² )
Esta definición equivale a:
V(X) = E(X²) – (E(X))²


E(X) = Σ Xi f(Xi)

E(X2) = Σ Xi2 f(Xi)

La varianza puede interpretarse como un momento de la distribución de probabilidad respecto a la esperanza. La varianza aumenta al aumentar la dispersión de la probabilidad respecto a la esperanza.


Propiedades de la Varianza Matemática:
  • Var (C) = 0 La varianza de una constante es cero, la varianza mide la dispersión, evidentemente



    una constante no puede tener dispersión y su varianza es cero.
        
         Ejemplos: Var (4) = 0
                          
                         
                        
                         Var (3) = 0


  • Var (C . X) = C2 Var(X) La varianza del producto de una constante por una variable, es igual a 



    la constante al cuadrado por la varianza de la variable.

        Ejemplos: Var (3X) = 9 Var (X)
                         
                        
                        
                        Var (4X) = 16 Var (X)


  • Si X e Y son variables aleatorias cualesquiera: Var (X + Y) = Var(X) + Var(Y) + 2 Cov(X, Y) 



    Teniendo en cuenta que la covarianza de dos variables independientes es igual a cero. Si X e Y 



    son dos variables independientes Cov(X, Y) = 0 por lo tanto: Var (X + Y) = Var(X) + Var(Y)

         La varianza de la suma de dos variables independientes es igual a la suma de las varianzas.

     
        

         Ejemplo: X e Y son dos variables aleatorias independientes, con los siguientes parámetros: 

        
        

         E(X) =3 ;   E(Y) = 4 ; Var(X) = 6 ; Var(Y) = 8
    
     


Hallar los valores pedidos a continuación:




a) E(X – Y)




b) Var(X – Y)




c) E(3X – 4Y + 5)




d) Var(3X – 4Y + 5)







a) E(X – Y) = E(X +(-Y)) = E(X) + E(-Y) = E(X) – E(Y) = 3 – 4 = -1







b) Var(X – Y) = Var(X +(-Y)) Teniendo en cuenta que las dos variables son independientes y según la 



tercera propiedad de la varianza: Var(X) + Var(-Y) = Var(X) + Var(Y) = 6 + 8 = 14







c) E(3X – 4Y + 5) = E(3X) – E(4Y) + E(5)
                          
                       
 
                           = 3 . E(X) – 4. E(Y) + 5
                               
                          

                           = 3 . 3 – 4 . 4 + 5 = -2







d) Var(3X – 4Y + 5) = Var(3X) + Var(-4Y) + Var(5)



Var(3X) = 9. Var(X) = 9 . 6 = 54



Var(-4Y) = 16. Var(Y) = 16 . 8 = 128



Var(5) = 0



Var(3X – 4Y + 5) = 54 + 128 = 182








DESVIACIÓN TÍPICA:




Como la varianza tiene unidades al cuadrado, se define las desviación típica (d.t.) (también llamada 



estándar) como la raíz cuadrada de la varianza:



d.t. = V(X)


En general, la varianza de una variable se denomina como σ2. Por lo tanto la desviación típica sera: σ


V(X) = σ2


d.t. = V(X) = σ2 = σ