Prezi

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in the manual

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Estadistica: Análisis Parametrico

Covarianza, Correlación Lineal de Pearson
by Antonio Avendaño on 2 April 2013

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Estadistica: Análisis Parametrico

ANALISIS PARAMETRICO MÉTODOS PARAMÉTRICOS Y NO-PARAMÉTRICOS

Los procedimientos inferenciales que presentan estimaciones con respecto a los parámetros de la población de interés se llaman métodos paramétricos.
Los procedimientos inferenciales que no se encuentran sujetos a la forma de la distribución de la población y no requieren que las observaciones estén dadas en escala de intervalo se llaman métodos no paramétricos. MÉTODOS PARAMÉTRICOS
Precisan especificación de una distribución para la población de interés
Las observaciones de la mayoría de métodos tienen carácter cuantitativo.

MÉTODOS NO-PARAMÉTRICOS
No necesitan que se especifique la forma de la distribución de la población de interés
Pueden aplicarse cuando la variable respuesta es cualitativa. Variables bidimensionales

Si Y es otra variable definida sobre la misma población que X, ¿será posible determinar si existe alguna relación entre las modalidades de X y de Y ?
Un ejemplo trivial consiste en considerar una población formada por alumnos de primero de Medicina y definir sobre ella las variables: Covarianza
La covarianza Sxy , es una medida que nos hablará de la variabilidad conjunta de dos variables numéricas (cuantitativas).
Se define como: Coeficiente de Correlación Lineal de Pearson

La covarianza es una medida de la variabilidad común de dos variables (crecimiento de ambas al tiempo o crecimiento de una y decrecimimiento de la otra), pero está afectada por las unidades en las que cada variable se mide. Así pues, es necesario definir una medida de la relación entre dos variables, y que no este afectada por los cambios de unidad de medida. Un forma de conseguir este objetivo es dividir la covarianza por el producto de las desviaciones típicas de cada variable, ya que así se obtiene un coeficiente adimensional, r, que se denomina coeficiente de correlación lineal de Pearson. Propiedades del coeficiente de correlación lineal

Carece de unidades de medida (adimensional).
Es invariante para transformaciones lineales (cambio de origen y escala) de las variables.
Sólo toma valores comprendidos entre −1 y 1,
Cuando |r| esté próximo a uno, se tiene que existe una relación lineal muy fuerte entre las variables.
Cuando r = 0, puede afirmarse que no existe relación lineal entre ambas variables. Se dice en este caso que las variables son incorreladas. Ejercicio

En un grupo de 8 pacientes se miden las cantidades antropométricas peso y edad, obteniéndose los siguientes resultados: ¿Existe una relación lineal importante entre ambas variables? Solución: Interpretación del coeficiente de correlación.

Como se ha indicado el coeficiente de correlación de Pearson es un índice cuyos valores absolutos oscilan entre 0 y 1. Cuanto más cerca de 1 mayor ser la correlación, y
menor cuanto más cerca de cero. Pero como interpretar un coeficiente determinado? ¿Qué significa un coeficiente de 0.6?. ¿Es alto o bajo?. No puede darse una respuesta precisa.
Depende en gran parte de la naturaleza de la investigación. Por ejemplo, una correlación de 0.6 sería baja si se trata de la fiabilidad de un cierto test, pero sin embargo, sería alta si estamos hablando de su validez. Comparación de proporciones

Introducción

En la investigación biomédica se encuentran con frecuencia datos o variables de tipo cualitativo (nominal u ordinal), mediante las cuales se clasifican grupos de sujetos o individuos en dos o más categorías excluyentes entre ellas. Imaginemos
que queremos evaluar la presencia de desnutrición según el tratamiento sustitutivo empleado, bien Hemodiálisis (HD) o Diálisis Peritoneal (DP). En este caso, querremos evaluar la presencia o ausencia de un determinado evento (desnutrición) en función del tratamiento o terapia administrada. Cuando pretendemos comparar grupos de sujetos con respecto a una variable categórica, los resultados se presentan mediante tablas de frecuencias de doble entrada, conocidas con el nombre de Tablas de contingencia. El método estadístico a utilizar dependerá del número de proporciones a comparar, es decir, del número de categorías de la variable que se quiere comparar. Si las muestras son suficientemente grandes ocurre que una aproximación para un intervalo de confianza al nivel para la diferencia de proporciones de dos poblaciones es: Ejercicio

Se cree que la osteoporosis está relacionada con el sexo. Para ello se elige una muestra de 100 hombres de más de 50 años y una muestra de 200 mujeres en las mismas condiciones. Se obtiene que 10 hombres y 40 mujeres con algún grado de osteoporosis. ¿Qué podemos concluir con una confianza del 95 %? Análisis de varianza unidireccional (ANOVA One Way)

Es una prueba estadística para analizar si más de dos grupos difieren significativamente entre sí, en cuanto a sus medias y varianzas.
A continuación se presenta la tabla ANOVA one way y luego se definen los elementos que la componen. Grados de Libertad: Se obtiene a través de la formula (n-1), donde n significa el numero de grupos.
Suma de Cuadrados: Se refiere a la suma de cuadrados de las medias.
Medias Cuadráticas: Se obtiene dividiendo la suma de cuadrados, entre lo grados de libertad.
Estadístico F: Compara diferencias entre grupos.
P-Value: Es el α más pequeño con el que se rechaza la hipotesis nula, en este caso deber menor o igula a 0,5.
El valor de α puede variar entre 0,01 y 0,05. Ejemplo.

Nos presentan datos para tres tratamientos contra el acné, de tres doctores distintos. La primera variable nos describe el porcentaje de mejoras, y la segunda el doctor que trató al paciente. Se desea saber si el tratamiento que se reciba influye en las mejoras.
Por otro lado, los doctores Rodríguez y Júcar pertenecen a una asociación de dermatólogos altamente selectiva. Queremos saber si existen diferencias entre los doctores pertenecientes a dicha asociación con respecto al tercer doctor, el doctor Skoll. Estadísticos. Para cada grupo:

Número de casos
Media
Desviación típica
Error típico de la media
Mínimo
Máximo
Intervalo de confianza al 95% para la media
Tabla de análisis de varianza para cada variable dependiente
Contrastes a priori especificados por el usuario Datos. Los datos de variable de factor deben ser enteros y la variable dependiente debe ser cuantitativa (nivel de medida de intervalo).
Supuestos. Cada grupo es una muestra aleatoria independiente procedente de una población normal. El análisis de varianza es robusto a las desviaciones de la normalidad, aunque los datos deberán ser simétricos. Los grupos deben proceder de las poblaciones con varianzas iguales. RESULTADOS DE LA MUESTRA

A continuación, vemos un ejemplo de resultados de un contraste ANOVA.
Una serie de descriptivos para cada valor del factor: El contraste ANOVA, que en este caso resulta significativo: PARA MAS INFORMACIÓN VISITAR:

http://www.bioestadistica.uma.es/baron/apuntes/
See the full transcript