Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Análisis Paramétricos

No description
by

Jenn Rey

on 10 April 2014

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Análisis Paramétricos

Análisis Paramétricos
Coeficiente de correlación de Pearson
Prueba estadistica para analizar la relación entre dos variables, se simboliza como "r". Sus niveles de medición son intervalos o razón.

La prueba en sí no considera a una como independiente y a otra como dependiente, pues no evalúa la causalidad.

Se calcula a partir de las puntuaciones obtenidas de dos variables.


Análisis de covarianza
Prueba estadística que analiza la relación entre una variable dependiente y dos o más dependientes.

Tres perspectivas para análisis de covarianza:
Prueba de diferencia de proporciones
Prueba estadística para analizar si dos proporciones difieren significativamente entre sí.

La hipótesis es de diferencia de proporciones en dos grupos.

La comparación se realiza sobre una variable, si hay varias se efectúa una prueba de diferencia de proporciones por variable.

Sus niveles de medición son intervalos o razón expresados en porcentajes o proporciones.

Se obtienen las proporciones de los grupos.

Z= nivel de confianza elegido, debe ser igual o mayor que el valor de la tabla, se acepta hipótesis.
Métodos o pruebas estadísticas
Coeficiente de correlación de Pearson y regresión lineal.
Prueba " t ".
Pueba de contraste de la diferencia de proporciones.
Análisis de varianza unidireccional ( ANOVA
Oneway
).
Análisis de varianza factorial ( ANOVA ).
Análisis de covarianza ( ANCOVA ).
Presuntos o presuposiciones de la estadística paramétrica
La distribución de la variable es normal.

El nivel de medición de la variable dependiente es por intervalos o razón.

Cuando dos o más poblaciones son estudiadas, tiene una varianza homogéneas, tienen una dispersión similar.

Regresión lineal
Modelo matemático para estimar el efecto de una variable sobre otra, asociado con el coeficiente de Pearson.

Maneja dos variables, independiente y otra dependiente.

Sus niveles de medición son intervalos o razón.

Este se determina con base en el diagrama de dispersión, gráfica donde se relacionan las puntuaciones.
Análisis de varianza unidireccional
Prueba estadística para analizar si más de dos grupos difieren significativamente entre sí en cuanto sus medidas y varianzas, a diferencia de "t" se utiliza con tres o más grupos.

Su hipótesis se basa en que sí difieren significativamente entre sí, si no difieren se considera una hipótesis nula.

La variable independiente es categórica y la dependiente es por intervalos o por razón.

La varianza unidireccional produce un valor conocido como "F" o razón "F" distribución muestral; es otro miembro de la familia de distribuciones muestrales.


Prueba "t"
Prueba estadística para evaluar si dos grupos difieren entre sí de manera significativa respecto a sus medias.

Se simboliza como t.

La hipótesis propone que los grupos difieren significativamente entre sí, la nula que no difieren.

Sus niveles de medición son intervalos o razón.

El valor se obtiene en muestras grandes mediante la fórmula

Si los grados de libertad exceden los 120, la distribución normal es utilizada como una aproximación.

Una vez calculado el valor "t" y los grados de libertad se elige nivel de significancia.

Si el valor es igual o mayor al que aparece en la tabla, se acepta la hipótesis.
Análisis factorial de varianza
Prueba estadística para evaluar el efecto de dos o más variables independientes sobre una variable dependiente.

Análisis de varianza unidireccional, incluye más de una variable independiente.

La variable dependiente se le llama criterio, a la independiente se le conoce como factores, estas pueden estar en cualquier nivel de medición.

Es un método estadístico propio para los diseños experimentales factoriales.
Existen dos tipos de análisis:

Paramétricos
No Paramétricos

En una misma investigación se pueden usar ambos.
El coeficiente de Pearson puede variar de -1.00 a +1.00

-1.00 = Correlación negativa perfecta.
-0.90= Correlación negativa muy fuerte.
-.075 = Correlación negativa considerable.
-0.50 = correlación negativa media.
-0.10 = Correlación negativa débil.
0.00 = No existe correlación alguna entre las variables.
+0.10 = Correlación positiva débil.
+0.50 = Correlación positiva media.
+0.75 = Correlación positiva considerable.
+0.90 = Correlación positiva muy fuerte.
+1.00 = Correlación positiva perfecta.

El signo indica la dirección de la correlación y el valor numérico, la magnitud de la correlación.

Cuando el coeficiente se eleva al cuadrado el resultado indica la varianza de factores comunes.
La razón "F" que es una razón de varianzas se expresa.
Las diferencias entre los grupos son medidas en términos de varianza.

La varianza es una medida de dispersión y es calculada en términos de desviaciones elevadas al cuadrado.
Media cuadrática, implica un promedio de varianzas elevadas al cuadrado. Se obtiene con base en los grados de libertad intergrupales.

Media cuadrática dentro de los grupos, se calcula obteniendo primero la desviación de cada puntuación posteriormente se suma y combina.

K= Número de grupos
Perspectiva experimental
El interés del investigador se centra en las diferencias observadas. Asume que hay otras independientes que contaminan la relación.

Objetivo "purificar" la relación entre las independientes y la dependientes.

Variable categórica: Unas cuantas categorías.
Variable continua: Muchas categorías. (covariables)
Perspectiva de regresión
Tanto las variables independientes como las covariables resultan de interés para el investigador, desean examinar el efecto y después ajustar o corregir efectos.
Perspectiva de interés por la covariable.
El interés principal se centra en analizar la relación entre la variable dependiente y la covariable, la influencia que se remueve es la de variables independientes.

Primero se controla el efecto y después se analiza.


En cualquier caso, el análisis de covarianza, se puede utilizar en contextos experimentales y no experimentales.

Incrementar la precisión en experimentos.
Eliminar influencias extrañas (grupos de experimento).
Eliminar efectos de variables que confundan la interpretación.
Jennifer Reyes
Emilio Zunzunegi
Estadisticas para las Ciencias Sociales
GRACIAS
Full transcript