Loading presentation...
Prezi is an interactive zooming presentation

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Análisis estadístico inferencial

No description
by

rosalia quezada

on 22 November 2013

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Análisis estadístico inferencial

Análisis estadístico inferencial
En esta parte se analizan las hipótesis a la luz de pruebas estadísticas, que a continuación se detallan
¿Para qué nos sirve la estadística inferencial?
El propósito de la investigación debe ir mas allá de describir las distribuciones de las variables, se debe pretender probar la hipótesis y generalizar los resultados obtenidos en la muestra a la población o universo y estimar parámetros.
¿En que consiste la prueba de hipótesis?
Una hipótesis en el contexto de la estadística inferencial es una proposición respecto a uno o varios parámetros, y lo que el investigador hace por medio de la prueba de hipótesis es determinar si la hipótesis poblacional es congruente con los datos obtenidos en la muestra.
Una hipótesis se retiene como un valor aceptable del parámetro, si es consistente con los datos. Si no lo es, se rechaza (pero los datos no se descartan)
En el vídeo se da una explicación y ejemplo mas amplio.
¿Qué es una distribución muestral y el teorema del limite central?
Es un conjunto de valores sobre una estadística calculada de todas las muestras posibles de determinado tamaño de población. Las distribuciones muestrales de medias son probablemente las mas conocidas.
En el vídeo se da un claro ejemplo de este concepto.
Casi nunca se obtiene la distribución muestral ( la distribución de las medias de todas las muestras posibles). Es mas bien un concepto teórico definido por la estadística para los investigadores. Lo que comúnmente hacemos es extraer una sola muestra.
Vídeo sobre teorema central del limite
Vídeo sobre la distribución muestral
¿Qué es el nivel de significancia?
Es la probabilidad de que un evento ocurra el cual oscila entre 0 y 1, donde 0 implica la imposibilidad de ocurrencia y 1 la certeza de que el fenómeno ocurra.
Vídeo explicativo
Vídeo con ejemplo
Hay dos tipos de análisis estadísticos que pueden realizarse para probar hipótesis: los análisis paramétricos y los no paramétricos. Cada tipo posee sus características y presuposiciones que lo sustentan; la elección de que clase de análisis efectuar depende de estas presuposiciones. De igual forma, cabe destacar que en una misma investigación es posible llevar a cabo análisis paramétricos para algunas hipótesis y variables, y análisis no paramétricos para otras. Asimismo, los análisis a realizar dependen de las hipótesis que hayamos formulado y el nivel de medición de las variables que las conforman.
Para poder utilizar cualquiera de las anteriores es necesario conocer la distribución de nuestros datos aplicando una prueba llamada K-S (kolmogorov - smirnoff), cuya función es determinar si un conjunto de datos cumple con un patrón de distribución normal o no.
Distribución normal = uso de pruebas paramétricas
(valor de p es
mayor
a 0.05 en K-S, entonces tenemos una distribución normal)


Distribución no normal= uso de pruebas no paramétricas
(valor de p es
= o menor
0.05 en K-S, tenemos una distribucion No normal)
Importante
Paramétricas
No Paramétricas
Para realizar análisis paramétricos debe partirse de los siguientes supuestos:
1. La distribución poblacional de la variable dependiente es normal: el universo tiene una distribución normal.
2. El nivel de medición de las variables es por intervalos o razón
3. Cuando dos o mas poblaciones son estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribuciones.

Comparar
Correlacionar
Podemos comparar y/o correlacionar nuestros datos y para cada una de estos existen diferentes pruebas que se muestran a continuación
Prueba T de Student
Es una prueba estadística para evaluar si dos grupos difieren entre si de manera significativa respecto a sus medias en una variable. Se simboliza: t.

En la
hipótesis
hay diferencia entre dos grupos. La hipótesis alterna propone que los grupos difieren de forma significativa entre si y la hipótesis nula plantea que los grupos no difieren significativamente. Se comparan las medias.

En la
variable
la comparación se realiza sobre solo una ( regularmente y de manera teórica :
dependiente
). Si hay diferentes variables se efectuaran diferentes pruebas t (una por cada variable).

Nivel de
medición
de la variable de comparación:
intervalos o razón
.

Es calculada en el software estadístico SPSS


Vídeo demostrativo de análisis de datos en SPSS para prueba t
ANOVA One-way (Análisis de varianza unidireccional o de un factor)
Es una prueba estadística para analizar si mas de dos grupos difieren significativamente entre si en cuanto a sus medias y varianzas. La prueba t se usa para dos grupos y el análisis de varianza unidireccional (ANOVA) se usa para tres, cuatro o mas grupos. Aunque con dos grupos se puede utilizar también.

En la
hipótesis
hay diferencia entre dos o mas grupos. La hipótesis alterna propone que los grupos difieren de forma significativa entre si y la hipótesis nula plantea que los grupos no difieren significativamente.

Variables
: una variable independiente y una dependiente.

Nivel de
medición
de las variables: La variable independiente es categórica y la dependiente es por intervalos o de razón

El hecho de que la variable independiente sea categórica significa que es posible formar grupos diferentes. Puede ser una variable nominal, ordinal, por intervalos o de razón (pero en estos dos últimos dos casos la variable debe reducirse a categorías).



Coeficiente de correlación de Pearson
Es una prueba estadística para analizar la relación entre dos variables medidas en un nivel de medición por intervalos o de razón

Hipótesis
a probar: correlacional del tipo de "a mayor X, mayor Y" , " A mayor X, menor Y". La hipótesis alternativa señala que la correlación es significativa.

Variables
: dos. La prueba en si no considera a una como independiente y a otra como dependiente, ya que no se evalua causalidad. La nocion de causa- efecto es posible establecerla teoricamente, pero la prueba no asume dicha causalidad.

El coeficiente de correlacion de Pearson se calcula a partir de las puntuaciones obtenidas en una muestra en dos variables. Se relacionan las puntuaciones recolectadas de una variable con las puntuaciones obtenidas de la otra, con los mismos participantes o casos.

Nivel de medición
: Intervalos o de razon.
Interpretacion: El coeficiente de Pearson puede variar de -1.00 a +1.00, donde:
-1.00 = correlacion negativa perfecta. significa que a mayor X, menor Y, de manera proporcional. Es decir, cada vez que X aumenta una unidad, Y disminuye siempre una cantidad constante. Esto tambien aplica a "mayor X, mayor Y".
-0.90= Correlacion negativa muy fuerte
-0.75= Correlación negativa considerable
-0.50= Correlacion negativa media
-0.25= Correlacion negativa débil
-0.10= Correlacion negativa muy débil
0.00= No existe correlacion alguna entre las variables.
+0.10 = Correlacion positiva muy débil
+0.25= Correlacion positiva débil
+0.50= Correlacion positiva media
+0.75= Correlacion positiva considerable
+0.90= Correlacion positiva muy fuerte
+1.00= Correlacion positiva perfecta cada vez que X aumenta, Y aumenta siempre una cantidad constante
El signo indica la direccion de la correlacion (positiva o negativa); y el valor numerico es la magnitud de la correlacion.
Es un modelo estadístico para estimar el efecto de una variable sobre otra. Esta asociado al coeficiente de Pearson. La regresión lineal se determina con base en el diagrama de dispersión, este consiste en un gráfico donde se relacionan las puntuaciones de una muestra en dos variables.
Regresiones lineales y Coeficiente de Pearson
En el siguiente video se muestra como realizarlo en spss, asi como una breve explicación del tema
Para realizar los análisis no paramétricos debe partirse de las siguientes consideraciones:
1. La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la distribución poblacional. Aceptan distribuciones no normales.
2. Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o de razón, pueden analizar datos nominales u ordinales. De hecho si se requieren aplicar análisis no paramétricas a datos por intervalos o razón, estos necesitan resumirse a categorías discretas. Las variables deben ser categóricas.
Pruebas no paramétricas
Comparar
Correlacionar
Asociar
Chi cuadrada
Es una prueba estadística para evaluar hipótesis acerca de la relación entre dos variables categóricas.
Hipótesis
a probar: Correlacionales
Variables
involucradas: dos. La prueba chi cuadrada no considera relaciones causales.
Nivel de medición de variable: nominal u ordinal ( intervalos o de razón deben estar reducidas a ordinales)

Se calcula por medio de una tabla de contingencia o tabulación cruzada, que es un cuadro de dos dimensiones, y cada dimensión contiene una variable.
Coeficiente rho de Spearman
Es una medida de correlación para variables en un nivel de medición ordinal , de tal modo que los individuos u objetos de la muestra pueden ordenarse por rangos (jerarquías)
En este vídeo se muestra como realizar la prueba en SPSS
PRUEBA “T” DE STUDENT PARA MUESTRAS PAREADAS (DEPENDIENTES)
Se utiliza cuando se quiere comparar dos medias de una misma población donde se evalúa un mismo dato más de una vez en cada sujeto de la muestra; también se encuentra este tipo de observaciones en estudios de casos y controles
PRUEBA “T” DE STUDENT PARA DOS MUESTRAS INDEPENDIENTES

Se utiliza cuando:

La comparación se realice entre las medias de dos variables.

Las observaciones deben ser no pareadas (Por ejemplo: en el caso de comparación de las poblaciones de hombres y mujeres).
Las mediciones se deben elaborar en una escala de razón.
Existen diferentes tipos de pruebas t
t para muestras pareadas
“T” PARA MUESTRAS INDEPENDIENTES
En los siguientes videos se muestra como realizar el análisis estadístico en SPSS
Wilcoxon
La prueba de rangos asignados de Wilcoxon pertenece a las pruebas no paramétricas de comparación de dos muestras relacionadas.

Los datos a comparar son ordinales o de razón
Son datos cuantitativos pero la muestra es pequeña (n<30)
No tienen distribución normal
Se comparan medias
En el siguiente video se muestra como realizar la prueba en SPSS
U de Mann- Whitney
Se utiliza cuando:
Se desee comparar 2 medias de dos variables con distribución no normal (no paramétrica)
Las variables estén en escala de razón
En muestras independientes o no pareadas
Permite realizar análisis estadísticos con menos de 20 sujetos.
En cada uno de los grupos que deseamos comparar es necesario que los sujetos sean extraídos aleatoriamente.
En el siguiente video se muestra como realizar la prueba en SPSS
Test exacto de Fisher
Se utiliza cuando:
Cuando se quiere analizar la asociación entre dos variables independientes en escala cualitativa (nominal u ordinal).
En datos con distribución no normal.
Para muestras menores de 5 en una casilla de la tabla de contingencia.

En el siguiente video se muestra como realizar la prueba en SPSS
Hernandez Sampieri, Roberto. Fernandez Collardo, Carlos. Baptista Lucio Pilar(2010). Análisis de datos cuantitativos. Metodología de la Investigación, Editorial: Mc Graw Hill Quinta edicion pags,278-335.
Bibliografía
Prueba chi cuadrada tutorial para SPSS
IMPORTANTE
No olvides que en las pruebas tanto paramétricas como no paramétricas un resultado significativo siempre sera cuando el valor de p es
igual o menor
a 0.05 si es mayor a 0.05 los resultados no se consideran significativos
Nota: en la prueba K-S no aplica esta condición, se interpreta de otra manera.
Full transcript