Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Fluxograma para escolha do teste estatístico

No description
by

César Silva

on 15 July 2014

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Fluxograma para escolha do teste estatístico

Fluxograma para escolha do teste estatístico
Dados
Nominais
Ordinais
Contínuos
Pareados
Não-Pareados
n < 25
n > 25
Teste do Sinal
Teste de McNemar
Pequena
Grande
Teste de Fisher
Qui-Quadrado
2 grupos
>2 grupos
Pareados
Não-Pareados
Wilcoxon
Mann-Whitney
Pareados
Não-Pareados
Friedman
2-way ANOVA
Kruskal-Wallis
1-way ANOVA
2 grupos
Distribuição
Normal
Distribuição
Não-Normal
Pareados
Não-Pareados
Teste t
pareado
Teste t
Transformar
Teste Não
Paramétrico
Pareado
Não-Pareado
Wilcoxon
Suposições:
1. Tamanho de amostra grande de cada população.
2. Distribuição normal da variável em cada população.
Teste t para Duas Médias de
amostras Independentes
Envolve variável do tipo quantitativa observada em duas amostras.
Testa hipótese sobre a média da variável de interesse em duas populações.
Teste do Sinal
de Wilcoxon p/ uma amostra
Teste não-paramétrico alternativo ao
teste t para uma média. Testa hipóteses
sobre uma mediana.
Suposições:
1. Variável quantitativa
2. Distribuição Simétrica
OBS: se a suposição de simetria não for satisfeita o teste não é adequado e a análise deve envolver apenas estatística descritiva.
|E|<2 * erro padrão = Simétrica
Analyse + Nonparametric Test + One Sample
Há evidências estatísticas (p-valor 0,016) de que a mediana do peso na população de "X" seja diferente de 26.
Suposições:
1. Variável quantitativa
2.Tamanho de amostra grande (>20)
Teste t para uma Média
Teste estatístico paramétrico adequado quando o estudo envolve variável do tipo quantitativa observada em uma amostra. Testa hipótese sobre a média da variável de interesse em uma população.
Analyse + Compare Means + One-Sample t test
Antes de fazer o teste, selecionar o grupo de interesse (Data + Select Case).
Há evidência estatística (p valor =0,048) de que o IMC médio da população "X" seja diferente de 28. A amostra sugere que o IMC médio seja maior que 28.

Com 95% de confiança o imc médio da população de casados é maior. Quanto maior? algo entre 0,02 e 3,15 unidades Ou ainda: estima-se, com 95% de confiança, que a média de peso da população "X" seja algo entre 28,02 e 31,15.
Existem 2 opções
Supondo variâncias iguais
Não supondo variâncias iguais
Teste F (ou Teste de Levene)
para verificar homogeneidade/igualdade das variâncias
Analyse + Compare Mean + Independent Samples t test
No exemplo do teste de Levene, não houve evidência estatística (p-valor = 0,602) de diferença das variâncias dos IMCs nas populações (usa ou não ticlo). Assim, opta-se por considerar o teste t com suposição de variâncias iguais.

No teste t que supôs variâncias iguais não houve evidência estatística (p-valor = 0,139) de que a média do IMC seja diferente para quem usa e quem não usa Ticlopidina. IC 95% para diferença de média (não usa – usa) = (-0,65 ; 4,53)
Os dados amostrais apresentarão evidências de que as variâncias populacionais (placebo e tratamento) diferem ou não significativamente,
podendo violar ou não a suposição de homogeneidade das variâncias.
Check-list
Teste t para 2 Médias (amostras independentes)
1. Identificar que a variável resposta é do tipo quantitativa.

2. Identificar que os dados são de duas amostras independentes e o tamanho de cada amostra é grande.

3. Não rejeitar o teste de normalidade nas duas amostras.

4. Realizar o teste F (de Levene) para comparação de variâncias.

Se rejeitar, utilizar o teste t que supõe variâncias diferentes.
Se não rejeitar, utilizar o teste t que supõe variâncias iguais.

OBS: caso o tamanho de pelo menos uma amostra seja pequeno ou o teste de normalidade seja rejeitado
utilizar teste não-paramétrico.
Teste U de
Mann-Whitney
Teste U de Mann-Whitney
para duas amostras independentes
Teste não-paramétrico alternativo ao
teste t para duas médias. Testa hipóteses sobre duas medianas.
Suposições:
1. Variável quantitativa
2. Duas amostras independentes
Analyse + Nonparametric Tests + Two independent samples
Não há evidência estatística (p-valor=0,981) de que a "X" mediana
seja diferente nos dois grupos de mulheres (controle e tratamento).
Teste t para Duas Médias de
amostras Pareadas (slide aula 3)
1 grupo
Suposições
- n maior que 20
- distrib. normal
Teste t para 1 média
Hipótese
H0: Mi = média de referência
H1: Mi ≠ média de referência
Analyse + Compare Means + One-Sample t test
Há evidência estatística (p-valor=?,??) de que a média da (variável x) da (população x) seja maior/menor que (valor da média de referência).

Estima-se, com 95% de confiança, que a média da (variável x) da (população x) seja algo entre (limite inferior e limite superior do intervalo de confiança).
Interpretação
Suposições
- variável quantitativa
- distrib. simétrica (skewness)
Hipótese
H0: Me = mediana de referência
H1: Me ≠ mediana de referência
Analyse + Nonparametric Test + One Sample
Há/Não há evidência estatística (p-valor=?,??) de que a mediana da (variável x) da (população x) seja maior/menor que (valor da mediana de referência).
Interpretação
Teste do sinal de Wilcoxon (1 amostra)
OBS: se a suposição de simetria não for satisfeita o teste não é adequado e a análise deve envolver apenas estatística descritiva.
2 grupos
Suposições
- n maior que 20
- distrib. normal
Independentes
Hipótese
H0: Mi(tratamento) = Mi(placebo)
H1: Mi(tratamento) ≠ Mi(placebo)
Variâncias iguais ou diferentes?
- Se p for maior que 0,05, variâncias iguais
- Se p for menor que 0,05, variâncias direfentes
Variável quantitativa
Variável quantitativa
A idéia é comparar o efeito médio (delta) entre os dois grupos (Controle e Tratado).

OBS: caso o tamanho de pelo menos uma amostras seja pequeno, ou o teste de normalidade seja rejeitado, utilizar teste não-paramétrico.
Analyse + Compare Mean + Independent Samples t test
Através do teste de Levene não há evidência estatística (p-valor = ?,??) de diferença das variâncias das (variáveis x) entre os (grupos x).
Por este motivo opta-se por considerar o teste t com suposição de variâncias iguais.

Através do teste t que supõe variâncias iguais há/não há evidência estatística (p-valor = ?,??) de que a média da (variável x) seja diferente entre o (grupo tratamento) e o (grupo controle).

Estima-se com 95% de confiança que a diferença média entre (grupo tto) e (grupo controle) seja algo entre (?,?? ; ?,??).
Interpretação
Suposições
- n maior que 20
- distrib. normal
Dependentes
Hipótese
H0: Mi(momento1) = Mi(momento2)
H1: Mi(momento1) ≠ Mi(momento2)
Variâncias iguais ou diferentes?
- Se p for maior que 0,05, variâncias iguais
- Se p for menor que 0,05, variâncias direfentes
Analyse + Compare Mean + Independent Samples t test
Através do teste de Levene não há evidência estatística (p-valor = ?,??) de diferença das variâncias das (variáveis x) entre os (grupos x).
Por este motivo opta-se por considerar o teste t com suposição de variâncias iguais.

Através do teste t que supõe variâncias iguais há/não há evidência estatística (p-valor = ?,??) de que a média da (variável x) seja diferente entre o (momento 1) e o (momento 2).

Estima-se com 95% de confiança que a diferença média entre (momento 1) e o (momento 2) seja algo entre (?,?? ; ?,??).
Interpretação
Aqui usa-se o mesmo teste, no entanto, devemos criar uma nova coluna chamada "média", que será a média entre os diferentes momentos de cada participante.

Após, cria-se uma nova coluna chamada "ajuste", onde deverá ser usada a função COMPUTE para calcular a diferença entre a média geral da coluna "média" e cada um dos valores da mesma coluna.

Por fim, deverão ser recriadas as colunas das variáveis, por exemplo "intervenção-pré2" e "intervenção-pós2", e novamente através da função COMPUTE calcular a diferença entre a coluna "ajuste" e os respectivos valores das variáveis "intervenção-pré1" e "intervenção-pós1".

OBS.: para o teste, usar as variáveis "intervenção-pré2" e "intervenção-pós2".
Teste t para 2 médias
Teste de Wilcoxon para 2 amostras pareadas
Suposições
- simetria para a variável nova (diferença entre pós - pré)
- variável quantitativa
- duas amostras pareadas
Hipótese
H0: Me(pós-pré) = 0
H1: Me(pós-pré) ≠ 0
Teste t para 2 médias
de amostras pareadas
Suposições
- n maior que 20
Hipótese
Criar uma coluna "Diferença" e calcular o momento
"pós - pré", assim, verificar se a média desta nova coluna é ou não significativamente diferente de 0.
Há/Não há evidência estatística (p-valor=?,??) de que a diferença na (variável x) seja diferente de 0 para pacientes do (grupo x).

Os dados indicam que a (variável x) tenha aumentado, em média, (resultado da média do pós-pré) unidades.

Com 95% de confiança o aumento médio é algo entre ?,?? e ?,??. Este aumento é para indivíduos que, no tempo 0, apresentaram (variável x) médio de ?,??.
Interpretação
H0: Mi(depois-antes) = 0
H1: Mi(depois-antes) ≠ 0
Analyse + Compare Means + Paired Sample t test
Criar uma coluna "Diferença" e calcular o momento
"pós - pré", assim, verificar se a média desta nova coluna é ou não significativamente diferente de 0.
Há/Não há evidência estatística (p-valor=?,??) de que a mediana da diferença na (variável x) seja diferente de 0 para indivíduos do (grupo x).
Interpretação
Analyse + Nonparametric Tests + Related Samples
ABA OBJECTIVE: customyse analysis
ABA FIELDS: campo "Test fields" inserir as variáveis "pós" e "pré"
ABA SETTINGS: Wilcoxon Matched-pair signed-rank (2 samples)
Teste U de Wilcoxon para 1 amostra
Suposições
- variável quantitativa
- duas amostras independentes
Hipótese
H0: Me(tratamento) = Me(placebo)
H1: Me(tratamento) ≠ Me(placebo)
Analyse + Nonparametric Tests + Two independent samples
Há/Não há evidência estatística (p-valor=?,??) de que a mediana da (variável x) seja diferente entre os (grupos x e y).
Interpretação
ABA OBJECTIVE: customyse analysis
ABA FIELDS: campo "Test fields" inserir a variável, e no campo "Groups" inserir os grupos
ABA SETTINGS: Mann-Whitney U (2 samples)

Teste não paramétrico alternativo ao teste t para duas médias independentes
Teste não paramétrico alternativo ao teste t para duas amostras pareadas
ABA OBJECTIVE: customyse analysis
ABA FIELDS: campo "Test fields" inserir a variável
ABA SETTINGS: Customize tests e marcar a caixa "Compare median to(...)", inserindo a mediana de referência

TEST VARIABLE: inserir a variável
GROUPING VARIABLE: inserir variável do grupo
DEFINE GROUPS: inserir código do grupo placebo
e código do grupo tratamento
PAIRED VARIABLES:
Variable 1 inserir variável do valor pós
Variable 2 inserir variável do valor pré
>2 grupos ANOVA
Suposições
- n maior que 20
- distrib. normal em cada população
- homogeneidade de variâncias
ANOVA de 1 fator
Hipótese
H0: Mi(a) = Mi(b) = Mi(c) ... Mi(k)
H1: Pelo menos uma das médias difere
Há evidência estatística (p-valor=?,??) de que ao menos uma das médias da (variável x) da (população x) sejam diferentes entre si.

De acordo com o teste de comparações múltiplas de Tukey há evidência estatística de diferença entre a média do grupo x (média do x) e y (média do y) (p-valor=?,??).

Estima-se, com 95% de confiança, que a diferença média da (variável x) entre a população x e y seja algo entre (limite inferior e limite superior do intervalo de confiança).
Interpretação
Suposições
- variável quantitativa
- amostras independentes
Hipótese
Analyse + Nonparametric Tests + Legacy Dialogs +
K Independent Samples
O teste de Kruskall Wallis indica que pelo menos um dos grupos apresenta mediana significativamente diferente (H ou Chi Square=(gl) ?,??, p-valor=?,??) dos demais.

Testes de Mann-Whitney foram usados para verificar entre quais grupos havia diferença. Uma correção de Bonferroni foi aplicada e todas as médias foram testadas com o nível de significância de p-valor=(0,05 / pelo número de testes).

Os testes sugerem que há/não há diferença significativa (p-valor=?,??, IC=?,?? - ?,??) entre os grupos (x e y), e que há/não há diferença significativa (p-valor=?,??, IC=?,?? - ?,??) entre os grupos (y e z).
Interpretação
Teste Kruskall Wallis
Variável quantitativa
Envolve variável do tipo quantitativa observada em várias amostras
Suposições na prática
- amostras independentes
- n mínimo 5 em cada grupo
- normalidade dos resíduos
- correção quando variâncias desiguais
Analyse + General Linear Model + Univariate
Em "Dependent variable": inserir a variável desejada
Em "Fixed Factor": inserir a variável dos grupos

MODEL: selecionar "Custom" e adicionar a variável dos grupos em "Model"
SAVE: selecionar "Studentized"
OPTIONS: marcar "Homogeneity tests"
- Se na linha da variável dos grupos o p-valor < 0,05, indica que pelo menos uma das médias difere (Teste F da ANOVA)
- Portanto, ANOVA significativa, fazer teste de comparações múltiplas para avaliar as diferenças
Tests of between-Subjects Effects
Levene's Test > 0,05, variâncias homogêneas
OUTPUT SPSS
Post-Hoc (Comparações múltiplas)
Analyse + General Linear Model + Univariate
- Bonferroni (amostras com mesmo n; rigoroso com o erro alfa)
- Tukey (amostras com mesmo n)
- Gabriel (pequenas diferenças no n das amostras)
- GT2 Hochberg (grandes diferenças no n das amostras)
Alternativa à ANOVA paramétrica
H0: Me(a) = Me(b) = Me(c) ... Me(k)
H1: Pelo menos uma das medianas difere
- Ranks: mostra a média dos postos por grupo
- Test Statistics: exibe a estatística teste H ou Chi Square, seu grau de liberdade associado, a significância e o intervalo de confiança
- Esse teste nos diz se há ou não há diferença entre os grupos, mas não diz entre quais grupos
OUTPUT SPSS
Suposições
- variável quantitativa
- amostras dependentes
Hipótese
Analyse + Nonparametric Tests + Legacy Dialogs +
K Related Samples
O teste de Friedman indica que pelo menos um dos grupos apresenta mediana significativamente diferente (p-valor=?,??) dos demais.
Interpretação
Teste de Friedman
ABA OBJECTIVE: customyse analysis
ABA FIELDS: campo "Test fields" inserir a variável e em "Groups" inserir a variável dos grupos
ABA SETTINGS: Kruscall-Wallis 1-way ANOVA (k samples)
Alternativa à ANOVA paramétrica (grupos dependentes)
H0: Me(a) = Me(b) = Me(c) ... Me(k)
H1: Pelo menos uma das medianas difere
- Descriptive Statistics: mostra a média dos postos em cada condição
- Tests Statistics: mostra a estatística teste (F ou Chi-Square), graus de liberdade (df) e a significância.
OUTPUT SPSS
Analyse + Nonparametric Tests + Legacy Dialogs + 2 Independent Samples
NOTA
Deve-se realizar um post hoc não paramétrico (Mann-Whitney), contudo, se utilizarmos vários testes de Mann-Whitney iremos aumentar o erro tipo I (alfa, comumente aceito com o valor de 0,05). Assim, podemos usar este teste algumas vezes desde que seja feito algum tipo de ajuste para assegurar que o erro do tipo I não ultrapasse 0,05. A sugestão é, seja seletivo nas comparações!

O método mais fácil é o de Bonferroni, que ao invés de usar o valor crítico de 0,05 para cada teste, utiliza o 0,05 dividido pelo número de testes que iremos realizar, logo, se forem 2 testes o nosso valor crítico será 0,05/2=0,025. Perceba que realizar muitas comparações fará com que seu erro alfa fique excessivamente pequeno, podendo trazer problemas, aumentando o erro do tipo II.

Portanto, sugere-se usar um dos grupos como referência, e compará-lo com os demais, 1 a 1, evitando a comparação de todos contra todos!
"Test Variable List": inserir a variável desejada
"Grouping Variable": inserir a variável de grupo
"Define Range": insira a faixa dos nº atribuídos aos grupos
"Test Type": marcar Kruskal-Wallis H
"Exact": Monte Carlo p/ amostras grandes Exact p/ pequenas
- Test Statistics: exibe a estatística teste Mann-Whitney U, a significância e o intervalo de confiança
- Esse teste nos diz se há ou não há diferença entre as medianas dos grupos selecionados
OUTPUT SPSS
"Test Variable List": inserir a variável desejada
"Grouping Variable": inserir a variável de grupo
"Define Grupos": insira o nº dos grupos a serem comparados
"Test Type": marcar Mann-Whitney U
"Exact": Monte Carlo p/ amostras grandes; Exact p/ pequenas
amostras independentes
>2 grupos ANOVA
Variável quantitativa
amostras dependentes
O teste de Friedman indica/não indica que pelo menos um dos grupos apresenta mediana significativamente diferente (X² ou Chi Square=(gl) ?,??, p-valor=?,??) dos demais.

Testes de Wilcoxon foram utilizados para acompanhar esses achados. Uma correção de Bonferroni foi aplicada e todos os efeitos foram testados com um nível de significância de p-valor=(0,05 / pelo número de testes).

Os testes sugerem que há/não há diferença significativa (p-valor=?,??) entre os grupos (x e y), e que há/não há diferença significativa (p-valor=?,??) entre os grupos (y e z).
Interpretação
Analyse + Nonparametric Tests + Legacy Dialogs + 2 Related Samples
NOTA
Deve-se realizar um post hoc não paramétrico (Mann-Whitney), contudo, se utilizarmos vários testes de Mann-Whitney iremos aumentar o erro tipo I (alfa, comumente aceito com o valor de 0,05). Assim, podemos usar este teste algumas vezes desde que seja feito algum tipo de ajuste para assegurar que o erro do tipo I não ultrapasse 0,05. A sugestão é, seja seletivo nas comparações!

O método mais fácil é o de Bonferroni, que ao invés de usar o valor crítico de 0,05 para cada teste, utiliza o 0,05 dividido pelo número de testes que iremos realizar, logo, se forem 2 testes o nosso valor crítico será 0,05/2=0,025. Perceba que realizar muitas comparações fará com que seu erro alfa fique excessivamente pequeno, podendo trazer problemas, aumentando o erro do tipo II.

Portanto, sugere-se usar um dos grupos como referência, e compará-lo com os demais, 1 a 1, evitando a comparação de todos contra todos!
- Test Statistics: exibe o valor do escore Z e a significância relacionada a cada comparação entre grupos
- Esse teste nos diz se há ou não há diferença entre as medianas dos grupos selecionados
OUTPUT SPSS
"Test Pairs": inserir 2 variáveis que irá comparar, e rode o teste, repetindo até concluir todas as comparações desejadas
"Test Type": marcar Wilcoxon
"Exact": Monte Carlo p/ amostras grandes; Exact p/ pequenas
ANOVA de 1 fator
Envolve variável do tipo quantitativa observada em várias amostras
Correlação
Bivariada
É uma correlação entre duas variáveis
Parcial
Determina o relacionamento entre variáveis "controlando" o efeito de uma ou mais
O coeficiente de correlação de Pearson e o rô de
Spearman são exemplos de correlação Bivariada
Analyse + Correlate + Bivariate
Passe as variáveis de interesse para a caixa VARIABLES
Suposições
- variáveis quantitativas (uma pode ser categórica dicotômica)
- normalidade dos dados
Valores do teste (coeficiente de correlação
R
)
R
= +1
correlação positiva perfeita, isto é, enquanto uma aumenta, a outra também aumenta;
R
= -1
correlação negativa perfeita, isto é, enquanto uma aumenta, a outra diminui;
R
= 0
ausência de correlação linear entre as variáveis, o que não exclui a existência de correlações não lineares;
Um passo a frente (coeficiente de determinação

)
O

é uma medida da quantidade de variação em uma variável que é explicada pela outra.

Imagine que estamos testando a correlação entre a
ansiedade pré-prova

versus

desempenho na prova
. Ao encontrarmos um valor de
R=-0,44
que demonstra uma forte correlação, poderíamos elevar este valor ao quadrado
(-0,44 x -0,44 = 0,19)
, e então obteríamos
R²=0,19
.

Este valor, se interpretado de forma percentual (19%), estaria nos informando que 19% da variabilidade no
desempenho da prova
pode ser explicado pela
ansiedade pré-prova
ou vice-versa, pois os testes de correlação não são capazes de afirmar qual variável causa alteração sobre a outra.
Interpretação
O desempenho na prova está negativamente correlacionado com a ansiedade pré-prova (R=-0,44, R²=0,19 e p-valor=?,??).
A correlação parcial nos permite ver o relacionamento de 2 variáveis quando o efeito de uma terceira variável é constante.
Analyse + Correlate + Partial
Passe as variáveis de interesse para a caixa VARIABLES
Passe a variável que terá o efeito controlado para a caixa CONTROLLING FOR
Suposições
- variáveis quantitativas (uma pode ser categórica dicotômica)
- normalidade dos dados
Valores do teste (coeficiente de correlação
R
)
R
= +1
correlação positiva perfeita, isto é, enquanto uma aumenta, a outra também aumenta;
R
= -1
correlação negativa perfeita, isto é, enquanto uma aumenta, a outra diminui;
R
= 0
ausência de correlação linear entre as variáveis, o que não exclui a existência de correlações não lineares;
Interpretação
O desempenho na prova estava correlacionado significativamente com a ansiedade pré-prova (R=-0,44, R²=0,19 e p-valor=?,??) e com o tempo de revisão (R=?,??, R²=?,?? e p-valor=?,??). O tempo gasto revisando também foi correlacionado com a ansiedade (R=?,??, R²=?,?? e p-valor=?,??).
Com o efeito do tempo de revisão controlado, a relação entre ansiedade e desempenho na prova apresentou R=?,??, R²=?,?? e p-valor=?,??.
Contextualização
Continuando o exemplo anterior, a análise realizada mostrou que o
desempenho na prova
está negativamente relacionado com a
ansiedade pré-prova
(R=-0,44), porém, parece que o
desempenho
está positivamente relacionado com o
tempo de revisão
da matéria (imagine essa terceira variável). Além disso, o
tempo de revisão
apresentou uma relação negativa com a
ansiedade pré-prova
, ou seja, a medida que o
tempo de revisão
aumenta, a
ansiedade pré-prova
diminui.

Parece confuso, mas o fato é que o tempo de revisão está relacionado com ambas as variáveis,
ansiedade
e
desempenho
. Assim, desejamos obter uma medida PURA do relacionamento APENAS entre
ansiedade
e
desempenho
, dessa forma, precisaremos "controlar" o efeito do
tempo de revisão
.

Caso não façamos este procedimento, não saberemos a verdadeira relacão entre
ansiedade
e
desempenho
, dado que o
tempo de revisão
influencia ambas, então fica a dúvida: se controlarmos o efeito da influência que o
tempo de revisão
tem sobre a
ansiedade pré-prova
, quanto seria a real relação entre
ansiedade
versus
desempenho na prova
?
Testes paramétricos
Testes não-paramétricos
Bivariada
É uma correlação entre duas variáveis
O teste de Spearman trabalha, em primeiro lugar, classificando os dados
(1º, 2º, 3º, etc)
e então aplicando a equação de Pearson aos dados ordenados
Analyse + Correlate + Bivariate
Passe as variáveis de interesse para a caixa VARIABLES
Suposições
- variáveis qualitativas ordinais
- não exige normalidade dos dados
Valores do teste (coeficiente de correlação
R
)
R
= +1
correlação positiva perfeita, isto é, enquanto uma aumenta, a outra também aumenta;
R
= -1
correlação negativa perfeita, isto é, enquanto uma aumenta, a outra diminui;
R
= 0
ausência de correlação linear entre as variáveis, o que não exclui a existência de correlações não lineares;
Interpretação
Existem/Não existe uma correlação estatisticamente significativa (R=?,??, R²=?,?? e p-valor=?,??) entre as variáveis (X e Y). A relação sendo positiva/negativa, podemos concluir que a medida que a variável (X) aumenta/diminui, a variável (Y) também aumenta/diminui.
Regressão
Teste t
ANOVA
1 via
2 vias
Qui-Quadrado (
X
²)

Dependendo da natureza da variável(qualitativa ou quantitativa), nós não temos como calcular média, desvio padrão ou normalidade dos dados na população, sendo assim, não poderíamos comparar médias ou estabelecer correlações. O teste qui-quadrado é utilizado para verificar a associação entre duas variáveis categóricas.
X
² no SPSS

A medida de efeito
Odds Ratio
deve ser usada em estudos do tipo caso-controle ou transversais, e o
Risco Relativo
em
coortes e ensaios clínicos
Analyse + Descriptive Statistics + Crosstabs
- Na caixa
Column
, insira a variável dependente
- Na caixa
Row
, insira a variável independente (tratamento)
Em Statistics selecione:
-
Chi-Square
-
Risk
(apenas em tabelas 2 x 2)
Na tabela Risk Estimate será apresentado:
- Odds Ratio e IC95%
- Relative Risk e IC95%
Na tabela Chi-Square Tests será apresentado:
- Valor da estatística Qui-quadrado
- Graus de liberdade (df)
- Significância
Interpretação Odds Ratio
Estima-se que a chance de (doença x) se tratado com (grupo tratamento ou exposição) seja (valor do Odds, IC95% valor do intervalo) vezes a chance de (doença x) se não tratado/exposto com (grupo tratamento ou exposição).
Interpretação Relative Risk
Estima-se que o risco de (doença x) se tratado/exposto com (fator/intervenção) seja (valor do risco relativo) vezes o risco de (doença x) se não tratado/exposto com (fator/intervenção).
• RR > 1 indica que o risco de desfecho é maior para os expostos (com fator ou tratamento experimental). Neste caso o fator é considerado Fator de Risco.

• RR < 1 indica que o risco de desfecho é maior para os não expostos (sem fator ou tratamento controle). Neste caso o fator é considerado Fator de Proteção.

• RR = 1 indica que não há associação do fator de exposição com o desfecho.

• Quanto mais afastado do valor 1 maior a associação entre Fator de Exposição e Desfecho.

OBS.: Lembre que no lugar do fator podemos ter um tratamento.

OR > 1
indica que o odds de desfecho é maior para os expostos (com fator). Neste caso o fator é considerado
Fator de Risco
.


OR < 1
indica que o risco de desfecho é maior para os não expostos (sem fator). Neste caso o fator é considerado
Fator de Proteção
.


OR = 1
indica que
não há associação
do fator de exposição com o desfecho.

• Quanto mais afastado do valor 1 maior a associação entre fator de exposição e desfecho.
Risco Relativo
Odds Ratio
>2 grupos ANOVA
ANOVA de 2 fatores
Hipótese
H0: Mi(a) = Mi(b) = Mi(c) ... Mi(k)
H1: Pelo menos uma das médias difere
Há um efeito principal significativo da (var. indep. 1) sobre a (var. dep.) (F(gl1)= ?,??, p-valor=?,??). O teste post hoc de REGWQ revelou que a (var. dep.) era significativamente diferente entre (var. indep. 1A) e (var. indep. 1B), (p-valor=?,??), mas não foi diferente entre (var. indep. 1A) e (var. indep. 1C), (p-valor=?,??).

Há um efeito não significativo entre (var. indep. 2) e (var. dep.), (F(gl1)=?,??, p-valor=?,??).

Houve um efeito de interação significativo entre (var. indep. 1 e 2) sobre (var. dep.), (F(gl1)=?,??, p-valor=?,??). Isso indica que a (var. indep. 2A) e (var. indep. 2B) foi influenciada de forma diferente pela (var. indep. 1).

Especificamente, a (var. dep.) foi similar em (var. indep. 2A) (Média=?,??, DP=?,??) e (var. indep. 2B) (Média=?,??, DP=?,??) no grupo 1A/B/C; entretanto, foi maior/menor entre (var. indep. 2A) (Média=?,??, DP=?,??) e (var. indep. 2B) (Média=?,??, DP=?,??) no grupo 1A/B/C.
Interpretação
ANOVA não paramétrica
Variável quantitativa
Envolve variável do tipo quantitativa observada em várias amostras
Suposições na prática
- ?
amostras independentes
- ?
n mínimo 5 em cada grupo
- ?
normalidade dos resíduos
- ?
correção quando variâncias desiguais
Analyse + General Linear Model + Univariate
Em "Dependent variable": inserir a variável desejada
Em "Fixed Factor": inserir as variáveis independentes

MODEL:
selecionar "Custom" e adicionar cada variável independente, bem como, selecionar as duas juntas e arrastar para a caixa "Model". Passá-las juntas fará com que você cruze o efeito de ambas as variáveis independentes sobre a dependente
SUM OF SQUARES:
selecione "Type III" se tiver n igual ou diferente entre os grupos, e selecione "Type IV" se tiver algum
missing
nos grupos
PLOTS:
transfira uma das variáveis independentes para "Horizontal Axis" e a outra para "Separate Lines", após isso clicar em "Add", assim irá gerar gráficos de linhas para os dados
POST HOC:
se as variável independente de interesse tiver apenas 2 níveis, não são necessários testes post hoc, se houver mais de 2 níveis, transfira a variável desejada para "Post Hoc Tests For" e selecione o teste "R-E-G-W-Q" e "Bonferroni"
OPTIONS:
marcar "Homogeneity tests", "Descriptive Statistics" e "Estimates of effect size", além disso, transfira todas as variáveis para "Display Means For"
Essa é a tabela mais importante, pois nos diz se qualquer uma das variáveis independentes teve um efeito na variável dependente
- Se na linha de cada variável independente a significância for < 0,05, indica que esta variável teve efeito significativo sobre a variável dependente (Teste F da ANOVA)
- Portanto, ANOVA significativa, fazer teste de comparações múltiplas para avaliar as diferenças
Tests of between-Subjects Effects
Levene's Test
> 0,05, variâncias homogêneas
OUTPUT SPSS
Post-Hoc (Comparações múltiplas)
Analyse + General Linear Model + Univariate
- Bonferroni (amostras com mesmo n; rigoroso com o erro alfa)
- R-E-G-W-Q
amostras independentes
Descriptive Statistics
São apresentadas as médias e DP dos grupos nas diferentes condições
ANOVA não paramétrica
>2 grupos ANOVA
Variável quantitativa
amostras dependentes
ANOVA de 2 fatores
Envolve variável do tipo quantitativa observada em várias amostras
Fazer
Fazer
Fazer
Fazer
Na correlação, aprendemos como medir e traçar relacionamentos entre variáveis. Na regressão, avançamos um passo a frente nesse processo, e podemos aprender como prever uma das variáveis em função de outra.
Linear
Múltipla
Analyze + Regression + Linear
Na caixa
"Dependent"
inserir a variável de saída (variável dependente)
Na caixa
"Independent"
inserir a variável previsora (variável independente)
OUTPUT DO SPSS

Model Summary
-
R
é o valor da correlação que existe entre as duas variáveis
-
R
Square (

) é quanto da variabilidade de uma variável pode ser explicada pela outra



ANOVA
- Mostra os graus de liberdade (
df
)
- Mostra o valor da razão
F
, que determina quão bem o modelo de regressão linear preveu a variável de saída
- Mostra a significância (
Sig.
)

Coefficients
-
1ª linha:
Mostra a constante
B
(
b0
) que representa o intercepto do eixo Y (ponto onde a linha de regressão corta o eixo Y)
-
2ª linha:
Mostra a constante
B
(
b1
) que representa a inclinação da reta, ou ainda, pode ser interpretada como
"
a mudança da variável de saída para cada alteração de UMA unidade da variável previsora
"
- O valor do
t
e sua significância (
Sig.
), que nos informa "
se a variável previsora contribui significativamente para a previsão da variável de saída
", em geral, se a significância for <0,05, houve contribuição significativa
EXEMPLO: se você obtiver um R² de 0,33, poderá dizer que 33% da variabilidade da
variável A
pode ser explicada pela
variável B
,
sendo assim, restam 66% que não você não conseguirá explicar, pois dependem de outras variáveis que provavelmente você ainda não mediu.
Variável de saída = b0 + (b1 X valor da variável previsora)
Substituindo os valores da fórmula, é possível calcular
qualquer valor da variável de saída:
Fazer
Em Cells selecione:
- Observed e Expected
- Row e Column
Suposições do teste em tabelas 2x2:
- todos os esperados maiores que 5

Suposições do teste em tabelas maiores:
- todos os esperados maiores que 1
- não mais do que 20% dos esperados menores do que 5
Interpretação do Qui-Quadrado
Houve uma associação significativa/não-significativa entre (fator) e (desfecho), (estaística=?,??, p-valor=?,??).
OBS.:
complementar com risco relativo ou odds ratio
Full transcript