Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Apostila

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 246

Estatística aplicada à experimentação animal: exemplos utilizando o software R

Emmanuel Arnhold

Goiânia - GO
2018
Prefácio
Atualmente encontram-se vários livros na área de estatística. Entre livros teóricos, de
abordagem geral, específicos em determinado tema, introdutórios, entre outros, destacam-se os
livros aplicados. No entanto, são raros os materiais didáticos aplicados à experimentação animal.
E também são raros os livros aplicados com abordagem teórica juntamente com a aplicação de
softwares. Portanto, visando estimular o aprendizado com linguagem simples e aplicada, com
exemplos práticos voltados, principalmente, a experimentação animal, o presente material foi
desenvolvido para auxiliar o aprendizado de estatística de alunos da área de ciências agrárias,
biológicas e afins. Pode ser utilizado em disciplinas introdutórias e básicas de estatística e
bioestatística. E também, em disciplinas de estatística experimental e de utilização de softwares.
O livro está distribuído em seis capítulos. O Capítulo I trata da Estatística Descritiva,
iniciando com somatório e, em seqüência, abordando variáveis, tabelas de freqüência, gráficos,
medidas de posição, dispersão, correlação, assimetria e curtose. O Capítulo II aborda
Probabilidade e seus conceitos e teoremas. O Capítulo III aborda as principais distribuições de
probabilidade, como as distribuições binomial, multinomial, poisson, normal e normal
padronizada. O Capítulo IV aborda a Inferência Estatística, com conceitos básicos, amostragem,
estimação intervalar e testes de hipóteses como os testes F, t, qui-quadrado, wilcoxon, exato de
Fisher, binomial e estimativas de razão de chances e risco relativo. Os Capítulos V e VI são
voltados a estatística experimental. No Capítulo V é abordado a Análise de Variância (análise de
tratamentos qualitativos), com conceitos e exemplos de experimentação, delineamentos e
esquemas experimentais, testes após a análise de variância (t, Duncan, SNK, Tukey e
Scott-Knott), medidas de precisão experimental e pressuposições da análise de variância.
Também são abordados neste capítulo os testes não paramétricos de Kruskal-Wallis e
Friedmann.. O Capítulo VI aborda Análise de Regressão (análise de tratamentos quantitativos).
Inicia com alguns conceitos e regressão linear simples. Demostra a obtenção de estimativas de
parâmetros, análise de variância da regressão (com e sem falta de ajuste), intervalos de confiança
dos parâmetros, teste t para parâmetros e coeficientes de determinação e determinação ajustado.
Em seqüência faz-se uma abordagem matricial para estimativa de parâmetros e testes dos
modelos, em modelo linear e quadrático. Em todos os capítulos as resoluções são feitas de forma
teórica e através do software R.
O autor

Sumário

Página
Introdução 1
Capítulo I – Estatística Descritiva 2
Capítulo II - Probabilidade 35
Capítulo III – Distribuições de Probabilidade 47
Capítulo IV – Inferência Estatística 68
Capítulo V – Análise de Variância 123
Capítulo VI – Análise de Regressão 196
Tabelas Estatísticas 223
Introdução
O que é estatística?
Estatística é parte da matemática que envolve os processos de obtenção, organização e
análise de dados sobre uma população ou sobre uma coleção de objetos quaisquer, e os métodos
de tirar conclusões e fazer predições com base nesses dados.
A Estatística pode ser aplicada em praticamente todas as áreas do conhecimento e, em
algumas áreas, recebe um nome especial. Este é o caso da Bioestatística, que trata de aplicações
da Estatística em Ciências Biológicas e da Saúde.
A palavra "Estatística" tem pelo menos três significados:
- coleção de informações numéricas ou dados;
- medidas resultantes de um conjunto de dados, como por exemplo médias;
- métodos usados na coleta e interpretação de dados.
Didaticamente podemos dividir o a estatística em vários temas, como por exemplo: a) Estatística
descritiva; b) Probabilidade c)Inferência Estatística e d) Estatística Experimental.
a) Estatística Descritiva
A estatística descritiva compreende a organização, o resumo e, em geral, a simplificação
de informações através de tabelas, gráficos e de medidas de posição, dispersão e correlação. Por
exemplo: a apresentação gráfica do número de brasileiros em diferentes classes sociais.
b) Probabilidade
A probabilidade é utilizada para analisar situações que envolvem o acaso. Por exemplo: a
probabilidade de ganhar na loteria.
c) Inferência Estatística
A inferência estatística é utilizada para estimar valores populacionais a partir de amostras.
Por exemplo: a intenção de votos em determinada eleição com base em uma amostra; a altura
média dos brasileiros com base em uma amostra.
d) Estatística Experimental
Envolve o planejamento, a execução, coleta e análise de dados de experimentos
científicos. Aqui neste livro abordaremos a análise de variância e a regressão como principais
métodos de análise de experimentos.

1
Capítulo I
Estatística Descritiva

2
Introdução
A estatística descritiva compreende a apresentação, organização e resumo dos dados.
Fazemos isso com objetivo de facilitar a interpretação e discussão do fenômeno analisado
Neste capítulo serão abordados diferentes tipos de variáveis e sua forma de apresentação
em tabelas e gráficos. Também veremos formas resumir a informação dos dados.
Primeiramente será apresentada uma ferramenta bastante útil em análises estatísticas, o
somatório.

Somatório
A notação de “soma” é representada por Σ (sigma maiúscula). Assim, tem-se a seguinte
notação:
n

∑x i = x1 + x 2 + x 3 + ... + x n
i =1

onde:
i = limite inferior;
n = limite superior do somatório

Algumas representações de soma são:


n

∑x i = x1 + x 2 + x 3 + ... + x n (soma simples)


i =1

∑x
2 2 2 2 2
i = x1 + x 2 + x 3 + ... + x n (soma de quadrados)
i =1

2
 n 
 ∑ x i  = (x1 + x 2 + x 3 + ... + x n ) 2 (quadrado da soma)
 i =1 
n

∑x y i i = x1 y1 + x 2 y 2 + x 3 y 3 + ... + x n y n (soma de produtos)


i =1

n n

∑x ∑y i i = (x1 + x 2 + x 3 + ... + x n )(y1 + y 2 + y 3 + ... + y n ) (produto das somas)


i =1 i =1

3
Exemplo
Considere as variáveis x e y que representam as notas de duas disciplinas em uma turma
de 6 alunos.
x = {90, 95, 97, 98, 100, 60}
y = {60, 70, 80, 60, 90, 75}
Calcule:
6
a) ∑x i = x1 + x 2 + x 3 + x 4 + x 5 + x 6 = 90 + 95 + 97 + 98 + 100 + 60 = 540
i =1

b)

∑x
2 2 2 2 2 2 2
i = x1 + x 2 + x 3 + x 4 + x 5 + x 6 = (90) 2 + (95) 2 + (97) 2 + (98) 2 + (100) 2 + (60) 2 = 49738
i =1

2
 6 
c)  ∑ x i  = ( x1 + x 2 + x 3 + x 4 + x 5 + x 6 ) 2 = ( 540) 2 = 291600
 i =1 
6
d) ∑x y i i = x1 y1 + x 2 y 2 + x 3 y 3 + x 4 y 4 + x 5 y 5 + x 6 y 6
i =1

∑x y i i = (90.60) + (95.70) + (97.80) + (98.60) + (100.90) + (60.75) = 39190


i =1

6 6
e) ∑ x i ∑ y i = ( x1 + x 2 + x 3 + x 4 + x 5 + x 6 )( y1 + y 2 + y 3 + y 4 + y 5 + y 6 ) = (540).(435) = 234900
i =1 i =1

O número de termos de um somatório é:


N =Ls – Li + 1
onde:
Ls é o limite superior
Li é o limite inferior
5
Assim, o somatório ∑x i = x1 + x 2 + x 3 + x 4 + x 5 terá N = 5-1+1 = 5 termos.
i =1

Em alguns casos podem ocorrer restrições no somatório, como no seguinte exemplo:

∑x i = x1 + x 2 + x 4 + x 5 . Assim, o número de termos é obtido por: N =Ls – Li + 1 – r, onde r é o


i =1
i ≠3

número de restrições. Assim, o número de termos deste somatório é N = 5 – 1 +1 – 1 = 4.


4
Propriedades do somatório
As propriedades do somatório facilitam o desenvolvimento das expressões algébricas
com a notação de somatório. O objetivo é desenvolver expressões até chegar às somas simples
ou somas de quadrados.
a) Somatório de uma constante (k)
O somatório de uma constante é igual ao produto da constante pelo número de termos do
somatório.
n

∑ k = k + k + k + ... + k = nk
i =1

Exemplo
5

∑10 = 10 + 10 + 10 + 10 + 10 = 5.10 = 50
i =1

b) Somatório do produto de uma constante por uma variável


O somatório do produto de uma constante por uma variável é igual ao produto da
constante pelo somatório da variável.
n n

∑ kx i = kx1 + kx 2 + kx 3 + ... + kx n = k(x1 + x 2 + x 3 + ... + x n ) = k ∑ x i


i =1 i =1

Exemplo
X = {2 3 4 5 6}
5 n

∑ 2.x i = 2.2 + 2.3 + 2.4 + ... + 2.6 = 2(2 + 3 + 4 + ... + 6) = 2∑ x i = 40


i =1 i =1

c) Somatório de uma soma ou subtração de variáveis


O somatório de uma soma ou subtração de variáveis é igual à soma ou subtração dos
somatórios dessas variáveis.
n n

∑ (x i + yi + zi ) = ∑ (x1 +x 2 + x 3 + ... + x n ) + (y1 + y 2 + y3 + ... + y n ) + (z1 + z 2 + z3 + ... + z n )


i =1 i =1

n n n
= ∑ x i + ∑ yi + ∑ zi
i =1 i =1 i =1

Exemplo
X = {2 3 4 5}; Y = {1 1 2 4}; Z = {4 3 2 2}

5
n 4

∑(x
i =1
i + y i + z i ) = ∑(2 +3 + 4 +5) + (1 +1 + 2 + 4) + (4 +3 + 2 + 2)
i =1

n n n
= ∑ x i + ∑ y i + ∑ z i = 14 + 8 + 11 = 33
i =1 i =1 i =1

Tipos de variáveis
A correta definição das variáveis é fundamental na pesquisa e no uso correto e eficiente
de análises estatísticas. Os diferentes tipos de variáveis levam a tomar diferentes decisões na
forma de proceder à pesquisa, a apresentação, as análises, as discussões e as conclusões sobre
um determinado fenômeno.

Constante
Uma constante é uma observação de medida ou classificação que apresenta valor (ou
categoria) fixo (invariável).
Exemplos: Peso de caixas de leite de determinada marca, volume de refrigerantes em lata de uma
mesma marca, o sexo em uma turma de 30 meninas de um grupo de dança.
Note que todas estas observações apresentam valores iguais. Os pesos das caixas de leite
não variam, assim como o volume de refrigerantes e a classificação quanto ao sexo no grupo de
dança. Portanto, são constantes.

Variável
Uma variável é uma observação de medida ou classificação que apresenta valor (ou
categoria) variável. Portanto, uma variável pode ter ou assumir diferentes valores, diferentes
aspectos, diferentes categorias.
Exemplos: Peso de 30 leitões em uma baia, sexo de uma turma de 30 alunos de medicina
veterinária.
Observação importante: É importante destacar que tanto uma constante como uma
variável pode assumir valores numéricos ou não numéricos (palavras, letras, símbolos etc).

6
As variáveis podem ser classificadas da seguinte forma:
Variáveis Qualitativas (ou categóricas): são variáveis onde os diferentes níveis não podem ser
medidos e, portanto, são classificados em categorias distintas com base em critérios subjetivos.
Podem ser nominais ou ordinais.
Variáveis nominais: não existe ordenação dentre as categorias. Exemplos: sexo (masculino e
feminino), cor dos olhos (azul, verde, marrom), diagnóstico (doente ou sadio; +/-).
Variáveis ordinais: existe uma ordenação entre as categorias. Exemplos: escolaridade (1 o, 2o, 3o
graus), estágio da doença (inicial, intermediário, terminal), mês de observação (janeiro,
fevereiro,..., dezembro), altura (alto, médio e baixo).

Variáveis Quantitativas: são variáveis que podem ser medidas, ou seja, apresentam valores
numéricos obtidos de maneira objetiva por contagem ou com auxílio de algum instrumento.
Podem ser contínuas ou discretas.
Variáveis discretas: variáveis mensuráveis que podem assumir apenas um número finito ou
infinito contável de valores e, assim, somente fazem sentido valores inteiros. São obtidas através
de contagens. Exemplos: número de filhos por casal, número de bactérias por mL de leite,
número de cigarros fumados por dia, número de leitões por leitegada, número de batimentos
cardíacos por minuto.
Variáveis contínuas, variáveis mensuráveis que assumem infinitos valores em uma escala
contínua (na reta real), para as quais valores fracionários fazem sentido. Usualmente devem ser
medidas através de algum instrumento (régua, balança, relógio, proveta, velocímetro, etc).
Exemplos: peso de um animal (kg), tempo efetivo de anestesia (minutos), produção de leite
(litros), pressão arterial (mmHg), etc.

Observações importantes:
1) Como podem existir infinitos valores entre 10 e 20 kg?
Pode-se encontrar, por exemplo, dois animais com o mesmo peso. Isso ocorre porque o
instrumento é limitado. Se for avaliado em balanças mais sensíveis, podemos identificar
diferenças quanto ao peso.

2) Uma variável originalmente quantitativa pode ser coletada de forma qualitativa. Depende da
escala de mensuração. Por exemplo:
7
a) A altura em escala de mensuração ordinal (alto/médio/baixo) é uma variável qualitativa
ordinal. Porém, a altura em escala métrica (1,75m; 1,65m; 1,82m; 1,72m; etc) é uma variável
quantitativa numérica.

b) A variável idade é quantitativa, mas, se for informada apenas a faixa etária (0 a 5 anos, 6 a 10
anos, etc...), é qualitativa (ordinal).

c) Outro exemplo é o peso dos lutadores de boxe, uma variável quantitativa (contínua) se for
utilizado o valor obtido na balança, mas qualitativa (ordinal) se classificado nas categorias do
boxe (peso-pena, peso-leve, peso-pesado, etc.).

3) Variáveis qualitativas podem assumir valores numéricos. Porém, não existe distância
matemática entre os diferentes valores. Por exemplo: Grau de tumor ou lesão variando de 1 a 4.
Cada nota (1 a 4) representa uma avaliação subjetiva com base em alguns critérios que determina
a evolução da lesão, sendo 1 = lesão ausente, 2 = estágio inicial, 3 = estágio intermediário e 4 =
estágio avançado. Assim, a distância entre a nota 1 e a nota 2 não pode ser considerada como
exata, uma vez que a diferença é subjetiva e não matemática. Um animal que pesa 4 kg tem o
dobro de peso que um animal com 2 kg. Neste caso, a distância matemática é exata. No entanto,
não se pode considerar que um animal com lesão grau 4 tem o dobro de doença que um animal
com lesão grau 2. Outros exemplos são o número do telefone de uma pessoa, o número da casa,
o número de sua identidade. Às vezes o sexo do indivíduo é registrado na planilha de dados
como 1 se macho e 2 se fêmea. Isto não significa que a variável sexo passou a ser quantitativa.

Apresentação gráfica e tabular


Como já sabemos, as variáveis podem ser classificadas em qualitativas (nominais e
ordinais) e quantitativas (discretas e contínuas). Os dados gerados por esses tipos de variáveis
devem receber tratamentos diferentes. Assim, inicialmente vamos estudar as ferramentas -
tabelas e gráficos - mais adequadas para cada tipo de variáveis.

8
Variáveis qualitativas
Para organizar os dados provenientes de uma variável qualitativa, é usual fazer uma
tabela de freqüências, como a Tabela 1, onde temos as freqüências de raças bovinas com aptidão
leiteira.

Tabela 1. Distribuições de freqüências das principais raças bovinas com aptidão leiteira, em
amostra de 50 propriedades
Freqüências Freqüências Freqüências
Raça
absolutas relativas percentuais
Girolando 26 0,52 52%
Holandês 14 0,28 28%
Jersey 7 0,14 14%
Outras 3 0,06 6%
Total (n) 50 1,00 100%

Note que a variável (Raça) é qualitativa nominal com quatro categorias. É importante
calcular as freqüências absolutas, relativas e percentuais, definidas a seguir:
Freqüência absoluta é o número de vezes que uma categoria da variável aparece em uma
amostra.
Freqüência relativa é a razão (divisão) da freqüência pelo total de observações (n):
Frequência absoluta
Frequênciarelativa =
n
Freqüência percentual (%) é a freqüência relativa multiplicada por 100:
Frequência absoluta
Frequência percentual % = ×100
n
Observação: A freqüência relativa ou a percentual são úteis na comparação de dois conjuntos de
dados com tamanhos amostrais diferentes.
A visualização da distribuição de freqüências de uma variável fica mais fácil se fizermos
um gráfico a partir da tabela de freqüências como um gráfico de barras (Figura 1) ou setor
(Figura 2).

9
# programação em R
dados=c(52,28,14,6)
barras=barplot(dados,names=c("Girolando","Holandês","Jersey","Outras"),col=c("brown","blue"
,"red","grey"), ylim=c(0,100), ylab="Frequência (%)")
text(barras,c(56,32,18,10), c("52%","28%","14%","6%"))

Figura 1. Gráfico de barras de freqüências das principais raças bovinas com aptidão leiteira, em
amostra de 50 propriedades

# programação em R
dados=c(52,28,14,6)
pie(dados, labels=c("Girolando (52%)","Holandês (28%)","Jersey (14%)","Outras (6%)"),
col=rainbow(4))

10
Figura 2. Gráfico de setores das principais raças bovinas com aptidão leiteira, em amostra de 50
propriedades

Considere agora uma amostra de 50 fazendas em uma região “A” e 80 fazendas em uma
região “B” (Tabela 2). Nesta tabela é possível comparar a freqüência das raças por região. Note
que na região “B” temos mais fazendas com a raça Girolando. Porém a amostra é maior. Em
números relativos (percentual) a Região “A” possui maior percentual de fazendas com a raça
Girolando.

Tabela 2. Distribuições de freqüências das principais raças bovinas com aptidão leiteira, em
amostra de 50 fazendas em uma Região “A” e 80 fazendas em uma Região “B”

Região “A” Região “B”


Raça Freqüências Freqüências Freqüências Freqüências
absolutas percentuais absolutas percentuais
Girolando 26 52% 28 35%
Holandês 14 28% 28 35%
Jersey 7 14% 20 25%
Outras 3 6% 3 5%
Total (n) 50 100% 80 100%

11
Estes dados também são possíveis de serem visualizados graficamente (Figura 3).

# programação em R
dadosA=c(52,28,14,6)
dadosB=c(35,35,25,5)
dados=cbind(dadosA,dadosB)
colnames(dados)=c("Região A","Região B")
rownames(dados)= c("Girolando","Holandês","Jersey","Outras")
barras=barplot(dados, beside=TRUE,legend.text=TRUE,ylab="Frequência (%)",col=rainbow(4),
ylim=c(0,60))
text(barras,c(56,32,18,10,39,39,29,9), c("52%","28%","14%","6%",
"35%","35%","25%","5%"))

Figura 3. Gráfico de barras da freqüência das principais raças bovinas com aptidão leiteira, em
amostra de 50 fazendas em Região “A” e 80 fazendas em Região “B”.

Variáveis quantitativas
Analisando os dados da Tabela 3, verifica-se que não é possível efetuar o mesmo tipo de
tratamento dispensado aos dados qualitativos.

12
Tabela 3. Peso ao abate em uma amostra de 25 caprinos
Animal Peso ao abate em kg
1 9,0
2 9,5
3 9,7
4 10,9
5 11,5
6 12,0
7 14,5
8 15,0
9 16,0
10 17,0
11 17,5
12 17,6
13 18,0
14 18,3
15 18,4
16 18,5
17 18,9
18 19,0
19 20,0
20 21,0
21 23,0
22 24,0
23 28,0
24 29,0
25 34,0

Para uma análise gráfica, estes dados podem ser agrupados em classes de valores (Tabela
4). A escolha do número de classes e do tamanho das classes depende da amplitude dos valores a
serem representados e da quantidade de observações no conjunto de dados. O intervalo de
classes deve ser preferencialmente igual.

13
Tabela 4. Distribuição de freqüências de classes do peso ao abate em kg obtido de uma amostra
de 25 caprinos ao abate
Intervalos Ponto Freqüência Freqüência Freqüência Freqüência
de médio da absoluta percentual percentual percentual
Classes classe acumulada acumulada
inversa
5 |— 10 7,5 3 12 12 100
10 |— 15 12,5 4 16 28 88
15 |— 20 17,5 11 44 72 72
20 |— 25 22,5 4 16 88 28
25 |— 30 27,5 2 8 96 12
30 |— 35 32,5 1 4 100 4
Total - 25 100 --- ---

Intervalos de classe muito grandes resumem demais a informação contida nos dados, pois
forçam a construção de poucas classes. Intervalos de classes muito pequenos levam a formação
de muitas classes, dificultando a observação gráfica.
O número de classes pode ser obtido pelo uso de algumas fórmulas ou pela experiência
ou o bom senso do pesquisador. Uma vez decidido pelo número de classes, pode-se obter o
comprimento de cada classe dado por:
A
c= onde A é a amplitude total, obtida pela diferença entre o maior e o menor valor observado
k
e, k é o número de classes estabelecido.
No exemplo da Tabela 3 a amplitude é A= 34 - 9 = 25. No entanto, pode-se considerar o
limite inferior igual a 5 e o superior igual 35 para facilitar a interpretação. Assim, a amplitude
considerada é 30. Considerando k = 6, tem-se um intervalo de classe c= 5.
O símbolo ‫ —׀‬indica que o limite inferior pertence a classe em questão e o limite superior
não pertence a esta classe.
O ponto médio de cada classe é obtido por:
LI + LS
Ponto médio de classe = onde LI e LS são, respectivamente, os limites inferior e
2
superior da classe cujo ponto médio pretende-se obter.
Os limites inferiores e superiores de cada classe dependem do tamanho (amplitude) de
classe escolhido, que deve ser, na medida do possível, igual para todas as classes. Isso facilita a
interpretação da distribuição de freqüências da variável em estudo.

14
Observação: a alteração ou não dos limites superior e inferior pode ficar a critério do
pesquisador.
As variáveis quantitativas contínuas agrupadas em classes são representadas graficamente
pelo histograma de freqüência (Figura 4).

# programação em R
dados=c(9,9.5,9.7,10.9,11.5,12,14.5,15,16,17,17.5,17.6,18,18.3,18.4,18.5,18.9,19,20,21,23,24,2
8,29,34)
hist(dados, col="blue", main=NULL, ylab="Frequência Absoluta", xlab="Peso ao abate (kg)")

Figura 4. Histograma de freqüências absolutas do peso ao abate de caprinos (kg).

O histograma é semelhante ao gráfico de barras, com a altura de cada coluna


correspondente a freqüência da classe que ela representa e a base a amplitude de classe
(comprimento de classe = c).

Observação importante: Quando os intervalos de classe são diferentes, deve-se utilizar a


densidade ao invés das freqüências na construção gráfica. A densidade é obtida por:

15
frequência absoluta
densidade absoluta =
intervalo

frequência relativa
densidade relativa =
intervalo

frequência percentual
densidade relativa em percentag em (%) =
intervalo

As freqüências acumuladas dos dados da Tabela 3 são representadas em gráficos do tipo


ogiva (Figuras 5).

# programação em R
pm=c(7.5,12.5,17.5,22.5,27.5,32.5) # pontos médios
fpa=c(12,28,72,88,96,100) # freqüência percentual acumulada
fpai=c(100,88,72,28,12,4) # freqüência percentual acumulada inversa
plot(fpa~pm, type="o", xlim=c(5,35), ylim=c(0,120), ylab="Frequência Acumulada",
xlab="Peso ao abate (kg)", bty="n")
points(fpai~pm, col=2, lty=2, type="o")
legend("topright", c("Frequência Percentual Acumulada","Frequência Percentual Acumulada
Inversa"),lty=c(1,2),col=c(1,2), bty="n", cex=0.8)

16
Figura 5. Freqüências acumuladas do peso de caprinos ao abate em kg

Outro gráfico que pode ser utilizado para variáveis quantitativas é o gráfico de caixa ou
boxplot (Figura 6). Neste gráfico a linha central representa à mediana (segundo quartil ou Q2,
sendo o valor que divide os dados ao meio), o limite superior da caixa o terceiro quartil (Q3,
sendo este o valor abaixo do qual temos 75% dos dados) e o limite inferior o primeiro quartil
(Q1, sendo este valor abaixo do qual temos 25% dos dados). Assim, a caixa representa 50% dos
valores. A linha horizontal superior representa Q3+1,5(Q3-Q1) e alinha horizontal inferior
representa Q1-1,5(Q3-Q1). Pontos fora destes limites podem ser interpretados como outliers. Os
dois pontos estão na parte superior e representam dois valores muito elevados, no caso
referem-se aos animais 24 e 25 da Tabela 5.

# programação em R
boxplot(dados, col="dark green")

17
Figura 6. Gráfico de caixa para o peso de caprinos ao bate (kg).

A observação gráfica simultânea de duas variáveis quantitativas (x,y) também é


interessante, pois permite a visualização gráfica da associação (correlação) entre as duas
variáveis. Estes gráficos são chamados de diagrama de dispersão e serão abordados mais adiante.

Medidas de posição
Medidas de posição são aquelas que visam representar a tendência central de uma
distribuição, isto é, um valor em torno do qual os dados se distribuem.

Média aritmética
A média aritmética é uma medida de posição que pode ser utilizada para variáveis
quantitativas. Dado um conjunto de n observações x1, x2, x3, ..., xn, define-se a média aritmética
por:
n

x + x 2 + x 3 + ... + x n ∑x i
(1)
X= 1 = i =1
n n

18
Se os valores x1, x2, x3, ..., xn ocorrem com as respectivas freqüências f 1, f2, f3, ..., fn
tem-se a média aritmética ponderada:
n

f x + f x + f x + ... + f n x n ∑f x i i
X= 1 1 2 2 3 3 = i =1
n (2)
n
∑ fi
i =1

Exemplo
Os dados abaixo se referem ao número de leitões/leitegada em 13 partos:
12,12,12,13,13,13,13,14,14,14,15,15,16
A média destes valores é obtida pela equação (1):
n

∑x i
12 + 12 + ... + 16
X= i =1
= = 13,54
n 13

Neste caso a média também pode ser obtida pela equação (2):
n

f x + f x + f x + ... + f n x n ∑f x i i
(3x12) + (4x13) + (3x14) + (2x15) + (1x16)
X= 1 1 2 2 3 3 = i =1
n
= = 13,54
n 13
∑f i
i =1

Esta média também é chamada de média ponderada, pois cada valor é ponderado por um
peso, que neste caso é a freqüência.

# programação em R
dados=c(12,12,12,13,13,13,13,14,14,14,15,15,16)
mean(dados)
[1] 13.53846

Propriedades da média aritmética


a) A soma algébrica dos desvios em relação à média aritmética é nula;
n n n
SD = ∑ (x i − X) = ∑ x i − ∑ X = nX − nX = 0
i =1 i =1 i =1

b) Somando-se ou subtraindo-se uma constante a cada um dos valores da série x 1, x2,


x3, ..., xn, a média destes valores fica somada ou subtraída da constante; ;

19
n n n

∑ (x i ± k) ∑ xi ∑k nk
i =1
= i =1
± i =1
=X± = X±k
n n n n

c) Multiplicando-se ou dividindo-se cada um dos valores da série x 1, x2, x3, ..., xn, a média
destes valores fica multiplicada ou dividida pela constante;
n n
xi
∑k 1∑
x i
1 X
i =1
= i =1
= .X =
n k n k k
n n

∑ kx i ∑x i
i =1
=k i =1
= k. X
n n
d) A soma de quadrados dos desvios (SQD) em relação a média é um mínimo;
n
SQD = ∑ (x i − X) 2 é um mínimo
i =1

n
Seja f(x 0 ) = ∑ (x i − x 0 )
2

i =1

n n n
f ' (X 0 ) = 2∑ (X i − X 0 ) (−1) = −2∑ X i + 2∑ X 0
i =1 i =1 i =1

n n n n n
f' (x 0 ) = 0 ⇒ −2 ∑ x i + 2 ∑ x 0 = 0 ⇒ ∑ x i = ∑ x 0 ⇒ ∑ x i = nx 0
i =1 i =1 i =1 i =1 i =1
n

∑x i
xo = i =1
=X
n
 n n
 n
f' ' (x 0 ) = f' − 2∑ x i + 2 ∑ x 0  = −2 ∑ x i + 2nx o = 2n
 i =1 i =1  i =1

Logo, tem-se um ponto de mínimo para o valor de x0 = média.

Moda
A moda de um conjunto de dados é o valor que ocorre com maior freqüência.
Por exemplo: Considere o seguinte conjunto de observações:

2, 4, 3, 4, 1, 1, 2, 2,

Neste caso a moda é 2 (Mo = 2), que é o valor que ocorre com maior freqüência.

20
Existem séries unimodais, ou seja, possuem uma única moda. Porém, quando uma série
possui mais de uma moda ela é dita multimodal e, quando não possui moda é dita amodal.
Para variáveis quantitativas contínuas pode-se obter a moda quando os dados são
agrupados em classes ou, obtendo-se o ponto de máximo da função de freqüência, como no
exemplo a seguir.
Considere a seguinte função de freqüência: f(x) = x – x 2
Derivando-se esta função e igualando a zero, se obtém um ponto de máximo ou mínimo.
f’(x) = 1 – 2x
f’(x) = 0
1 – 2x = 0 → x = ½
Este ponto será um máximo se a segunda derivada for negativa e um mínimo se a
segunda derivada for positiva.
f”(x) = -2
Como a segunda derivada é negativa, o ponto x = ½ é de máximo.
No caso de uma distribuição normal o ponto de máximo é a própria média. Assim, para
variáveis quantitativas com distribuição aproximadamente normal pode-se considerar que a
média e valores próximos são os mais prováveis.

Mediana
A mediana de um conjunto de dados ordenados em ordem crescente ou decrescente de
grandeza é o valor abaixo e acima do qual se tem a metade dos dados. Assim, a mediana divide o
conjunto ordenado em duas partes com igual número de dados.
Há dois casos a considerar:
Pn + 1
a) n é impar: a mediana será o valor que ocupa a posição de um rol estatístico.
2
Ex.: 5, 4, 2, 6, 3, 7, 9; n = 7
rol.: 2, 3, 4, 5, 6, 7, 9
Pn + 1 P7 + 1
= = P4 , ou seja, P4 = elemento do rol que ocupa a quarta posição = 5
2 2

21
Pn P(n + 2)
b) n é par: a mediana será a média dos valores que ocupam as posições e de
2 2
um rol estatístico.
Ex.: 7, 6, 1, 4, 8, 9, 3, 2; n = 8
rol.: 1, 2, 3, 4, 6, 7, 8, 9
Pn P(n + 2)
+ = P4 + P5 = 4 + 6 , a mediana é a média dos valores que ocupam a posição
2 2
4 e 5. Assim, Med = (4+6)/2=5.

# programação em R
a=c(5,4,2,6,3,7,9); median(a)
[1] 5
b=c(7,6,1,4,8,9,3,2); median(b)
[1] 5

A mediana é uma medida de posição, em geral, menos informativa que a média, pois só
considera os ranques (postos ou posições) das observações e não o valor, como faz à média. No
entanto, em algumas ocasiões à mediana pode ser mais vantajosa pelo fato de não ser afetada
pelos extremos. Considere o exemplo a seguir:
1 2 3 4 5 6 7 8 9 10 11
Note que a média e a mediana deste conjunto de dados é igual a 6. Vamos supor agora o
seguinte conjunto de dados onde ocorreu um valor extremo:
1 2 3 4 5 6 7 8 9 10 40
Note que a mediana não foi alterada, continua sendo igual a 6. No entanto, a média neste
caso é igual a 8,64 devido ao valor extremo igual a 40.
Vamos exagerar agora. Considere os mesmos dados com um valor mais extremo:
1 2 3 4 5 6 7 8 9 10 4000
A mediana continua sendo igual a 6. No entanto, a média neste caso é igual a 368,64
devido ao valor extremo igual a 4000. Pode-se observar que os dados se aproximam mais da
mediana do que da média. Assim, no primeiro caso a média e a mediana são boas medidas para
resumir os dados. No segundo caso, apesar do valor discrepante e da diferença da média e
mediana, ainda assim pode-se considerar que a média resumiria bem os dados. Porém no caso

22
extremo (terceiro exemplo) a mediana deveria ser utilizada ao invés da média, pois seria muito
mais adequada para resumir a informação dos dados.
A mediana também tem a vantagem de poder ser aplicada a variáveis qualitativas
ordinais.

Medidas de dispersão
As medidas de dispersão medem a variabilidade dos dados. Entre as várias medidas
existentes veremos apenas as mais importantes.

Variância
A variância mede a variabilidade dos dados em torno da média. Dada uma amostra de n
valores x1, x2, x3, ..., xn define-se a variância de x por:
SQD
V(x) = σ̂ 2 = S2 = ; GL = n − 1
GL

onde SQD é a soma de quadrado dos desvios e GL os graus de liberdade.


n

∑ (x i − X) 2
V(x) = σ̂ 2 = S2 = i =1
n −1
n n
SQD = ∑ (x i − X) = ∑ (x i2 − 2x i X + X 2 )
2

i =1 i =1

Aplicando propriedades do somatório tem-se:


n

n n n n ∑x i n
SQD = ∑ x − 2X ∑ x i + ∑ X = ∑ x − 2
2
i
2 2
i
i =1
.∑ x i + nX 2
i =1 i =1 i =1 i =1 n i =1
2 2
 n
 n
  n
  n

n
2 ∑ x i  ∑ x i  n  ∑ x i  n
 ∑ x i 
∑ x i2 −  i =1  i =1  +  i =1 2  = ∑ x i2 −  i =1 
i =1 n n i =1 n

Considerando os seguintes dados de uma variável x tem-se:


x={5,6,8,9,7,4,2}

23
2
 n 
n
 ∑ x i 
∑ x i −  i =1 
2
(52 + 6 2 + 82 + ... + 2 2 ) −
(5 + 6 + 8 + ... + 2) 2
n 7
S2 = i =1 =
n −1 7 −1
2
(41) 1681
275 − 275 −
= 7 = 7 = 275 − 240,1429 = 34,8571 = 5,8095
6 6 6 6

# programação em R
x=c(5,6,8,9,7,4,2)
var(x)
[1] 5.809524

Propriedades da variância
a) Variância de uma constante (k) é igual a zero: V(k) = 0.
b) Somando-se ou subtraindo-se uma constante a cada um dos valores da série, a
variância não se altera: V(x ± k) = V(x) .
c) Multiplicando-se ou dividindo-se cada um dos valores da série por uma constante, a
variância fica multiplicada ou dividida pelo quadrado da constante.
 x  V(x)
V(kx) = k 2 V(x); V  = 2
k  k

Desvio Padrão
O desvio padrão é simplesmente a raiz quadrada da variância, obtido por:

σ̂ = S = S2

Considerando o exemplo anterior da variância tem-se:

S = S2 = 5,8095 = 2,4103

# programação em R
x=c(5,6,8,9,7,4,2)
sd(x)
[1] 2.410295
24
Observação
A unidade de medida da variável que se estima a variância fica elevada ao quadrado,
assim, por exemplo, uma medida em metros (m) fica m 2. No desvio padrão a variável ficaria em
m.

Erro Padrão da Média


É uma medida de dispersão que mede a precisão da média aritmética. Quanto menor o
desvio padrão e maior a amostra, menor é o erro padrão da média e mais precisa será a média.
A equação que nos dá essa relação é:
S
S(X) =
n

Considerando o exemplo anterior tem-se:


S 2,4103
S(X) = = = 0,9110
n 7

# programação em R
x=c(5,6,8,9,7,4,2)
sd(x)/sqrt(7)
[1] 0.911006

Coeficiente de Variação
O coeficiente de variação é uma medida de dispersão relativa. Sua vantagem é o fato de
ser uma medida adimensional, assim, independe das unidades usadas. É importante para
comparar a dispersão de amostras de médias ou unidades de medida diferentes.
O coeficiente de variação é obtido pela razão do desvio padrão pela média:
S
CV(%) = x 100
X

Considerando o exemplo anterior tem-se:

25
S 2,4103
CV(%) = x 100 = x100 = 41,15%
X 5,86

# programação em R
x=c(5,6,8,9,7,4,2)
sd(x)*100/mean(x)
[1] 41.15138

Observação importante
Para comparar duas amostras com relação a homogeneidade, temos dois casos a
considerar:
a) As médias das amostras são iguais X A = X B . Neste caso a mais homogênea é aquela
que possui a menor variância, desvio padrão ou coeficiente de variação. Qualquer destas medidas
pode ser utilizada.
b) Se as médias de duas amostras são diferentes, ou ainda, se as duas amostras possuem
unidades de medida diferente, deve-se utilizar o coeficiente de variação. Assim, a amostra de
menor coeficiente de variação é a mais homogênea.

Medidas de correlação
As medidas de correlação medem o grau de associação entre duas variáveis.
Por exemplo:
- porcentagem de proteína na ração x ganho de peso
- temperatura x ganho de peso
- quantidade de indivíduos por área x ganho de peso individual
Note que, em todos estes exemplos, as variáveis são quantitativas. Nestes casos pode-se
obter um valor que nos dá o grau de associação entre as duas variáveis. A medida em questão é
chamada de correlação de Pearson e, pode ser obtida pela seguinte equação:
n

CÔV(x, y) ∑ (x i − X)(yi − Y)
SPD(x, y)
rxy = = i =1
=
2 2
SQD x . SQD y onde
V̂(x).V̂(y) n n

∑ (x i − X) . ∑ (yi − Y)
i =1 i =1

26
 n  n 
n
 ∑ x i  ∑ y i 
SQP(x, y) = ∑ x i y i −  i =1  i =1 
soma de quadrados do produto
i =1 n
2
n 
n
 ∑ x i 
soma de quadrados dos desvios de x
SQD x = ∑ x i −  i =1 
2

i =1 n
2
n 
n
 ∑ y i 
soma de quadrados dos desvios de y
SQD y = ∑ y i2 −  i =1 
i =1 n
O valor da correlação ( rxy ) entre duas variáveis varia de -1 a 1. Quando o valor é
positivo, uma variável cresce e a outra, em geral, também cresce. Isto é, as duas variáveis variam
no mesmo sentido. Quando o valor é negativo uma variável cresce e a outra, em geral, decresce.
Neste caso as variáveis variam em sentido contrário. Quando a correlação é nula (ou próximo a
zero) as variáveis não estão relacionadas.
Considere um exemplo onde varia o peso (kg) e a porcentagem de proteína na ração de
frangos (Tabela 5).

Tabela 5. Porcentagem de proteína na ração e o peso ao abate (kg) de frangos


Proteína (%) Peso (kg)
14 2,03
14 2,32
16 2,44
16 2,57
18 2,88
18 2,82
20 3,08
20 3,10
22 3,05
22 3,12

Neste caso podem-se fazer as seguintes perguntas:


Será que porcentagem de proteína esta correlacionada com o peso das aves? E, se existe
correlação, qual a intensidade desta?
Assim, se a correlação for positiva, ou seja, o valor obtido estiver no intervalo entre 0 e 1,
pode-se concluir que, em geral, quanto maior teor de proteína, maior peso do animal. Quanto
mais a correlação se aproxima de 1, maior é a correlação, ou seja, tem-se uma tendência mais
27
acentuada de um animal que receber maior teor de proteína na ração ter maior peso. Quanto mais
próximo de zero, menor a relação entre as duas variáveis.
Em caso de correlação negativa a interpretação é a mesma, porém considerando que uma
variável aumenta e a outra, em geral, diminui.
A resolução desta correlação fica:
SPD(x, y)
rxy =
SQD x . SQD y

 n  n 
n
 ∑ x i  ∑ y i 
SPD(x, y) = ∑ x i y i −  i =1  i =1 
i =1 n
n

∑x y i i = (14.2,03) + (14.2,32) + (16.2,44) + ... + (22.3,12) = 503


i =1

∑x i = (14 + 14 + 16 + ... + 22 = 180


i =1

∑y i = (2,03 + 2,32 + 2,44 + ... + 3,12) = 27,41


i =1

SPD(x, y) = 503 −
(180) .( 27,41) = 9,62
10
2
n 
n
 ∑ x i 
SQD x = ∑ x i −  i =1 
2

i =1 n
n

∑x 2
i = (14) 2 + (14) 2 + (16) 2 ... + (22) 2 =3320
i =1

SQD x = 3320 −
(180) 2 = 80
10
2
n 
n
 ∑ y i 
SQD y = ∑ y i −  i =1 
2

i =1 n
n

∑y 2
i = (2,03) 2 + (2,32) 2 + (2,44) 2 + ... + (3,12) 2 =76,44
i =1

28
( 27,41)
2

SQD y = 76,44 − = 1,31


10

SPD(x, y) 9,62 9,62


rxy = = = = 0,94
SQD x . SQD y ( 80) .(1,31) 10,24
Portanto, a porcentagem de proteína na ração esta correlacionada com o peso. Como o
valor é positivo e próximo de +1 (0,94), pode-se dizer que existe uma forte correlação entre as
variáveis.
Se o valor fosse negativo (-0,94) a correlação também seria forte, mas neste caso com
maior quantidade de proteína o peso seria menor. Se o valor fosse zero ou de próximo de zero, a
tendência seria nula ou muito baixa.

# programação em R
x=c(14,14,16,16,18,18,20,20,22,22)
y=c(2.03,2.32,2.44,2.57,2.88,2.82,3.08,3.10,3.05,3.12)
cor(x,y)
[1] 0.9393206

A correlação também pode ser analisada em gráficos chamados de diagrama de dispersão.


que representam duas variáveis (x,y) plotados no eixo cartesiano. No exemplo da Tabela 5 seria
esperado um gráfico que lembra uma reta crescente (Figura 7). Nesta figura observa-se que
maior quantidade de proteína esta associada a um maior peso ao bate.

29
Figura 7. Gráfico de dispersão entre a quantidade de proteína na ração (%) e o peso ao abate (kg)
de aves.

# programação em R para a Figura 8.


x=c(14,14,16,16,18,18,20,20,22,22)
y=c(2.03,2.32,2.44,2.57,2.88,2.82,3.08,3.10,3.05,3.12)
plot(y~x, xlab="Teor de proteína na ração (%)", ylab="Peso ao abate (kg)", bty="n", col="dark
green", pch=18)

Nos gráficos de dispersão da Figura 8 observa-se uma correlação perfeita e positiva


(Figura 8 a). Nestes casos os pontos formam uma reta crescente. Quanto mais próximos de
formar uma reta crescente, mais próximo a correlação será de +1. No gráfico da Figura 8 c temos
uma correlação também positiva, mas não tão forte (r=0,88). Quanto mais os pontos se afastam
de formar uma reta, menor é a correlação, como é o caso na Figura 8 d, onde a correlação é fraca
(-0,12). Nestes casos, onde os pontos estão muito dispersos no plano cartesiano, pode-se dizer
que a correlação é nula. E ainda, pode-se ter uma correlação negativa (Figura 8 b), onde uma
variável aumenta e a outra, em geral, diminui. Nestes casos temos uma formação aproximada de
uma reta decrescente.

30
Figura 8. Gráficos de dispersão entre duas variáveis x e y.

31
# programação em R para a Figura 8.
par(mfrow=c(2,2))
x=c(1,4,6,8,10,12,14,16,18,20)
y1=c(2,6,8,10,12,14,16,18,20,22)
y2=c(31,29,21,20,16,15,14,9,8,5)
y3=c(2,6,5,8,7,9,10,8,9,11)
y4=c(2,28,23,8,30,6,14,10,25,3)
plot(y1~x, main="a", bty="n", pch=19, col="dark green", xlim=c(0,25), ylim=c(0,30),
axes=FALSE);text(4,25, "r = 1,00")
axis(1, seq(0,25, by=5))
axis(2, seq(0,30, by=5), las=2)
plot(y2~x, main="b", bty="n", pch=19, col="dark green", xlim=c(0,25), ylim=c(0,35),
axes=FALSE);text(15,30, "r = - 0,98")
axis(1, seq(0,25, by=5))
axis(2, seq(0,35, by=5), las=2)
plot(y3~x, main="c", bty="n", pch=19, col="dark green", xlim=c(0,25), ylim=c(0,15),
axes=FALSE);text(5,14, "r = 0,88")
axis(1, seq(0,25, by=5))
axis(2, seq(0,15, by=5), las=2)
plot(y4~x, main="d", bty="n", pch=19, col="dark green", xlim=c(0,25), ylim=c(0,35),
axes=FALSE);text(20,35, "r = - 0,12")
axis(1, seq(0,25, by=5))
axis(2, seq(0,35, by=5), las=2)

Assimetria e Curtose
Os valores de assimetria e curtose são importantes para avaliar desvios da normalidade
dos dados.
Na assimetria, valores menores do que zero indicam que a mediana é menor do que a
média, ou seja, os dados estão deslocados para a esquerda (Figura 9). Valores maiores do que
zero indicam que a média é maior que a mediana, ou seja, os valores estão deslocados para a
direita. (Figura 9). Valores próximos a zero ou mesmo zero indicam que a distribuição é
simétrica ou aproximadamente simétrica.
32
# programação em R para a Figura 9
par(mfrow=c(1,2))
x=c(0.9,0.8,0.7,1.8,1.9,1.5,1.7,2.8,2.1,2.4,2.2,2.3,3.1,3.9,3.9,3.8,4.9,4.9,4.8,5.9,5.8,6.9)
hist(x, main= "Assimetria Positiva", ylim=c(0,6), xlim=c(-0.5,8), ylab= "Frequência",
col="grey")
abline(v=mean(x), col=2)
abline(v=median(x), col=3,lty=2)
text(1.5,5.5, "mediana",col=3, lty=2)
text(4,5.5, "média",col=2)
y=c(0.1,1.1,1.3,2.4,2.4,2.5,3.7,3.4,3.1,3.4,4.1, 4.2,4.1,4.3,4.1,4.2,5.1,5.2,5.4,5.3)
hist(y, main= "Assimetria Negativa", ylim=c(0,7), xlim=c(-0.5,7), ylab= "Frequência",
col="grey")
abline(v=mean(y), col=2)
abline(v=median(y), col=3,lty=2)
text(4.6,6.5, "mediana",col=3, lty=2)
text(2.9,6.5, "média",col=2)

Figura 9. Histogramas de freqüência representando dados com assimetria positiva e negativa

A equação para obtermos medida de assimetria (As) é:


n

∑ (x i − X) 3
As = i =1
(3/2)
 n

 ∑ (x i − X) 2 
 i =1 
33
Considerando a série de dados abaixo tem-se:
2,3,1,4,2,12,40,78
n

∑ (x i − X) 3
(2 − 17,75) 3 + (3 − 17,75)3 + (1 − 17,75) 3 + ... + (78 − 17,75) 3
As = =
[(2 −17,75) + (3 −17,75) + (1 − 17,75) + ... + (78 −17,75) ] = 1,53
i =1
(3/2) 2 (3 / 2)
n 2
2 2 2

∑ (x i − X) 
 i =1 

Assimetria positiva (1,53), ou seja, os dados estão deslocados a esquerda e a média (17,5) é
maior que a mediana (3,5).
As medidas de curtose avaliam maior ou menor achatamento da distribuição.
Distribuições com valores de curtose iguais a 3 são denominadas mesocúrticas
(meso=meio=central). Distribuições com valores de curtose acima de 3 são denominadas
leptocúrticas (lepto=alongado) e tem os valores mais concentrados em torno da média. E as
distribuições com valores de curtose abaixo de 3 são denominadas platicúrticas (platô=plano),
com os valores menos concentrados em torno da média. A Figura 10 ilustra as três formas de
distribuição.
# programação em R para a Figura 10
curve(dnorm(x, 50,5), 0,100, col="dark green", lty=2, ylab="Frequência")
curve(dnorm(x, 50,10), 0,100, add=TRUE)
curve(dnorm(x, 50,20), 0,100, add=TRUE, col="dark red", lty=2)
text(64,0.07, "leptocúrtica", col="dark green")
text(69,0.03, "mesocúrtica")
text(88,0.01, "platicúrtica", col="dark red")

34
Figura 10. Ilustração de três formas de distribuição dos dados e sua classificação quanto a
curtose
A equação para obtermos medida de curtose é:
n

∑ (x i − X) 4
K= i =1
2
 n 
 ∑ (x i − X) 2 
 i =1 

Considerando a série de dados abaixo se tem:


2,3,1,4,2,12,40,78

∑ (x i − X) 4
(2 − 17,75) 4 + (3 − 17,75) 4 + (1 − 17,75) 4 + ... + (78 − 17,75) 4
K= =
[(2 −17,75) + (3 −17,75) + (1 −17,75) + ... + (78 −17,75) ] = 3,84
i =1
2 2 2
n 2
2 2 2

∑ (x i − X) 
 i =1 

A curtose (3,84) foi acima de 3. Portanto tem-se uma distribuição platicúrtica, com dados
mais distantes da média do que o normal.

35
Exemplo utilizando o R
Considere o peso ao nascer (kg), peso a desmama (kg) e peso ao sobreano (kg) de 8
animais machos da raça simental (Tabela 6). Utilizando o software R faremos um exemplo
de análise descritiva para estas três variáveis quantitativas, utilizando o pacote ds
(descriptive statistics).

Tabela 6. Peso ao nascer (kg), peso a desmama (kg) e peso ao sobreano (kg) de bezerros da raça
Simental
Peso ao nascer (kg) Peso a desmama (kg) Peso ao sobreano (kg)
37,0 215 325
36,5 217 322
38,0 220 333
29,5 200 318
41,0 224 342
39,0 209 333
40,5 236 345
48,5 235 340

# programação em R
# tabela de dados
# entrar com os dados em forma de tabela (data.frame) aqui denominado de “dados”
p_nascer p_desmama p_sobreano
37 215 325
36.5 217 322
38 220 333
29.5 200 318
41 224 342
39 209 333
40.5 236 345
48.5 235 340

require(ds) # pacote necessário


gds(dados) # função para uma análise estatística geral dos dados

36
p_nascer p_desmama p_sobreano
Mean 38.7500 219.5000 332.2500
Maximum 48.5000 236.0000 345.0000
Minimum 29.5000 200.0000 318.0000
Median 38.5000 218.5000 333.0000
Variance 28.2143 150.0000 97.0714
Standard deviation 5.3117 12.2474 9.8525
Standard error of the mean 1.8780 4.3301 3.4834
Coefficient of variation (%) 13.7076 5.5797 2.9654
Skewness 0.1376 -0.0309 -0.1414
Kurtosis 3.3693 2.1003 1.6305

O resultado apresentado acima é apenas parte do resultado da função. Observe que nele
temos algumas medidas discutidas neste capítulo que são as mais importantes para resumir dados
quantitativos. Para obter as correlações entre as três variáveis pode-se usar a função “dscor” do
pacote ds.

# programação em R
dscor(dados)

pairs correlation p-value


1 p_nascer and p_desmama 0.8367 <0.01
2 p_nascer and p_sobreano 0.7834 0.0214
3 p_desmama and p_sobreano 0.8323 0.0104

Note que as correlações são elevadas e positivas. Assim, espera-se que, em geral, animais
que nascem mais pesados chegam a desmama e ao sobreano mais pesados. Além dos valores de
correlação, a função gera valores de probabilidade do teste t para as correlações. Valores de p

37
menores que 0,05 significam que a correlação é estatisticamente significativa, ou seja, diferente
de zero.

38
Capítulo II
Probabilidade

Introdução
A probabilidade teve sua origem no século XVI. As aplicações iniciais referem-se
principalmente aos jogos de azar. Mesmo hoje há muitas aplicações que envolvem jogos de azar
como as loterias e corridas de cavalo.

39
Atualmente a teoria das probabilidades é utilizada por governos, empresas, pesquisadores
nas mais diversas áreas. Independente de qual seja a aplicação, a probabilidade nos dá uma
quantificação da chance de ocorrência ou não de um evento futuro. Assim, pode-se utilizar a
teoria das probabilidades para prever a chance de uma pessoa contrair determinada doença, fazer
previsões do tempo e prever as chances de uma criança nascer com determinada característica.
Para melhor entendermos a aplicação da teoria das probabilidades, primeiramente
vejamos alguns conceitos.

Probabilidade
A Probabilidade é o estudo de experimentos aleatórios ou não determinísticos.
Experimentos determinísticos:
São aqueles que, repetidos sob as mesmas condições dão resultados idênticos, sem
variação. Como por exemplo, um experimento onde se avalia o sexo em um lote de leitões
macho. Neste caso não tem variação, somente um resultado.

Experimentos aleatórios:
São aqueles que repetidos sob as mesmas condições dão resultados, em geral, distintos.
Como por exemplo, observar o sexo na nascimento de 10 leitões. Note que cada vez que for
observado o sexo de 10 leitões, em geral, o resultado será diferente.

Espaço amostral (S)


É o conjunto de resultados possíveis de um experimento aleatório. O espaço amostral
pode ser classificado em:

Finito
Número limitado de elementos.
Exemplo.: Considere o lançamento de um dado. Assim, podem ocorrer seis resultados:
S = {1, 2, 3, 4, 5, 6}

Infinito
Número ilimitado de elementos. Pode ser subdividido em:
a - Enumerável
40
É o caso das variáveis aleatórias discretas, como por exemplo, jogar uma moeda infinitas
vezes e observar o número de caras. Note que é possível enumerar os possíveis resultados em um
determinado intervalo.

b - Não Enumerável
É o caso de variáveis aleatórias contínuas. Neste caso existem infinitos resultados em
qualquer intervalo.

Evento (E)
Um evento (E) é qualquer subconjunto de um espaço amostral (S).
Considere como exemplo o seguinte experimento aleatório: Observar o sexo no nascimento de
três cães. O espaço amostral (S) neste caso será:
M = macho
F = fêmea
S = {MMM, MMF, MFM, FMM, FFM, FMF, MFF, FFF}
Assim, um evento (E) pode ser qualquer subconjunto de S. Vamos considerar os eventos
A, B e C a seguir:
A = nascer dois machos: A = {MMF, MFM, FMM}
B = nascer três fêmeas: B = {FFF}
C = nascer pelo menos um macho: C = S – B = {MMM, MMF, MFM, FMM, FFM, FMF, MFF}

Probabilidade de um evento
A probabilidade de um evento A, em que todos os resultados possíveis do espaço
amostral (S) são igualmente prováveis pode ser obtida por:

número de resultados favoráveis ao evento (A)


P(A) =
número total de resultados possíveis (S)

Considere o exemplo anterior de se observar o sexo no nascimento de três cães. Qual a


probabilidade de ocorrer os eventos A, B e C?
3 1 7
P(A) = P(B) = P(C) =
8 8 8

41
Probabilidade de dois ou mais eventos (teorema do produto)
Acima foi apresentada a forma de obter a probabilidade de ocorrência de um evento A
qualquer. Aqui vamos conhecer uma maneira de obter a probabilidade de ocorrência de eventos
simultâneos ou em seqüência. Sejam A 1, A2, A3, ..., Ak k eventos independentes. Então, a
probabilidade destes eventos ocorrerem simultaneamente ou em seqüência é:
P(A1e A 2 e A 3 e...e A k ) = P(A1 ).P(A 2 ).P(A 3 ). ... .P(A k )

Pode-se representar também pela seguinte notação:


P(A1 ∩ A 2 ∩ A 3 ∩ ... ∩ A k ) = P(A1 ).P(A 2 ).P(A 3 ). ... .P(A k )

O símbolo ∩ significa interseção. Para melhor exemplificar, vamos considerar o


diagrama de Venn abaixo:

A1∩A2
A1 A2
2

Neste diagrama a área do retângulo representa o espaço amostral S e a área dos círculos
A1 e A2 representam dois subconjuntos que são os eventos A 1 e A2 respectivamente. A área
sobreposta representa um subconjunto onde A1 e A2 ocorrem simultaneamente, ou seja, A1
interseção A2, que é representado por A 1 ∩ A 2 . Assim, a probabilidade de ocorrer A 1 e A2
simultaneamente pode ser obtida por:
P(A1 ∩ A 2 ) = P(A1e A 2 ) = P(A1 ).P(A 2 )
Exemplo 1. Considere que a probabilidade de um casal ter uma criança albina seja igual a
1/4 e, a probabilidade de nascer menina seja igual a 1/2. Assim, a probabilidade de nascer uma
menina albina é:
1 1 1
P(A1 ∩ A 2 ) = P(A1e A 2 ) = . =
4 2 8
onde:

42
A1 é o evento “nascer uma criança albina” e;
A2 é o evento “nascer uma menina”.

Exemplo 2. Considere o nascimento de três cães. Qual a probabilidade de nascer três


fêmeas?
A probabilidade de ocorrer uma fêmea é 0,5. Então, a probabilidade de ocorrer três, pelo
teorema do produto é:
1 1 1 1
P(A 1 ∩ A 2 ∩ A 3 ) = P(A 1e A 2 eA 3 ) = . . =
2 2 2 8

Estes eventos são independentes, ou seja, a probabilidade da ocorrência de um evento não


depende da ocorrência de outro. No entanto, em alguns casos, a probabilidade de ocorrência de
um evento depende da ocorrência de outro. Então, a probabilidade de ocorrência de k eventos
dependentes A1, A2, A3, ..., Ak é obtida por:

P(A1e A 2 e A 3 e...e A k ) = P(A1 ).P(A 2 /A1 ).P(A 3 /A1 e A 2 ). ... .P(A k /A1e A 2 e A 3 e...e A k −1 )

ou
P(A1 ∩ A 2 ∩ A 3 ∩ ... ∩ A k ) = P(A1 ).P(A 2 /A1 ).P(A 3 /A1 ∩ A 2 ). ... .P(A k /A1 ∩ A 2 ∩ A 3 ∩ ... ∩ A k −1 )

em que, por exemplo, P(A2/A1) é a probabilidade do evento A 2 ocorrer dado que o evento A1
tenha ocorrido, onde:
P(A1 ∩ A 2 ) P(A 2 ∩ A1 )
P(A 2 /A1 ) = = (teorema da probabilidade condicional)
P(A1 ) P(A1 )
Exemplo 3. Considere que a probabilidade de um casal ter uma criança com determinada
doença é 3/4 se for menino e 1/4 se for menina. Então, qual é a probabilidade nascer uma criança
doente do sexo masculino?
Neste caso vamos estipular que o evento A1 é o nascimento de um menino e o evento A2 é
a ocorrência da doença. Como a ocorrência da doença depende do sexo, os eventos são
dependentes e o calculo da probabilidade deve ser feito da seguinte forma:
1 3 3
P(A1 ∩ A 2 ) = P(A1 ).P(A 2 /A1 ) = . =
2 4 8
Exemplo 4. Em uma determinada região, 30% dos bovinos possuem uma doença X, 20%
possuem uma doença Y e 10% possuem as duas. Um animal é amostrado aleatoriamente.

43
Vamos considerar que:
P(A1) = probabilidade de amostrar animal com a doença X = 0,30
P(A2) = probabilidade de amostrar animal com a doença Y = 0,20
P(A1 e A2) = P(A1 ∩ A2) = probabilidade de amostrar um animal com X e Y = 0,10

Qual a probabilidade do animal amostrado possuir:


a) A doença Y?
P(Y) = P(A2) = 0,20
b) Sabendo que o animal amostrado possui a doença X, qual a probabilidade de também possuir
a Y?
P(A 2 ∩ A1 ) 0,10 1
P(A 2 /A1 ) = = = = 0,33
P(A1 ) 0,30 3

Eventos disjuntos ou mutuamente exclusivos


Eventos disjuntos ou mutuamente exclusivos são eventos que não podem ocorrer

simultaneamente ou em seqüência, ou seja, P(A1 ∩ A 2 ) = 0 .


Como exemplo, considere o diagrama de Venn abaixo:

S
Evento A1

Evento A2

Note que os eventos A1 e A2 não podem ocorrer simultaneamente (não existe


sobreposição entre os dois subconjuntos). Neste caso é dito que os dois eventos são mutuamente
exclusivos ou disjuntos.
Considere que o evento A1 no diagrama acima seja o subconjunto relativo ao número de
pessoas com a doença X e, o evento A2 o número de pessoas com a doença Y, em um espaço

44
amostral S onde S – A1 – A2 fornece o número de pessoas sadias. Considere que a doença X só
ocorre em homens e a doença Y só ocorre em mulheres. Então, as duas doenças não podem
ocorrer simultaneamente em um mesmo indivíduo e, portanto, os dois subconjuntos não se

sobrepõem, sendo que, a probabilidade P(A1 ∩ A 2 ) = 0 .

Probabilidade de um evento satisfeito por vários outros (teorema da soma)


Vamos considerar que os eventos A1 e A2 são subconjuntos de indivíduos com a doença
X e Y, respectivamente. Considere que os eventos são não disjuntos, ou seja, existe a
probabilidade de ocorrência da doença X e Y simultaneamente. Logo, a probabilidade de
ocorrência dos eventos A1 ou A2 pode ser obtida por:
P(A1ou A 2 ) = P(A1 ) + P(A 2 ) − P(A1 e A 2 )
Note que usamos “ou” no lugar de “e”. Portanto, a probabilidade a ser obtida é a
ocorrência de A1 ou de A2. Neste caso pode-se substituir “ou” pelo símbolo ∪ , que significa
união, onde a probabilidade acima fica:
P(A1 ∪ A 2 ) = P(A1 ) + P(A 2 ) − P(A1 ∩ A 2 )
Observe novamente, com a ajuda do diagrama de Venn a seguir, que os eventos podem
ocorrer simultaneamente. Porém, o que se quer é a probabilidade de ocorrer A1 ou A2. Note que a

área da interseção A1 ∩ A 2 é incluída duas vezes no cálculo da probabilidade

P(A1 ∪ A 2 ) = P(A1 ) + P(A 2 ) e, portanto, é necessário fazer a subtração, obtendo o cálculo correto

dado por: P(A 1 ∪ A 2 ) = P(A 1 ) + P(A 2 ) − P(A 1 ∩ A 2 ) .

A1∩A2
A1 A2
2

Exemplo 5. Vamos considerar o exemplo em que a probabilidade de nascer menino (A1) é igual a
1/2 e a probabilidade de nascer albino (A2) é igual a 1/4. Então, qual é a probabilidade de uma
criança recém nascida ser menino ou albina?
P(A1 ∪ A 2 ) = P(A1 ) + P(A 2 ) − P(A1 ∩ A 2 ) = 1/2 + 1/4 − 1/8 = 5/8

45
Exemplo 6. Em uma determinada região, 30% dos bovinos possuem uma doença X, 20%
possuem uma doença Y e 10% possuem as duas. Um animal é amostrado aleatoriamente.
Vamos considerar que:
P(A1) = probabilidade de amostrar animal com a doença X = 0,30
P(A2) = probabilidade de amostrar animal com a doença Y = 0,20
P(A1 e A2) = P(A1 ∩ A2) = probabilidade de amostrar um animal com X e Y = 0,10

Qual a probabilidade de amostrar um animal com a doença X ou Y?


P(A1 ∪ A 2 ) = P(A1 ) + P(A 2 ) − P(A1 ∩ A 2 ) = 0,30 + 0,20 − 0,10 = 0,40

Vamos considerar agora a ocorrência de 3 eventos não disjuntos. No diagrama de Venn


este eventos ficam:

A2
S

A3∩A2 A1∩A2
A1∩A2∩A3
A3∩A1

A3 A1

Para obter a probabilidade de ocorrência de A 1 “ou” A2 “ou” A3 devem-se somar as três


probabilidades P(A1) + P(A2) + P(A3). No entanto, neste caso a probabilidade de cada interseção
dois a dois é somada duas vezes e deve ser subtraída. No entanto, com este procedimento

46
“elimina-se” a probabilidade da interseção tripla. Portanto, a mesma deve ser somada,
obtendo-se o seguinte calculo de probabilidade:
P(A1 ∪ A 2 ∪ A 3 ) = P(A1 ) + P(A 2 ) + P(A 3 ) − P(A1 ∩ A 2 ) − P(A1 ∩ A 3 ) − P(A 2 ∩ A 3 ) + P(A1 ∩ A 2 ∩ A 3 )

Para obter a probabilidade de três ou mais eventos o calculo fica bem mais complicado.
No entanto, se n eventos A1, A2, A3, ..., An são disjuntos, ou seja, não existem interseções, a
probabilidade seria obtida simplesmente por:
P(A1 ∪ A 2 ∪ A 3 ∪ ... ∪ A n ) = P(A1 ) + P(A 2 ) + P(A 3 ) + ... + P(A n )

Exemplo 7. Considere que, em um determinado nascimento, um animal tenha 1/2 de


probabilidade de apresentar a doença X e tenha 1/4 de probabilidade de apresentar a doença Y.
Considere que as mesmas não podem ocorrer simultaneamente. Qual seria a probabilidade de
ocorrência da doença X ou Y?

P(A1 ∪ A 2 ) = P(A1 ) + P(A 2 ) = 1/2 + 1/4 = 3/4

Exemplo 8. Considere o lançamento de um dado. Qual a probabilidade de sair 1 ou 4 ou 5?


Considere que:
P(A1) = probabilidade de sair 1 = 1/6
P(A2) = probabilidade de sair 4 = 1/6
P(A3) = probabilidade de sair 5 = 1/6
Como são eventos disjuntos, pelo teorema da soma temos:

P(A1 ∪ A 2 ∪ A 3 ) = P(A1 ) + P(A 2 ) + P(A 3 ) = 1/6 + 1/6 + 1/6 = 3/6

Teorema da probabilidade total


Considere agora um evento B em S, representado no digrama de Venn abaixo pelo
círculo. E considere também n eventos A1, A2, A3, ..., An como partição do espaço amostral S,

n
satisfazendo as seguintes condições: i) P(A i ∩ A i ' ) = 0 ; ii) ∑A
i =1
i = S e; iii) P(Ai)>0.

47
Então, pelo teorema da probabilidade total, a probabilidade de B pode ser obtida pela
soma das probabilidades das interseções A i ∩ B. Assim, tem-se a probabilidade de B dada por:

P(B) = (A1 ∩ B) + (A 2 ∩ B) + (A 3 ∩ B) + ... + (A n ∩ B) (1)

Pelo teorema da probabilidade condicional temos que:


P(A1 ∩ B)
P(B/A1 ) =
P(A1 )

Assim, isolando P( A 1 ∩ B) temos que:


P(A1 ∩ B) = P(B/A1 ).P(A1 )
Aplicando em todas as interseções da equação (1), temos que:
P(A1 ∩ B) = P(B/A1 ).P(A1 )
P(A 2 ∩ B) = P(B/A 2 ).P(A 2 )
P(A 3 ∩ B) = P(B/A 3 ).P(A 3 )

.
.
.

48
P(A n ∩ B) = P(B/A n ).P(A n )
P(B) = P(B/A1 ).P(A1 ) + P(B/A 2 ).P(A 2 ) + P(B/A 3 ).P(A 3 ) + ... + P(B/A n ).P(A n )

n
P(B) = ∑ P(B/A i ).P(A i )
i =1

Teorema de Bayes
O teorema de Bayes envolve o conhecimento dos teoremas da probabilidade condicional
e total, apresentados anteriormente. Então, vamos considerar novamente n eventos A 1, A2, A3, ...,

An como partição do espaço amostral S, satisfazendo as seguintes condições: i) P(A1 ∩ A 2 ) = 0 ;

n
ii) ∑A i = S e; iii) P(Ai)>0. Pelo teorema da probabilidade condicional temos que:
i =1

P(A i ∩ B) = P(A i /B).P(B) = P(B/A i ).P(A i )

Então:
P(A i ∩ B)
P(A i /B) =
P(B)
Pelo teorema da probabilidade total temos que:
P(B) = P(B/A1 ).P(A1 ) + P(B/A 2 ).P(A 2 ) + P(B/A 3 ).P(A 3 ) + ... + P(B/A n ).P(A n )

Então, obtém-se o teorema de Bayes dado por:


P(A i ∩ B) P(B/Ai ).P(A i )
P(A i /B) = =
P(B) P(B/A1 ).P(A1 ) + P(B/A 2 ).P(A 2 ) + P(B/A 3 ).P(A 3 ) + ... + P(B/A n ).P(A n )
ou

P(A i ∩ B) P(B/A i ).P(A i )


P(A i /B) = = n
P(B)
∑ P(B/Ai ).P(A i )
i =1

Para exemplificar, considere um frigorífico onde os animais são oriundos de três granjas
(A, B e C). As granjas A, B e C produzem, respectivamente, 30%, 25% e 45% do total. A
porcentagem de animais com “defeitos” e que serão descartados das granjas A, B e C são,

49
respectivamente, 1%, 1,2% e 2%. Retirou-se um animal ao acaso. Qual a probabilidade do
animal ser da granja C sendo que ele vai ser descartado por “defeito”?
Aplicando o teorema de Bayes temos que:

P(A i ∩ B) P(B/Ai ).P(A i )


P(A i /B) = =
P(B) P(B/A1 ).P(A1 ) + P(B/A 2 ).P(A 2 ) + P(B/A 3 ).P(A 3 ) + ... + P(B/A n ).P(A n )

Adaptando para o exemplo:


P ( D / C).P (C)
P ( C / D) =
P( D / A ).P( A ) + P( D / B).P( B) + P( D / C).P(C)

0,02.0,45 0,009 9 3
P(C/D) = = = =
0,01.0,30 + 0,012.0,25 + 0,02.0,45 0,015 15 5

Exercícios

1. Em uma fazenda, 25% dos animais possuem uma verminose do tipo A, 15% possuem uma
verminose do tipo B e 10% possuem as duas verminoses. Um animal é amostrado
aleatoriamente.

50
a) Qual a probabilidade de possuir a verminose A ou B? R.: 0,30
b) Se ele possui a verminose B, qual a probabilidade de possuir a verminose A? R.: 2/3
c) Se ele possui a verminose A, qual a probabilidade de possuir a verminose B? R.: 2/5

2. Uma moeda é lançada 3 vezes. Qual a probabilidade de ocorrer?


a) Três caras? R.:1/8
b) Três caras ou três coroas? R.: 1/4
c) Uma cara? R.: 3/8
d) Ocorrer uma cara e duas coroas nesta ordem? R.: 1/8
e) Sair primeiro uma cara seguida de duas coroas ou sair primeiro uma coroa seguida de duas
caras? R.: 2/8
f) Pelo menos uma cara? R.: 7/8

3. Em uma placa de petri, 40%, 50% e 10% do total são bactérias do tipo A, B e C,
respectivamente. De cada tipo, 3%, 5% e 2%, respectivamente, são patogênicas. Pede-se:
a) Qual a probabilidade de retirar, ao acaso, uma bactéria patogênica? R.: 0,039
b) Sabendo que a bactéria é patogênica, qual a probabilidade de que ela seja do tipo B? R.: 0,64
ou 64%

4. Em uma suinocultura com 200 animais, tem-se 150 fêmeas e 50 machos. Tem-se também, 4
animais doentes, sendo 3 doentes machos e 1 fêmea. Comprando um animal ao acaso, qual
a probabilidade do animal:
a) ser macho R.: 1/4
b) ser fêmea R.: 3/4
c) estar doente R.: 1/50
d) estar doente e ser macho R.: 3/200
e) Um macho foi comprado. Qual a probabilidade do animal estar doente? R.: 3/50
f) Uma fêmea foi comprada. Qual a probabilidade do animal estar doente? R.: 1/150
g) Querendo evitar a compra de um animal doente, você compraria uma animal macho ou
fêmea? Justifique a sua resposta.

51
Capítulo III
Distribuições de Probabilidades

52
Variáveis aleatórias
Quando uma variável esta associada a uma probabilidade ela é chamada de variável
aleatória. Portanto, os valores assumidos pelas variáveis aleatórias estão relacionados a
experimentos aleatórios.
Por exemplo: Considere o nascimento de 10 leitões onde será observada a variável
qualitativa “sexo”. Trata-se de um experimento aleatório onde a variável “sexo” apresenta 2
categorias distintas (macho e fêmea) associadas a uma probabilidade de ocorrência.
As variáveis aleatórias podem ser discretas ou contínuas.
Variável aleatória discreta
Uma variável aleatória é discreta quando o número de valores possíveis for finito ou
infinito numerável. Em geral, os seus valores são obtidos mediante alguma forma de contagem.
Como exemplo de variável aleatória discreta, pode-se citar o número de acidentes
ocorridos em uma semana, o número de defeitos por peça, o número de filhos do sexo masculino
por casal e o número de caras em 10 lançamentos de uma moeda. Note que, no caso da moeda,
se o número de lançamentos for infinito, o número de caras também será infinito.
Variável aleatória contínua
Uma variável aleatória é contínua quando assumir infinitos valores em determinado
intervalo. São, em geral, variáveis obtidas por alguma medida. São exemplos de variáveis
aleatórias contínuas, o peso de bezerros ao nascer, a pressão arterial, o tempo efetivo de anestesia
a circunferência de um órgão e o peso ao abate.
Note que o peso de dois leitões pode ser o mesmo em uma balança. Porém, esse fato é
devido a limitações da balança, pois não existem dois leitões com pesos exatamente idênticos.
Essa diferença de peso pode chegar a níveis infinitamente pequenos, sendo este fato
característico de uma variável aleatória contínua.

Distribuições de probabilidade de variáveis aleatórias


Estudar a forma como uma variável aleatória se distribui é importante para podermos
obter uma função que caracteriza a distribuição. Portanto, serão apresentadas a seguir, funções
que caracterizam as distribuições de variáveis aleatórias discretas e contínuas mais comuns.

53
Principais Distribuições de Variáveis Aleatórias

Discretas
Binomial (Bernoulli)
Multinomial
Poisson

Contínuas
Normal (Gauss-Laplace)
Normal Padronizada

Distribuição Binomial
A distribuição Binomial também é conhecida como seqüência de Bernoulli, em
homenagem a seu criador, Jacques Bernoulli.
É uma forma de distribuição de probabilidade adequada em experimentos aleatórios que
apresentam apenas dois resultados (sucesso ou fracasso). Como por exemplo, o sexo no
nascimento de 10 leitões.
Esta distribuição caracteriza-se pelos seguintes eventos:
1) Realiza-se n provas independentes e do mesmo tipo. Por exemplo, o lançamento de uma
moeda 10 vezes.
2) Cada prova admite dois resultados (sucesso ou fracasso). Por exemplo, pode-se considerar que
no lançamento de uma moeda cara é sucesso e coroa fracasso.
Assim, tem-se a probabilidade de sucesso em cada prova igual a p e a de fracasso em
cada prova igual a 1-p = q. A função de probabilidade que caracteriza esta distribuição é:
n!
P(X) = .p X .q Y
X! Y!

54
onde:
n é o número de provas ou observações;
X é o número de sucessos e;
Y é o número de fracassos que é igual a n - X.
Esta função nos dá a probabilidade de um número X de sucessos P(X), em um número n
de provas. Assim, vamos considerar o seguinte exemplo:
Qual a probabilidade de, em uma ninhada de 12 cães, nascerem 4 machos? Então, vamos
considerar o nascimento de filhote macho como sucesso e filhote fêmea como fracasso. O
número de sucessos X será igual a 4 e o número de fracassos Y igual a 8. A probabilidade de
nascer macho é p= 0,5 e de nascer fêmea é q = 0,5. O número de “provas” n é igual ao tamanho
da ninhada, ou seja, igual a 12. Identificado cada termo da equação temos:
n! 12! 12.10.9.8!
P(X) = .p X .q Y = .0,54.0,58 = .0,512 = 495.(1/2)12 = 0,1209
X! Y! 4! 8! 4.3.2.1.8!
Portanto, a probabilidade de nascer 4 machos em uma ninhada de 12 filhotes é P(X) =
0,1209.

# programação em R
dbinom(4,12,0.5)
[1] 0.1208496

Na programação em R o primeiro elemento da função é o X o segundo n e o terceiro o


valor de p.

Vamos abordar este assunto de outra forma. Considere agora o nascimento de quatro cães
(n = 4). Então, qual a probabilidade de nascerem 2 machos? Neste caso, podem ocorrer as
seguintes seqüências:
MMFF MFMF MFFM
FMFM FMMF FFMM
A probabilidade de ocorrer cada uma destas seqüências é:
P(M M F F ) = ½ . ½ . ½ . ½ .=1/16
P(M F M F) = ½ . ½ . ½ . ½ .=1/16
P(M F F M) = ½ . ½ . ½ . ½ .=1/16

55
P(F M F M) = ½ . ½ . ½ . ½ .=1/16
P(F M M F) = ½ . ½ . ½ . ½ .=1/16
P(F F M M) = ½ . ½ . ½ . ½ .=1/16
Voltemos agora ao Capítulo II onde foi abordado o teorema da soma. Note que, a
probabilidade de, em quatro nascimentos nascerem 2 machos é satisfeita por seis eventos. Assim,
pode-se escrever esta probabilidade da seguinte forma:

P(nascerem 2 machos em uma ninhada de quatro filhotes) =


= P(M M F F ou M F M F ou M F F M ou F M F M ou F M M F ou F F M M) =
= 1/16 + 1/16 + 1/16 + 1/16 + 1/16 + 1/16 = 6 x (1/16) = 6/16

Uma maneira prática de obter o número de eventos possíveis é:


n! 4!
= =6
X! Y! 2! 2!
Assim, voltemos à função de probabilidade apresentada anteriormente para resolver esta
questão de forma mais prática. Esta função é especialmente útil quando o número de provas ou
observações é muito elevado.
n! 4!
P(X) = .p X .q Y = .0,52.0,52 = 6.0,54 = 6/16 = 0,375
X! Y! 2! 2!

# programação em R
dbinom(2,4,0.5)
[1] 0.375

Outros exemplos de distribuição binomial são: mastite (positivo/negativo), resultado de


um exame (positivo/negativo), efeito de um veneno (fatal/não fatal), etc.

Distribuição Multinomial
A distribuição multinomial resulta da generalização da Binomial. No caso da distribuição
multinomial o espaço amostral é repartido em k eventos A 1, A2, A3, ..., Ak independentes com
probabilidades p1, p2, p3, ..., pk. Então, em n provas, a probabilidade de que A1 ocorra X1 vezes,
A2, ocorra X2 vezes, A3 ocorra X3 vezes, ... e Ak ocorra Xk vezes é:

56
n! X X X X
P(X1A1 ∩ X 2 A 2 ∩ X 3 A 3 ∩ ... ∩ X k A k ) = .p1 1 .p 2 2 .p 3 3 . ... .p k k
X1! X 2 !X 3!...Xk !

Suponha que a probabilidade de um casal de Labradores gerar filhos amarelos, pretos e


vermelhos é 9/16, 6/16 e 1/16 respectivamente. Na genética, as diferentes categorias ou níveis de
uma característica são chamados de fenótipos. Então, a variável qualitativa “cor da pelagem de
labrador” apresenta três fenótipos ou categorias. Neste caso, a distribuição multinomial é
adequada e seria possível responder a seguinte pergunta:
Qual a probabilidade de, em uma cria de 10 filhotes, nascerem 1 amarelo, 1 preto e 8
vermelhos?
1 1 8
10!  9   6   1 
P(1 amarelo ∩ 1 preto ∩ 8 vermelhos) = .  .  .  = 90 . 4,91 x 10 −11 = 4,42 x 10 −09
1!1! 8! 16  16  16 

# programação em R
dmultinom(c(1,1,8), 10, prob=c((9/16),(6/16),(1/16)))
[1] 4.420144e-09

Na programação em R o primeiro elemento da função é uma lista contendo X 1, X2 e X3, o


segundo é o n e o terceiro é uma lista contendo os valores de probabilidade.
Note que a probabilidade é bastante baixa, pois este resultado contraria todas as
expectativas. Então, consideremos uma ninhada mais provável, por exemplo, o nascimento de 6
filhotes amarelos, 3 pretos e 1 vermelho:
6 3 1
10!  9   6   1 
P(6 amarelos ∩ 3 pretos ∩ 1 vermelho) = .  .  .  = 840 .1,04 x 10 − 4 = 0,09
6! 3!1! 16  16  16 

# programação em R
dmultinom(c(6,3,1), 10, prob=c((9/16),(6/16),(1/16)))
[1] 0.08769771

Note que a probabilidade foi bem mais elevada.

57
Outros exemplos de distribuição multinomial são os grupos sanguíneos em uma amostra
n da população, três ou mais fenótipos em uma descendência n (como no exemplo acima) e os
diferentes valores obtidos ao lançar o dado n vezes.

Distribuição de Poisson
Vamos considerar agora uma variável que é obtida através de contagens, como por
exemplo, o número de acidentes em determinado local em determinado tempo. Neste caso,
pode-se contar o número de acidentes que aconteceram, mas não é possível contar o número de
acidentes que não ocorreram. Outra característica é que o número de acidentes é bastante baixo.
Estas características ocorrem em variáveis aleatórias discretas que possuem a chamada
distribuição de Poisson.
Então, resumidamente, uma variável que possui distribuição Poisson é obtida por
contagem de um fenômeno raro. Por este fato, a distribuição de Poisson é conhecida
classicamente por lei dos fenômenos raros.
São exemplos de distribuição de Poisson:
número de defeitos por cm2
número de acidentes por dia
número anual de suicídios
número de fetos nascidos com determinado defeito

A função de probabilidade de uma variável com distribuição Poisson é:


e −μ . μ x
P(X) =
x!
onde:
x é o número de sucessos (defeitos, acidentes, suicídios, etc);
e é a base dos logaritmos neperianos e ≈ 2,718;
µ é a média da distribuição.

Exemplos:

1. Considere um frigorífico com média de 3 acidentes por mês. Então, qual seria a probabilidade
de:

58
a) Ocorrer 10 acidentes no próximo mês.
e −μ . μ x e −3 . 310
P(X) = = ≈ 8,10 x 10-4 ≈ 0,00081 ≈ 0,08%
x! 10!

# programação em R
# dpois(x, lambda), onde x é o número de acidente e lambda a média de acidentes
dpois(10, 3)
[1] 0.0008101512
Note que a probabilidade de ocorrer um número de acidentes muito acima da média é
baixo, menos de 1%.

b) Ocorrer 2 acidentes no próximo mês.

e −μ . μ x e −3 . 32
P(X) = = ≈ 0,224 ≈ 22,4%
x! 2!

# programação em R
dpois(2, 3)
[1] 0.2240418

Ocorrer dois acidentes é muito mais provável (22,4%) por ser próximo à média.

c) Ocorrer 10 acidentes nos próximos 6 meses.


Como a média de acidentes em um mês é 3, então, a média de acidentes em 6 meses é
igual a 18.

e −μ . μ x e −18 . 1810
P(X) = = ≈ 0,015 ≈ 1,5%
x! 10!

# programação em R
dpois(10, 18)
[1] 0.01498516

59
2. Para uma determinada marca de lâmpada, de cada 4000, 2 se queimam, em média, ao serem
ligadas. Qual a probabilidade de:
a) Oito lâmpadas queimarem ao serem ligadas 4000 lâmpadas?
e −μ . μ x e −2 . 28
P(X) = = ≈ 8,59x10 − 4
x! 8!
# programação em R
dpois(8, 2)
[1] 0.0008592716

b) Nenhuma queimar ao serem ligadas 4000 lâmpadas?

e −μ . μ x e −2 . 2 0
P(X) = = ≈ 0,1353
x! 0!
# programação em R
dpois(0, 2)
[1] 0.1353353

c) Cinco queimarem ao serem ligadas 6000 lâmpadas?


e −μ . μ x e −3 . 35
P(X) = = ≈ 0,101
x! 5!
# programação em R
dpois(5, 3)
[1] 0.1008188

Observação: Note que neste exemplo conhecemos a probabilidade de defeitos e de “não


defeitos” e, assim, podemos utilizar a distribuição binomial. No caso, aproximadamente, temos o
mesmo resultado utilizando poisson ou binomial.
Fazendo pela binomial para as letras a), b) e c) do exemplo 2) temos:
# programação em R
dbinom(8,4000, prob=(2/4000))
[1] 0.0008562664

60
dbinom(0,4000, prob=(2/4000))
[1] 0.1352676

dbinom(5,6000, prob=(2/4000))
[1] 0.1008272

3. Em uma cidade ocorre, em média, 2 assassinatos por mês.


a) Qual a probabilidade de ocorrer 10 assassinatos no próximo mês?
e −μ . μ x e −2 . 210
P(X) = = ≈ 0,000038
x! 10!
# programação em R
dpois(10, 2)
[1] 3.818985e-05

b) Qual a probabilidade de ocorrer 20 assassinatos no próximo ano?

e −μ . μ x e −24 . 24 20
P(X) = = ≈ 0,0624
x! 20!
# programação em R
dpois(20, 24)
[1] 0.06237817

Distribuição Normal
É uma das mais importantes distribuições de probabilidades, sendo aplicada em inúmeros
fenômenos e constantemente utilizada para o desenvolvimento teórico da inferência estatística.
Também é conhecida como distribuição de Gauss ou Laplace.
Uma variável aleatória contínua x que tem distribuição normal possui a seguinte função
de probabilidade, chamada neste caso de “função densidade de probabilidade” (f.d.p.),
apresentada a seguir:
1 (x − μ)
1 −
f(x) = e 2 σ2
para − ∞ 〈 μ 〈 ∞, − ∞ 〈 x 〈 ∞ e σ 〉 0
σ 2π

61
onde:
σ 2 é a variância de x;
μ é a média de x.
π é uma constante trigonométrica aproximadamente igual a 3,14
e é a base dos logaritmos neperianos aproximadamente igual a 2,718

Quando a variável x tem distribuição aproximadamente normal com média µ e variância


σ2, representam-se estas características pela seguinte notação:
x ~ N(µ, σ2)

A representação gráfica de uma variável com distribuição normal é apresentada na Figura


1:

Figura 1. Distribuição de probabilidade para dados hipotéticos de altura em centímetros.

# programação em R para a Figura 1


curve(dnorm(x, 170,11), 130,210, col="dark green", lty=2, ylab="Probabilidade", xlab="Altura
(cm)" , main="X~N(170,121)")

62
Neste gráfico, o eixo das abscissas contém os valores da variável x e, o eixo das
ordenadas contém valores de probabilidade.

As propriedades da distribuição normal são:


1) f(x) possui um ponto de máximo para x = µ;
2) f(x) tem dois pontos de inflexão cujas abscissas valem µ + σ e µ - σ;
3) f(x) é simétrica em relação à x ou seja, µ (média) = Mo (moda) = Md (mediana);
4) f(x) tende a zero quando x tende para ± ∞.

A propriedade 1 é obtida derivando f(x) e igualando a zero. O valor obtido será um


máximo se a segunda derivada de f(x) for menor que zero. O ponto de máximo obtido com estas
derivações é x = µ.
A propriedade 2 é obtida igualando à segunda derivada de f(x) a zero, ou seja, f’’(x) = 0.
O valor obtido é um ponto de inflexão. No caso são dois pontos, µ + σ e µ - σ.
Os valores em torno da média variam conforme a variância. Pode-se observar
graficamente quatro situações com diferentes valores de variância com média constante (Figura
2).

63
Figura 2. Distribuições de probabilidade para dados hipotéticos de altura em centímetros, com
mesma média e diferentes variâncias.

A média e o desvio padrão de uma variável quantitativa com distribuição


aproximadamente normal são importantes para estimar a quantidade de elementos em dado
intervalo. Estima-se que 68% dos dados estão entre a média mais ou menos um desvio padrão
(Figura 3). O intervalo da média mais ou menos dois desvios padrões e três desvios padrões,
contém 95% e 99% dos dados, respectivamente (Figura 3). Assim, considerando a variável altura
com média 170 cm e desvio padrão de 11 cm, espera-se que 68% dos indivíduos da população

64
possuem altura de 159 cm a 181 cm. Na mesma população, 95% e 99% dos indivíduos tem
alturas entre 148 cm a 192 cm e 137 cm a 203 cm, respectivamente (Figura 3).

# programação em R para a Figura 2


par(mfrow=c(2,2))
curve(dnorm(x, 170,4), 130,210, col="dark green", lty=2, ylab="Probabilidade", xlab="Altura
(cm)" , main="X~N(170,16)")
curve(dnorm(x, 170,8), 130,210, col="dark green", lty=2, ylab="Probabilidade", xlab="Altura
(cm)" , main="X~N(170,64)")
curve(dnorm(x, 170,10), 130,210, col="dark green", lty=2, ylab="Probabilidade", xlab="Altura
(cm)" , main="X~N(170,100)")
curve(dnorm(x, 170,80), 130,210, col="dark green", lty=2, ylab="Probabilidade", xlab="Altura
(cm)" , main="X~N(170,6400)")

Figura 3. Exemplo de curva normal, considerando a variável altura com média 170 e variância
121.

65
# programação em R para a Figura 3
x=seq(from=135, to=205, by=0.5)
y=dnorm(x, mean=170,sd=11)
plot(x, y, type="l",
main="Altura ~ N(170,121)",
xlab = "Altura (cm)",
ylab = "Frequência", axes=FALSE, ylim=c(0,0.04))
polygon(c(135,x,170),c(0,y,0), col="dark green",
border = "black")
axis(2, seq(from=0, to=0.04, by=0.01), las=2)
axis(1, seq(from=135, to=205, by=5))
abline(v=c(170,181,192,203,159,148,137), col="white")
text(170,0.04, expression(mu))
text(183,0.025, expression(mu+alpha))
text(195,0.007, expression(mu+2*alpha))
text(205,0.002, expression(mu+3*alpha))
text(157,0.025, expression(mu-alpha))
text(145,0.007, expression(mu-2*alpha))
text(136,0.002, expression(mu-3*alpha))
text(c(146,155,165,175,185,194), c(0.0015,0.007,0.015,0.015,0.007,0.0015),
c("2,1%","13,6%","34,1%","34,1%","13,6%", "2,1%"), cex=0.7, col="white")

As curvas normais também podem ser utilizadas para comparar a distribuição de


diferentes populações. Considerando que o peso médio de touros adultos da raça nelore é de 680
kg com desvio padrão de 78 kg e da raça angus é de 900 kg com desvio padrão de 102 kg, temos
uma distribuição de pesos semelhante à Figura 4. Nestas curvas é possível observar as diferenças

66
médias entre populações. E também, a maior concentração de valores em torno da média para
nelores, devido ao menor desvio padrão.

Figura 4. Exemplo de curva normal, considerando a variável peso para touros adultos da raça
nelore e angus.

# programação em R para a Figura 4


x=seq(from=400, to=1200, by=5)
y=dnorm(x, mean=680,sd=78)
y1= dnorm(x, mean=900,sd=102)
plot(x, y, type="l",
xlab = "Peso (kg)",
ylab = "Frequência", axes=FALSE, ylim=c(0,0.006))
polygon(c(400,x,1000),c(0,y,0), col="dark green",
border = "black")
lines(x,y1, type="l")
polygon(c(700,x,1500),c(0,y1,0), col="dark blue",
border = "black")
axis(2, seq(from=0, to=0.006, by=0.002))
axis(1, seq(from=400, to=1500, by=100))
abline(v=c(680,900), col="white")
text(680,0.0055, expression(mu==680))

67
text(900,0.0045, expression(mu==900))
legend(900,0.0085, c("touros nelore", "touros angus"), pch=15, col=c("dark green","dark blue"),
bty="n")

Deve-se destacar que a área sob a curva nos dá valores de probabilidade. Como os
valores de probabilidade variam de 0 a 1, a área total sobre a curva representa o valor 1, ou seja,
a probabilidade de ocorrer um valor de x entre - ∞ e + ∞ é igual a 1. Então, qual seria a
probabilidade de ocorrer um valor de x entre - ∞ e µ? Esta resposta é muito fácil, pois a
distribuição é simétrica. Então, metade dos valores de x são encontrados acima e, a outra metade
abaixo da média (µ). Assim, a probabilidade de ocorrer um valor de x entre - ∞ e µ é igual a 0,5
(Figura 3).
Vamos abordar agora uma questão um pouco mais difícil. Qual a probabilidade de
ocorrer um valor entre - ∞ e x 1? Considere x1 um valor qualquer entre - ∞ e µ. Para obter este
valor de probabilidade acumulada, ou seja, a probabilidade de ocorrer qualquer valor entre - ∞ e
x1, deve-se calcular a área sob a curva entre - ∞ e x 1. Assim, integra-se a f(x) entre - ∞ e x 1 e
obtém-se o valor de probabilidade acumulada.
A função em questão é chamada de função de distribuição acumulada, apresentada a
seguir:

x1 1 (x −μ)
1 −
f(x) = ∫ e 2 σ2
dx
− ∞σ 2π

Assim, a integração de f(x) em um determinado intervalo nos dá a probabilidade de


ocorrer um valor de x dentro do intervalo. No entanto, o cálculo da probabilidade de uma
variável aleatória contínua em determinado intervalo é complicado por dois motivos:
1) A integração de f(x) é uma operação matematicamente complicada;
2) A elaboração de valores tabelados é inviável, pois a função depende de dois parâmetros (µ e
σ2), o que acarreta o estabelecimento de todas as possíveis combinações de valores destes
parâmetros. (Para cada valor de µ e σ2 há uma distribuição normal diferente, tornado difícil à
tabulação de todas estas distribuições).

68
Para facilitar a obtenção de valores de probabilidade podemos padronizar os valores de
f(x), obtendo a distribuição normal reduzida apresentada a seguir:

Distribuição normal reduzida ou padrão (Z)


Como comentado anteriormente, a obtenção dos valores de probabilidade de uma
variável com distribuição normal é um processo muito difícil e trabalhoso. A distribuição normal
padronizada (Z) obtém os valores de probabilidade de uma variável aleatória contínua com
distribuição normal de maneira bastante facilitada.

A padronização consiste em atribuir um valor Z a equação (x - µ)/σ, ou seja:


(x − μ)
Z=
σ
Assim, a seguinte função densidade de probabilidade acumulada é obtida:
Z2
1 −2
f(z) = e

Note que, obter valores de probabilidade para a variável Z é uma tarefa bem mais
simples. Assim, construiu-se uma tabela com valores de Z.
A distribuição normal padrão caracteriza-se por possuir média igual a zero e variância
igual a 1, ou seja, Z ~ N(0, 1) (Figura 5).

Figura 5. Visualização gráfica de uma variável com distribuição normal padronizada.

# programação em R para a Figura 5

69
x=seq(from=-3, to=3, by=0.01)
y=dnorm(x, mean=0,sd=1)
plot(y~x, type="l",
main="Altura ~ N(0,1)",
xlab = "Variável Z",
ylab = "Frequência", axes=FALSE, ylim=c(0,0.5))
polygon(c(-4,x,4),c(0,y,0), col="dark green",
border = "black")
axis(2, seq(from=0, to=0.4, by=0.1))
axis(1, seq(from=-4, to=4, by=1))
abline(v=c(0), col="white")
text(0,0.42, expression(mu==0))

Exemplos
1. Considere uma variável x (peso de suínos em kg), normalmente distribuída, com média 120 kg
e desvio padrão 25 kg.
a) Qual a probabilidade de encontrar um animal com menos de 180 kg, ou seja, P(x < 180).
Note que a probabilidade de encontrar um valor entre - ∞ e µ é igual a 0,5. Então, já
sabemos que a probabilidade de encontrar um valor menor que 180 é maior que 0,5. Para
resolver esta questão, usaremos a seguinte equação:
(x − μ) 180 − 120
Z= = = 2,40
σ 25

Na tabela de Z onde a integração é feita de Z até 0 tem-se:


0,5 + P(0 < Z < 2,40) = 0,50 + 0,4918 = 0,9918
O valor de probabilidade 0,4918 foi obtido em tabela própria. A probabilidade de
encontrar um valor de x menor que 180 é muito elevada (0,99).

# programação em R (obs. o R encontra os valores de probabilidade integrando de Z até - ∞)


pnorm(180,120,25)
[1] 0.9918025

70
b) Qual a probabilidade de encontrar um animal com mais de 90 kg, ou seja, P(x > 90).
(x − μ) 90 − 120
Z= = = −1,20
σ 25
P(x > 90) = P(Z > 1,20) = P(-1,20 < Z < 0) + 0,50 = P(0 < Z < 1,20) + 0,50 = 0,3849 +
0,50 = 0,8849

# programação em R
1-pnorm(90,120,25)
[1] 0.8849303

c) Qual a probabilidade de encontrar um animal entre 80 kg e 150 kg. Neste caso, devemos
calcular dois valores de Z. Assim:
(x − μ) 80 − 120
Z1 = = = −1,60
σ 25
(x − μ) 150 − 120
Z2 = = = 1,20
σ 25
P(80 < x < 150) = P(-1,60 < Z < 1,20) = P(-1,60 < Z < 0) + P(0 < Z < 1,20) = P(0 < Z
< 1,60) + P(0 < Z < 1,20) = 0,4452 + 0,3849 = 0,8301

# programação em R
pnorm(150,120,25)-pnorm(80,120,25)
[1] 0.830131

d) Vamos considerar agora que a probabilidade de encontrar um valor de x menor que x1 seja
0,8643, ou seja, P(x < x1) = 0,8643. Assim:
(x − μ) x − 120
Z = = 1,10 = 1 ⇒ x1 = 120 + (1,10 x 25) = 147,50
σ 25
Portanto, um valor de x menor que 147,50 tem probabilidade 0,8643 de ocorrer.

# programação em R
qnorm(0.8643,120,25)
[1] 147.4961

71
e) Qual os limites de peso onde são encontrados 80% dos animais? Considere LI o limite inferior
do intervalo e LS o limite superior. Então:
P(LI< x < LS) = 0,80
P(LI < x < 0) = 0,40, então, Z= 1,28
P(0 < x < LS) =0,40, então, Z= 1,28
(x − μ) LS − 120
Z = = 1,28 = ⇒ LS = 120 + (1,28 x 25) = 152
σ 25
LI = 120- (152-120) = 88
Assim, entre 88 kg e 152 kg espera-se encontrar 80% dos animais.

# programação em R
qnorm(0.9,120,25)
[1] 152.0388
qnorm(0.10,120,25)
[1] 87.96121

Exercícios

1. Um casal quer ter quatro filhos.


a) Qual a probabilidade de nascerem 2 meninos e 2 meninas? R.: 3/8
b) Qual a probabilidade de nascerem 3 meninos e 1 menina? R.: 1/4
c) Qual a probabilidade de nascerem 2 meninos e 2 meninas, nesta ordem de nascimento? R.:
1/16

2. Determine a probabilidade de que, em 5 lançamentos de um dado, apareça a face 3:


a) Duas vezes. R.: 0,161
b) Ao menos duas vezes. R.: 0,196493621

3. Sabe-se que 28% dos animais que recebem um medicamento X sofrem efeitos colaterais. Se o
medicamento X for utilizado em 10 animais, qual a probabilidade de que:

72
a) Nenhum sofra efeitos colaterais. R.: 0,037
b) Três não sofram efeitos colaterais. R.: 0,0012
c) Pelo menos um sofra efeitos colaterais. R.: 0,963

4. Uma população apresenta 25% de indivíduos do grupo sanguíneo A, 25% do grupo B, 30% do
grupo O e 20% do grupo AB. Retirando-se uma amostra aleatória de 10 indivíduos, pede-se:
a) Qual a probabilidade de retirar 3, 2, 3 e 2 indivíduos dos grupos A, B, O e AB? R.: 0,0266
b) Qual a probabilidade de retirar 0, 1, 5 e 4 indivíduos dos grupos A, B, O e AB? R.: 0,001225

5. Uma granja produz 4000 aves por mês. Em média, 4 aves são contaminadas pelo patógeno A
(média mensal). Então, qual seria a probabilidade de:
a) Dez aves serem contaminadas no próximo mês. R.: 0,00530
b) Cinco aves serem contaminadas no próximo mês. R.: 0,15600
c) Dez aves serem contaminadas nos próximos 6 meses. R.: 0,00066

6. Em uma determinada região são avistados, em média, 2 indivíduos de uma espécie em


extinção por mês. Pede-se:
a) Qual a probabilidade de avistar 15 indivíduos no próximo mês? R.: 3,4 x 10-9
b) Qual a probabilidade de avistar 8 indivíduos da espécie em um período de 3 meses? R.: 0,103

7. Seja X o número de animais não imunizados numa campanha de vacinação contra uma
determinada doença, onde a probabilidade de não imunização é 0,001. De 5000 animais
vacinados, qual a probabilidade de não ficarem imunes:
a) Um animal. R.: 0,0337
b) Pelo menos um animal. R.: 0,9933

8. O peso médio, em arrobas, de abate de bovinos é normalmente distribuído com média 17 e


variância 2,56. Um lote de 10000 cabeças foi destinado ao frigorífico que abate só a partir de um
peso mínimo X. Sabendo-se que foram abatidas 9000 cabeças, pede-se:
a) O número esperado de bovinos com peso entre 16 e 18 arrobas? R.: 4714 bovinos
b) Qual o valor de X? R.: 14,952 (15 arrobas)

73
9. Uma máquina de empacotar determinado alimento tem variações de peso com desvio padrão
de 25g. Em quanto deve ser regulado o peso médio do produto para que apenas 5% tenham
menos de 600g?
(x − μ) 600 − μ
Z = = −1,65 = ⇒ 600 − μ = −41,25 ⇒ μ = 641,25
σ 25

74
Capítulo IV
Inferência Estatística

Introdução
A inferência estatística é um ramo da estatística que tem o objetivo de inferir a respeito
de uma população a partir de amostras.
Como a estimação é feita a partir de amostras, primeiramente vamos abordar alguns
aspectos a respeito da amostragem estatística.

75
População e Amostra
Do ponto de vista estatístico, o conjunto de todos os elementos sobre os quais desejamos
desenvolver determinado estudo constitui uma população. Quando é considerada apenas uma
parte deles, ou seja, um subconjunto da população, tem-se uma amostra.

Uma População (N) pode ser finita ou infinita:


a) Uma população finita apresenta um número limitado de observações, que é passível de
contagem, por exemplo:
- os alunos de determinado curso;
- os produtos de um supermercado;
- os animais de uma fazenda.

b) Uma população infinita apresenta um número ilimitado de observações, por exemplo:


- extrações com reposições de bolas de uma urna;
- nascimentos futuros de crianças;
- número de carros produzidos futuramente.

Observações importantes:
Note que as amostras infinitas são processos contínuos, a cada dia são produzidos carros
e nascem crianças. Porém, se a população for o número de carros produzidos ou o número de
nascimentos em 2006, aí a população seria finita.
Uma população pode, mediante processos operacionais, ser considerada infinita, pois a
mesma irá depender do tamanho da amostra. Isso ocorre sempre que uma amostra constitui de no
máximo 5% da população. Assim, por exemplo, se tomarmos uma amostra de 1000 habitantes da
cidade de São Paulo, esta população embora finita, será considerada infinita.

Censo e Amostragem
Quando se obtém dados de todos os elementos de uma população, procedeu-se um censo
e, quanto se obtém dados de parte da população, procedeu-se uma amostragem.

Vantagens da amostragem
As principais vantagens da amostragem em relação ao censo são:
76
a) Custo reduzido
É evidente que em decorrência do menor número de dados coletados a amostragem é
mais econômica em relação ao censo.
b) Maior rapidez
Os dados podem ser coletados e tabulados mais rapidamente na amostragem,
possibilitando a obtenção dos resultados ou informações num espaço de tempo menor.
c) Maior facilidade de execução
Para determinadas pesquisas há necessidade de utilização de equipes bem treinadas e
equipamentos especializados para a obtenção dos dados. Neste caso a realização de um censo
pode ser inviável.
d) Maior precisão
Em alguns casos a amostragem pode ser mais precisa que o censo. Isso ocorre porque o
menor número de observações na amostragem leva a uma menor quantidade de coletores de
dados. A menor quantidade de coletores possibilita trabalhar com uma equipe mais homogênea,
de melhor nível e mais bem treinada, por exemplo.
e) Testes destrutivos
Testes de caráter destrutivo, como testes de munição, testes de impacto com veículos,
vida útil de lâmpadas, avaliação em um animal que necessita ser abatido, etc. Estas avaliações só
podem ser realizadas com amostras, pois se os testes fossem realizados com toda a população a
mesma não existiria.

Observações importantes:
Há certas situações em que é mais vantajoso examinar todos os elementos de uma população, ou
seja, fazer um censo. Entre estas situações temos:
- A população pode ser tão pequena que o custo e o tempo de um censo sejam um pouco maiores
que o de uma amostra.
- Quando o tamanho da amostra para que as estimativas tenham a precisão exigida deve ser tão
grande que quase atinge o tamanho da população.
- Quando se exige total precisão da estimativa.

77
Tipos de Amostragem
A forma de seleção de cada elemento de uma amostra irá depender do tipo de
amostragem, que por sua vez, dependerá de aspectos particulares de cada população.
Abordaremos os tipos mais importantes de amostras probabilísticas. Primeiramente vejamos os
conceitos de amostra probabilística ou não-probabilística.
Amostra probabilística
Quando cada elemento pertencente à população possui probabilidade conhecida e
diferente de zero de pertencer à amostra, diz-se que a amostra é probabilística. Assim, uma
pessoa em uma cidade com 10 mil habitantes possui probabilidade de 1/10000 de ser amostrada.
Porém, a seleção da pessoa deve ser ao acaso. Caso a seleção seja feita por algum critério e não
ao acaso, tem-se uma amostra não-probabilística.
Amostra não probabilística
É uma amostra em que alguns elementos são favorecidos em relação aos demais. Isso
ocorre quando a seleção não é feita ao acaso. Por exemplo: amostram-se pessoas em uma cidade
de 10 mil habitantes apenas nos bairros de maior renda. Note que as pessoas moradoras de
bairros de menor renda têm probabilidade zero ou menor que 1/10000 de pertencer à amostra.
Outro exemplo é obter amostras de sangue de doadores voluntários. Neste caso a amostra
também não foi feita ao acaso e pessoas da população que não podem ou não querem doar
sangue tem probabilidade zero de serem amostradas.

Tipos de amostragem probabilística


Amostragem Simples ou Ocasional
É o processo mais elementar e freqüentemente utilizado. Neste tipo de amostragem,
qualquer combinação dos n elementos da amostra tem igual probabilidade de vir a ser sorteada.
Em uma população de N elementos o número possível de amostras de tamanho n que
podem ser retiradas, diferindo em pelo menos uma unidade amostral é:
N!
C nN =
( N − n )! n!

Por exemplo: Considere uma população constituída dos elementos: A, B, C, D e E. Neste


caso o tamanho da população é N = 5. Quantas amostras diferentes de tamanho n = 3 podem ser
retiradas desta população?

78
5!
C 53 = =10
(5 − 3)! 3!

Assim, as 10 amostras possíveis são:


ABC ADE
ABD BCD
ABE BCE
ACD BDE
ACE CDE
Note que qualquer combinação dos 3 elementos da amostra tem igual probabilidade de
vir a ser sorteada.

Amostragem Estratificada
É um processo de amostragem usado quando nos depararmos com populações
heterogêneas, na qual se pode distinguir subpopulações mais ou menos homogêneas,
denominados estratos. Assim, após a determinação dos estratos, seleciona-se uma amostra
aleatória de cada subpopulação (estrato).
As diversas subamostras retiradas das subpopulações devem ser proporcionais aos
respectivos números de elementos dos estratos.
Por exemplo: Considere uma pesquisa sobre o nível de renda em determinada cidade.
Considere que os níveis de renda são variáveis de acordo com regiões da cidade (bairros). Assim,
temos uma população que não é distribuída de forma homogênea quanto a variável renda. Se
pegarmos pessoas ao acaso na população como um todo, pode-se amostrar um maior número de
pessoas de um determinado bairro. Então, para obter uma estimativa mais precisa, pode-se
amostrar de maneira aleatória dentro de cada bairro e depois juntar os dados coletados estimando
a renda média que será, provavelmente, mais precisa quando comparada com a renda média
obtida de amostragem aleatória simples. É importante destacar que o número de pessoas
amostradas dentro de cada estrato deve ser proporcional ao seu tamanho. Assim, se a cidade tem
10 mil habitantes em 5 bairros com, respectivamente 200, 500, 100, 150 e 50 mil habitantes e,
deseja-se obter uma amostra de 100 habitantes, deve-se amostrar, respectivamente, 20, 50, 10, 15
e 5 habitantes em cada bairro. O conjunto destas 5 amostras simples denomina-se amostra
estratificada.

79
Amostragem Sistemática
Trata-se de uma variação da amostragem aleatória simples ou ocasional, conveniente
quando a população está naturalmente ordenada, como fichas em um fichário, lista telefônica,
cadastros etc.
Por exemplo: Considere o sorteio de 50 pessoas em uma cidade para fazer uma entrevista. Seria
muito trabalhoso obter o nome de todas as pessoas e realizar o sorteio. Vamos considerar o caso
da lista telefônica que, neste caso, contém 1000 telefones. Pode-se então, fazer o seguinte.
Dividir 1000 por 50. Neste caso se obtém 20. Note que, se pegarmos um nome a cada 20 na lista,
vamos obter uma amostra de cinqüenta pessoas. Agora é só sortear um número de 1 a 20, vamos
supor que saiu o número 3. A seguinte seqüência de nomes foi amostrada: 3, 23, 43, 63, 83, ...,
983.
As vantagens da amostragem sistemática são: i) a sua maior facilidade de aplicação quando os
dados estão ordenados e, ou, listados; ii) também é vantajosa se a população for heterogênea,
pois amostra em toda a extensão da população.

Amostragem por Conglomerados (ou Agrupamentos)


Algumas populações não permitem, ou torna-se extremamente difícil que se identifiquem
seus elementos, mas podemos identificar subgrupos da população. Em tais casos, uma amostra
aleatória simples desses subgrupos (conglomerados) pode ser escolhida. Portanto, quando os
elementos da população são reunidos em grupos que são sorteados para compor a amostra, o
processo é denominado amostragem por conglomerado.
Por exemplo: Considere a amostragem de 500 proprietários rurais no Estado de Goiás.
Neste caso, pode-se considerar o sorteio de 50 municípios e 10 proprietários em cada. Ou o
sorteio de 25 municípios e 20 proprietários em cada. A economia neste tipo de sorteio é evidente,
pois o método dispensa o sorteio da listagem de referência ou cadastro de toda a população, pois
somente os conglomerados sorteados são identificados e listados e a pesquisa é feita dentro
destes conglomerados. Um outro aspecto é o custo de locomoção. Note que se fosse feita uma
amostra casual simples de 500 proprietários no Estado de Goiás, o número de municípios poderia
ser bem maior que 50, dificultando a locomoção das equipes de pesquisa.

Estimação de parâmetros
80
Para melhor entender o significado da estimação de parâmetros, primeiramente vamos
analisar alguns conceitos muito importantes abordados a seguir:
Parâmetro (θ)
Parâmetro é um valor (média, variância, proporção, etc) obtido da população. Assim,
deve-se utilizar para o cálculo todos os elementos da população.
Estimativa
Estimativa é um valor (média, variância, proporção, etc) obtido da amostra. Assim,
utilizando para o cálculo parte dos elementos da população.

Estimador
Um estimador é qualquer função das observações da amostra aleatória x 1, x2, x3, ..., xn.
Ele representa uma fórmula de cálculo que fornecerá valores diferentes (diferentes estimativas)
em diferentes amostras.
Exemplos:
n

∑x i
1) Estimador da média µ é μ̂ = X = i =1
n
2
n 
n
 ∑ x i 
2  i =1 
∑ xi
n
2) O estimador da variância σ 2 é σ̂ 2 = S2 = i =1
n −1
A seguir podemos observar (Quadro 1) a simbologia de alguns parâmetros e suas
respectivas estimativas amostrais. Assim, um parâmetro populacional, por exemplo, a média (
µ ), pode ter a sua estimativa representada por X ou μ̂ (Quadro 1).

Quadro 1. Principais medidas estatísticas e suas respectivas formas simbólicas de parâmetro,


estimativa e seu estimador.
Símbolo para Símbolo para
Medida Parâmetro Estimativa Estimador
Estatística (valor (valor (equação para obter o valor amostral)
populacional) amostral)

81
n

média μ X = μ̂ ∑x i
X= i =1
n
2
n 
n
 ∑ x i 
2  i =1 
variância σ2 S2 = σ̂ 2 ∑ xi
n
S2 = i =1
n −1
desvio
σ S = σ̂ S = S2
padrão
número de elementos de uma categoria
proporção p p̂ p̂ =
n (tamanho da amostra)

A estimação pode ser:


a) por ponto
Na estimação por ponto obtém-se um único valor como estimativa de um parâmetro
populacional. Por exemplo: obter a média de altura das pessoas de um país com base em uma
amostra. O valor obtido é a estimativa pontual do parâmetro populacional. Poderia ser 1,71 m.
b) por intervalo de confiança
Na estimação por intervalo de confiança, procura-se determinar um intervalo que tenha
uma probabilidade de conter o parâmetro populacional. Assim, o mesmo parâmetro considerado
no exemplo anterior (média) poderia ser estimado por intervalo. Poderia ser: A média da
população tem 95% de probabilidade de estar entre 1,69 m e 1,73 m.
Podem-se obter intervalos de confiança para diversos parâmetros populacionais, como
por exemplo: a média, a variância, uma proporção, um coeficiente de variação, etc.
- intervalo de confiança para uma média
O intervalo de confiança para uma média pode ser obtido pela seguinte expressão:

 S S 
PX − t α x ≤ μ ≤ X + t α x  = 1 − α
 n n
onde:
P é a probabilidade da média populacional ocorrer no intervalo;
α é o nível de significância, (geralmente 1%, 5% ou 10%);
Sx é o desvio padrão amostral dos dados;

82
n é o tamanho da amostra;
X é a média amostral e;
t α é o valor da distribuição t de Student, obtido em tabela com base no tamanho da

amostra (n – 1) e o nível de significância (α) .

Exemplo: Considere uma amostra de 230 vacas leiteiras em uma região do Brasil. A
média estimada para produção de leite foi 11,17 (L/dia) e a variância estimada foi 77,3901
(L/dia)2. Vamos construir um intervalo de confiança que tenha 95% de chance de conter a média
populacional.
Resolução:
Precisamos obter o desvio padrão (Sx) e o “t” tabelado. O desvio padrão é obtido por:

Sx = 77,3901 = 8,7972

Para obter o valor de “t” tabelado, deve-se considerar que α = 5%, para um intervalo de

95% de confiança. Assim, entra-se em tabela própria (tabela bilateral) com t 0,05 e (n -1), ou seja,

229 graus de liberdade. Assim, obtém-se o valor 1,96.


Substituindo na equação temos:

 8,7972 8,7972 
P11,17 − 1,96 ≤ μ ≤ 11,17 + 1,96  = 1 − 0,05
 230 230 
P (10,03 ≤ μ ≤ 12,31) = 0,95
Portanto, a probabilidade da média μ estar entre 10,03 e 12,31 é 0,95 ou 95%.

# programação em R
media=11.17; n=230; S=sqrt(77.3901); t=qt(0.975,229)
LS=media+(t*S/sqrt(n))
LI=media-(t*S/sqrt(n))
LI;LS
[1] 10.02705
[1] 12.31295
Intervalos de menor amplitude significam estimativas mais precisas. Quanto maior o
tamanho da amostra, mais precisa é a estimativa e, portanto, menor é o intervalo de confiança.

83
Quanto menor a variância, mais homogênea é a população e, conseqüentemente, mais precisa
será a amostragem. Portanto, menor será o intervalo de confiança.

- intervalo de confiança para uma proporção


O intervalo de confiança para uma proporção pode ser obtido pela seguinte expressão:
P ( p̂ − ZαS ≤ p ≤ p̂ + ZαS) = 1 − α

onde:
P é a probabilidade da proporção ocorrer no intervalo;
α é o nível de significância, (geralmente 1%, 5% ou 10%);
p̂ é a proporção amostral;
S é o desvio padrão amostral da proporção;
n é o tamanho da amostra; e
Z α é o valor da distribuição Z, obtido com base no o nível de significância ( α), sendo

Z 0,01 = 2,57; Z0,05 = 1,96; Z0,10 = 1,65.

O desvio padrão amostral para uma proporção é obtido por:

p̂q̂
S=
n
Exemplo: Considere uma amostra de 121 caprinos onde 20 animais estavam infectados
com determinado parasita. Construa um intervalo de confiança que tenha 95% de chance de
conter a proporção populacional.
Resolução:
Precisamos obter o desvio padrão (S) e o Z tabelado. O desvio padrão é obtido por:
p̂ =20/121=0,165; q̂ = 1 - p̂ = 1 - 0,165 = 0,835

0,165.0,835
S= = 0,0339
121
P ( p̂ − ZαS ≤ p ≤ p̂ + ZαS) = 1 − α

P ( 0,165 − 1,96. 0,0339 ≤ π ≤ 0,165 + 1,96. 0,0339) = 0,95


P ( 0,099 ≤ p ≤ 0,231) = 0,95

84
Esse intervalo de confiança possibilita inferir com 95% de confiança que a proporção de
caprinos contaminados com o parasita, na população, encontra-se entre 0,099 (10%) e 0,231
(23%).

# programação em R
p=20/121; n=121; S=sqrt(((p*(1-p))/n)); z=qnorm(0.975,0,1)
LS=p+(z*S)
LI=p-(z*S)
LI;LS
[1] 0.09910637
[1] 0.2314721

Para diminuir o intervalo de confiança, seria necessária uma amostra maior. No caso das
pesquisas eleitorais, em torno de 2000 entrevistados (n=2000) obtém-se intervalo com 2% para
mais ou para menos. Assim, um candidato com proporção de voto de 30% (estimativa pontual)
teria 28% a 32% das intenções de voto em uma estimativa intervalar.

- tamanho da amostra com base no intervalo de confiança


Podemos utilizar os intervalos de confiança para obtermos um tamanho amostral que nos
dá determinado tamanho de intervalo.
Para uma média podemos isolar o n em parte da equação e assim temos:
S 2 S
2
t 2S2
tα = erro ⇒ t α = erro 2 ⇒ n = t 2
n n erro
Precisamos fazer algumas considerações.
1) qual o erro que será admitido. Por exemplo. Considere a o peso médio de suínos em 120 kg. O
erro seria uma banda do intervalo. Considerando um erro de 12% temos 108 a 132.
2) Precisamos fornecer um valor aproximado de desvio padrão ou variância para a variável. Este
valor deve ser obtido com base na literatura e na experiência do pesquisador. Vamos supor um
desvio padrão de 20% do valor da média 120 kg (equivale a um coeficiente de variação de 20%).
Assim, temos um desvio padrão de 24 kg.

85
3) O valor de t não é possível obter uma vez que não temos o tamanho da amostra. Então vamos
utilizar um valor igual a 2, pois os valores somente serão muito diferentes deste em amostras
muito pequenas.
Então, vamos considerar uma média de 120 kg, um desvio padrão de 24 kg e valor de t
igual a 2, para obter um intervalo aproximado de 108 a 132 kg. Neste caso o erro seria de 12 kg
para mais ou para menos. Assim:

t 2tS2 2 2 x 24 2 2 2 x 24 2
n= = = = 16 animais
erro 2 12 2 12 2
Então, aplicando na equação do intervalo de confiança temos:

 24 24 
P120 − 2,13 ≤ μ ≤ 120 + 2,13  = 1 − 0,05
 16 16 
P (107 ≤ μ ≤ 133) = 0,95
Uma pequena diferença no resultado, pois o valor de t tabelado para n=16 seria maior que
2. Assim, em torno de 16 animais ou um pouco mais se tem a precisão desejada considerando
uma média de 120 kg e desvio padrão de 24kg.
Para uma proporção também podemos isolar o n em parte da equação e assim temos:

pq pq Z 2 pq
Z αS(p) = erro ⇒ Z α = erro ⇒ Z α2 = erro 2 ⇒ n = α 2
n n erro
No caso da proporção somente precisamos definir o nível de significância, o nível de erro
e supor um valor esperado de p.
Então, por exemplo, em uma pesquisa eleitoral é esperado que um candidato tenha 30%
das intenções de voto (p=0,30). Considerando um erro de 2%, ou seja, um intervalo de 28% a
32% e um nível de significância de 5%, tem-se:

Zα2 pq 1,96 2 x 0,3 x 0,70


n= = = 2016,84
erro 2 0,02 2
Assim, com amostra em torno de 2017 eleitores se obtém a precisão desejada.

Testes de Hipóteses
Introdução
O teste estatístico de hipótese é uma regra decisória que nos permite rejeitar ou não uma
hipótese estatística com base nos resultados de uma amostra. Estas hipóteses são, em geral, sobre

86
parâmetros populacionais e, a realização do teste se baseia na distribuição amostral dos
respectivos estimadores.
A seguir, tem-se uma breve descrição de alguns procedimentos necessários para
realização de um teste de hipóteses.

Hipóteses
Uma hipótese é uma possível solução de um problema. São feitas pesquisas, geralmente,
com a intenção de testar hipóteses. Então, antes da realização de uma pesquisa (experimento) e
também do teste estatístico, deve-se formular as hipóteses a serem testadas. Por exemplo: Um
pesquisador quer testar se existe diferença entre duas rações A e B, no ganho de peso (grama/dia)
para suínos. Este é o problema. Qual ração usar? As soluções possíveis (hipóteses possíveis) são:
1) rações são equivalentes; 2) uma das rações é melhor (rações diferentes). Então, considere que
cada ração foi fornecida durante certo período a 12 suínos. O parâmetro a ser testado será a
média de ganho (grama/dia) das duas rações. Neste caso, as hipóteses a serem testadas são:

1) Hipótese de nulidade (Ho), representada por:


Ho : µA = µB
2) Hipótese alternativa (Ha) é a hipótese que contraria Ho. Neste caso, a hipótese alternativa
pode ser representada por:
Ha : µA ≠ µB

Nível de significância
O nível de significância é o valor de probabilidade acima do qual os desvios amostrais
são considerados ao acaso. O nível de significância é representado por alfa ( α) e, em geral,
utiliza-se alfa igual a 5%, 10% ou 1%. Estes valores equivalem à probabilidade de 0,05, 0,10 e
0,01 respectivamente.
Por exemplo: Considere uma diferença entre as médias das amostras A e B. O que se quer testar
é: essa diferença é real (ou seja, uma população possui média diferente da outra) ou a diferença
ocorreu ao acaso devido a um erro amostral. Portanto, qual a probabilidade da diferença
encontrada entre as médias A e B estar ocorrendo ao acaso? O teste estatístico nos dá esta
informação. Se a probabilidade de ocorrer determinada diferença entre as médias A e B for
elevada, conclui-se que as médias são iguais, pois a diferença, provavelmente, esta ocorrendo ao
87
acaso. Porém, o pesquisador deve fixar um limite (chamado nível de significância) acima do
qual, considera-se que os desvios estejam ocorrendo ao acaso. Esse limite é, em geral, 5%.
Assim, se o teste fornece probabilidade de uma diferença estar ocorrendo ao acaso maior que
5%, a hipótese Ho não é rejeitada. Se a probabilidade dos desvios ocorrerem ao acaso é menor
que 5%, a hipótese Ho é rejeitada.

Tipos de erros
Notem que o resultado obtido em um teste não nos dá uma certeza. Mas sim uma
probabilidade. Assim, dois tipos de erros podem ocorrer:
Erro tipo I ou α: é a probabilidade de rejeitar Ho sendo Ho verdadeira. É o nível de significância,
geralmente fixado em 0,05.
Por exemplo: Em um censo uma população apresentou média de escolaridade de 15 anos.
Passados quatro anos, obteve-se uma amostra desta população para saber se o nível médio de
escolaridade foi alterado. A estimativa obtida foi de 16 anos. As hipóteses são:
Ho : µ = 15
Ha : µ > 15
Depois de realizado o teste estatístico adequado, verificou-se que a superioridade
encontrada possui 0,04 (4%) de probabilidade de estar ocorrendo ao acaso. Note que a
probabilidade da superioridade estar ocorrendo ao acaso é baixa, portanto, é bastante provável
que a média de escolaridade aumentou. Neste caso a hipótese Ho é rejeitada, considerando um
nível de significância de 5%. Porém, mesmo assim existe a probabilidade (4%) da média de
escolaridade não ter alterado e a diferença ocorreu por erro amostral devido ao acaso. Neste caso,
seria cometido o erro tipo I.
Erro tipo II ou β: é a probabilidade de aceitar Ho sendo Ho falsa.
Considere o exemplo anterior. Porém, neste caso a hipótese Ho foi aceita, considerando que a
probabilidade dos desvios estarem ocorrendo ao acaso foi maior que 5% (considere 30%). Note
que a probabilidade da diferença ter ocorrido por simples acaso é elevada 0,30 ou 30%. Porém,
mesmo assim tem-se bastante chance da diferença não ter ocorrido ao acaso. Caso a diferença
não tenha ocorrido ao acaso, cometeu-se erro tipo II.
Portanto, qualquer que seja o resultado do teste, tem-se a probabilidade do resultado
obtido estar errado. Quanto maior o nível de significância, maior a probabilidade de cometer erro

88
tipo I e menor a probabilidade de cometer erro tipo II. E vice-versa. Assim, a melhor maneira de
diminuir a probabilidade de erro é aumentando o tamanho e a precisão da amostra.
Obs.: Notem que, rejeitar uma hipótese, em geral, é uma decisão mais segura que não rejeitar.

Graus de Liberdade (G.L.)


Graus de liberdade é o número de observações em uma amostra que são completamente

livres para variar, considerando que a soma dos desvios em relação à média é nula Σ ( x i − X ) = 0 .
Para uma amostra n o número de graus de liberdade é n-1.

Passos para realização de um teste de hipótese


Um teste de hipótese pode ser realizado em quatro passos:
1) Enunciar as hipóteses Ho e Ha;
2) Por meio de elementos amostrais, calcular o valor da estatística do teste;
3) Obter o valor tabelado do teste na tabela, considerando um nível de significância (α);
4) Concluir pela rejeição ou não de Ho comparando o valor calculado (segundo passo) com o
valor tabelado (terceiro passo). A regra geral é: 1) valor calculado maior ou igual ao tabelado,
rejeita-se H0; 2) valor calculado menor que o valor tabelado, não se rejeita H0.

Principais testes estatísticos


Teste para comparar duas variâncias populacionais (teste F)
Este teste é utilizado para testar se duas variâncias obtidas de duas amostras casuais e
independentes são diferentes. Pressupõe-se que as variáveis x (amostra A) e y (amostra B)
tenham distribuição normal.
Neste caso a hipótese de nulidade é:
Ho : σ2A = σ2B
A hipótese alternativa pode ser:
Ha1 : σ2A ≠ σ2B
ou
Ha2 : σ2A > σ2B
ou

89
Ha3 : σ2A < σ2B
Para testar a hipótese Ho usa-se a estatística definida por:

S2A
F=
S2B
onde:
S 2A e S 2
B são as variâncias amostrais das variáveis x e y correspondentes a população A e B

respectivamente.

Para facilitar o uso da tabela usa-se:


〉 S2
F=
〈 S2

onde:
〉 S2 é a maior variância e 〈 S2 a menor variância, ou seja, F > 1.

O F tabelado (Fα) é obtido em tabela própria utilizando os graus de liberdade (n1, n2),
sendo n1 e n2 correspondente aos graus de liberdade do numerador e denominador
respectivamente.
Observação:
n1 = n – 1, onde n é o tamanho amostral da maior variância
n2 = n – 1, onde n é o tamanho amostral da menor variância
Regra decisória:
Se Fcalculado ≥ Ftabelado: rejeita-se Ho, ou seja, é bastante provável que as duas populações
apresentam variâncias diferentes.
Se Fcalculado < Ftabelado: não se rejeita Ho, ou seja, é bastante provável que as duas populações
tenham a mesma variância.

Exemplo: Os dados abaixo são amostras de duas populações suínas quanto ao ganho diário em
peso (kg/dia). Vamos avaliar (testar estatisticamente para α = 5%) se as duas populações
possuem a mesma variabilidade quanto ao ganho diário.
Amostra A = Sem raça definida: 0,783; 0,920; 0,770; 0,680; 0.730; 0,890
Amostra B = Linhagem X: 0,942; 0,899; 0,900; 0,950; 0,962; 0,960

90
2
 n 
n
 ∑ x i 
∑ x i −  i =1 
2

n
( )
0,7832 + 0,920 2 + ... + 0,890 2 -
(4773) 2
6
S2 A = i =1 = = 0,00857
n -1 5
2
 n 
n
 ∑ x i 
∑ x i −  i =1 
2

n
( )
0,942 2 + 0,899 2 + ... + 0,960 2 −
(5613) 2
6
S2 B = i =1 = = 0,00083
n -1 5
Considerando os 4 passos para realizar o teste temos:
1) Primeiro passo: formular as hipóteses (nulidade e alternativa)
No caso, a hipótese de nulidade considera que as duas variâncias são iguais. Como foi
convencionado, a hipótese alternativa deve ser sempre a maior variância amostral (no caso a
variância maior foi obtida da população A) sendo significativamente maior.
Ho : σ2A = σ2B
Ha : σ2A > σ2B

2) Segundo passo: obter o valor calculado


〉 S2 0,00857
A estatística apropriada é F = = = 10,34 = Fcalculado
〈S 2
0,00083

3) Terceiro passo: obter o valor tabelado


Neste caso, utiliza-se (n1, n2) para localizar o respectivo valor na tabela de F (F>1) ao
nível de 5% de probabilidade. No exemplo em questão n 1 são os graus de liberdade da maior
variância (população A) e n2 são os graus de liberdade da menor variância (população B). Assim,
n1 = (6 – 1) = 5 e n2 = (6 – 1) = 5.
Ftabelado 5% (5,5) = 5,05.

4) Quarto passo: concluir pela rejeição ou não de Ho.


Como Fcalculado > Ftabelado: rejeita Ho, ou seja, é bastante provável a população sem raça
definida possua maior variabilidade no ganho de peso.

# programação em R

91
A=c(0.783, 0.920, 0.770, 0.680, 0.730, 0.890) # amostra A
B=c(0.942, 0.899, 0.900, 0.950, 0.962, 0.960) # amostra B

var.test(A,B)

F test to compare two variances


data: A and B
F = 10.3357, num df = 5, denom df = 5,
p-value = 0.02278
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
1.446291 73.863176
sample estimates:
ratio of variances
10.33574

No resultado do R temos o F calculado, os graus de liberdade do numerador (n 1) e


denominador (n2), o valor de probabilidade (p-value), o intervalo de confiança do valor calculado
e a razão das duas variâncias. O valor de p menor que 0,05 indica que devemos rejeitar H 0, pois a
probabilidade da diferença entre as duas variância ter ocorrido ao acaso é menor que 0,05 (neste
caso 0,02278).

Teste para médias (“t” de Student)


O teste t considera que a distribuição das variáveis em estudo seja aproximadamente
normal. É o teste mais utilizado para testar médias populacionais.

Teste t para uma média populacional


Este teste é utilizado em situações onde se quer testar se uma média obtida de uma
amostra é estatisticamente igual a uma média populacional (ou média referência).
Por exemplo: Considere um experimento onde um medicamento X foi avaliado em 7 indivíduos
quanto ao tempo para penetrar na corrente sanguínea (minutos). Com os dados, obteve-se média
de 45 minutos e variância 4,67 minutos2. Considerando que medicamentos comerciais, similares,
92
possuem tempo médio abaixo de 48 minutos, podemos testar se a média populacional deste
medicamento X pode ser igual a 48 ou, na população a média vai ser menor que 48. As hipóteses
a serem testadas são:
Ho : µ = 48
Ha : µ < 48
Esta é uma situação em que se pode utilizar o teste t (desde que a amostra apresente
distribuição aproximadamente normal).
Considerando 4 passos na realização do teste.
1) Hipóteses
Ho : µ = k
Ha1 : µ ≠ k (teste bilateral)
ou
Ha2 : µ > k (teste unilateral a direita)
ou
Ha3 : µ < k (teste unilateral a esquerda)

2) t calculado
X −μ
t=
S
n

3) t tabelado
tα(n – 1), onde n é o tamanho amostral

4) Conclusão
Se ‫׀‬tcalculado‫ ≥ ׀‬ttabelado : rejeita-se Ho
Se ‫׀‬tcalculado‫ < ׀‬ttabelado : não rejeita-se Ho

Observação sobre o uso das tabelas:

 teste bilateral : entrar com α


tabela bilateral 

 teste unilateral : entrar com 2 α


93
 α
teste bilateral : entrar com
tabela unilateral  2
teste unilateral : entrar com α

Exemplo: Considere o medicamento X avaliado em 7 indivíduos quanto ao tempo para penetrar


na corrente sanguínea (minutos). Teste se o medicamento X apresenta média estatisticamente
igual há 48 minutos. Segue os dados (em minutos) dos sete indivíduos: 43, 45, 48, 47, 46, 42, 44
n

∑x i
43 + 45 + ... + 44
X= i =1
= = 45
n 7
2
 n 
n
 ∑ x i 
∑ x i −  i =1  (315) 2
2
432 + 452 + ... + 44 2 −
n 7 = 4,67
S2 = i =1 =
n -1 6
S = 6,50 = 2,55

1) Hipóteses
Ho : µ = 48
Ha : µ < 48
2) Valor calculado
X − μ 45 − 48
t= = = −3,67
S 2,16 = tcalculado
n 7

3) Valor tabelado
tα(n-1)
t 5% (6) = 1,943

4) Conclusão
‫׀‬tcalculado‫ ≥ ׀‬ttabelado : portanto, rejeita-se Ho, ou seja, é muito provável que o medicamento possui
média populacional abaixo de 48 minutos.

# programação em R

94
dados=c(43,45,48,47,46,42,44)
t.test(dados, mu=48)
One Sample t-test
data: dados
t = -3.6742, df = 6, p-value = 0.0104
alternative hypothesis: true mean is not equal to 48
95 percent confidence interval:
43.0021 46.9979
sample estimates:
mean of x
45

No resultado do teste t pelo R temos o valor calculado, os graus de liberdade (df), o valor
de probabilidade (p-value), a hipótese alternativa, um intervalo de confiança em torno da média
com 95% de probabilidade e a média dos dados. Observa-se pelo valor de p menor que 0,05 que
existe diferença significativa considerando uma média de 48 minutos.
Em alguns casos não dispomos de dados com normalidade (distribuição
aproximadamente normal ou temos dados de variáveis qualitativas ordinais). Um teste
alternativo ao teste t seria o teste de Wilcoxon, abordado mais adiante neste capítulo.

Teste t para a igualdade de médias obtidas de duas amostras independentes


Considere duas amostras, obtidas de duas populações suínas, para a variável ganho diário
em peso (kg/dia). As hipóteses possíveis são:
Ho : µA = µB
Ha1 : µA ≠ µB
ou
Ha2 : µA > µB
ou
Ha3 : µA < µB

Neste caso devem-se considerar duas situações possíveis:


95
1) as variâncias das duas amostras são iguais;
2) as variâncias das duas amostras são diferentes.
O procedimento adequado é realizar um teste F para concluir se as duas variâncias são
provavelmente iguais ou não.
Caso 1
No primeiro caso, consideram-se as variâncias iguais, pois não se rejeitou a hipótese Ho :
σ2A = σ2B. Deve-se, portanto, utilizar uma variância comum entre as duas amostras obtida por:
(n A − 1)S2 A + (n B − 1)S2 B
S2 c =
nA + nB − 2
O valor calculado do teste t neste caso é:
XA − XB
t=
 1 1  , que tem distribuição de Student com (nA + nB – 2) graus de liberdade.
Sc2  + 
nA nB 
Caso 2
No segundo caso temos as variâncias diferentes, pois se rejeitou a hipótese Ho: σ 2A = σ2B.
Neste caso não é necessário calcular uma variância comum.
O valor calculado do teste t neste caso é:
XA − XB
t=
S2A S2B , que tem distribuição de Student com n* graus de liberdade.
+
nA nB
2
 S2A S2B 
 + 
n nB 
n* =  A2 2
 S2A   S2B 
   
nA  + nB 
n A −1 n B −1

A regra decisória (para os dois casos) é:


Se ‫׀‬tcalculado ‫ ≥׀‬ttabelado : rejeita-se Ho
Se ‫׀‬tcalculado ‫ <׀‬ttabelado : não rejeita-se Ho

Exemplo 1

96
Considere os dados abaixo, que são amostras de duas populações suínas, avaliadas quanto
ao ganho diário em peso (kg/dia). Vamos avaliar (testar estatisticamente para α = 5%) se as duas
populações possuem o mesmo ganho diário.
Amostra A = Linhagem X: 0,942; 0,899; 0,900; 0,950; 0,962; 0,960
Amostra B = Linhagem Y: 0,883; 0,920; 0,870; 0,780; 0,830; 0,890; 0,800

Teste F
2
 n 
n
 ∑ x i 
∑ i x
2
−  i =1 
n
( )
0,942 + 0,899 + ... + 0,960 −
2 2 2 (5613) 2
6
S2 A = i =1 = = 0,00083
n -1 5

2
 n 
n
 ∑ x i 
∑ i x
2
−  i =1 
n
( )
0,883 + 0,920 + ... + 0,800 -
2 2 2 (5973) 2
7
S2 B = i =1 = = 0,00262
n -1 6

1) Hipóteses
Ho : σ2A = σ2B
Ha : σ2B > σ2A

2) Calculado
〉 S2 0,00262
F= = = 3,16
〈S 2
0,00083

3) Tabelado
Ftabelado α (n1,n2)
n1 = (7 – 1) = 6 e n2 = (6 – 1) = 5.
Ftabelado 5% (6,5) = 4,95

4) Conclusão

97
Fcalculado< Ftabelado: não rejeita Ho, ou seja, podemos realizar o teste t considerando variâncias iguais

Teste t para testar a igualdade das médias


1) Hipóteses
Ho : µA = µB
Ha : µA > µB (neste exemplo vamos optar por uma hipótese unilateral)

2) Calculado
n n

∑x i 5613 ∑x i
5973
XA = i =1
= = 0,9355 XB = i =1
= = 0,8533
n 6 n 7
(n A −1)S2 A + (n B −1)S2 B 5(0,00083) + 6(0,00262)
S2 c = = = 0,0018
nA +nB −2 11

XA − XB 0,9355 − 0,8533
t= = = 3,48
1 1  1 1 
S  0,0018 + 
n + n 
2
c  6 7 
 A B 

3) Tabelado
ttabelado 5% (nA+nB-2) = ttabelado 5% (11)=1,796

4) Conclusão
‫׀‬tcalculado ‫>׀‬ttabelado. Portanto, rejeita-se Ho, ou seja, as médias são estatisticamente diferentes, pois a
diferença entre elas (provavelmente) não é devida ao acaso.

# programação em R
# teste F
var.test(B,A, alternative = "greater")
F test to compare two variances

data: B and A
F = 3.1572, num df = 6, denom df = 5, p-value = 0.1139
alternative hypothesis: true ratio of variances is greater than 1

98
95 percent confidence interval:
0.6377829 Inf
sample estimates:
ratio of variances
3.157209

# test t
t.test(A,B, var.equal=TRUE, alternative="greater")

Two Sample t-test

data: A and B
t = 3.4777, df = 11, p-value = 0.002585
alternative hypothesis: true difference in means is greater than 0
95 percent confidence interval:
0.03975928 Inf
sample estimates:
mean of x mean of y
0.9355000 0.8532857

Nos dois testes (F e t) utilizamos hipóteses alternativas unilaterais. Isso equivale a


realizar um teste de hipótese considerando 10% de probabilidade de erro tipo I, ou seja, o α real
é de 0,10 (10%). No R definimos na função com alternative = "greater". No teste F o resultado
do p foi maior que 0,05. Portanto, não rejeitamos H 0. No teste t consideramos variâncias iguais
(devido ao resultado do teste F), utilizando o argumento var.equal=TRUE. O valor de p do teste t
para as duas médias foi menor que 0,05, concluindo pela rejeição de H0.

Exemplo 2
99
Considere os dados abaixo, que são amostras de duas populações suínas, avaliadas quanto
ao ganho diário em peso (kg/dia). Vamos avaliar (testar estatisticamente para α = 5%) se as duas
populações possuem o mesmo ganho diário.
Amostra A = Sem raça definida: 0,783; 0,920; 0,770; 0,680; 0.730; 0,890
Amostra B = Linhagem X: 0,942; 0,899; 0,900; 0,950; 0,962; 0,960
Solução:

Teste F para testar a igualdade das variâncias


A resolução do teste F para este exemplo já foi feita anteriormente no exemplo do teste F.
A conclusão do teste foi: Rejeita-se H 0. Portanto faremos a análise do teste t considerando
variâncias estatisticamente diferentes.

Teste t para testar a igualdade das médias


1) Hipóteses
Ho : µA=µB
Ha : µA≠µB

2) Calculado
n n

∑x i
4773 ∑x i
5613
XA = i =1
= = 0,7955; XB = i =1
= = 0,9355
n 6 n 6
XA − XB 0,7955 − 0,9355
t= = = -3,54
 S2A S2B   0,0086 0,0008 
 +   + 
n A nB   6 6 

3) Tabelado
ttabelado 5% (n*) = ttabelado 5% (6)=2,447
2
 S2A S2B   0,0086 0,0008 
2
 +   + 
 nA nB   6 6  0,000002454
n* = = = = 5,94
2
 S2A   S2B 
2 2
 0,0086   0,0008 
2
0,00000041 + 0,000000003
       
n n
 A + B  6   6 
+
nA −1 nB −1 5 5

100
4) Conclusão
‫׀‬tcalculado‫>׀‬ttabelado. Portanto, rejeita-se Ho, ou seja, as médias são estatisticamente diferentes, pois a
diferença entre elas (provavelmente) não é devida ao acaso.

# programação em R
A=c(0.783, 0.920, 0.770, 0.680, 0.730, 0.890) # amostra A
B=c(0.942, 0.899, 0.900, 0.950, 0.962, 0.960) # amostra B

t.test(A,B, var.equal=FALSE)

Welch Two Sample t-test

data: A and B
t = -3.5365, df = 5.959, p-value = 0.01241
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.23703062 -0.04296938
sample estimates:
mean of x mean of y
0.7955 0.9355

No R o resultado contém o valor calculado, os graus de liberdade (df), o valor de p


(p-value), o intervalo de confiança da diferença das duas médias e os dois valores médios. Como
o valor de p é menor que 0,05, concluímos que as duas médias são estatisticamente diferentes.

Teste para a igualdade de médias obtidas de dados pareados


Quando temos dois conjuntos de dados, obtidos de duas medidas em um mesmo grupo de
indivíduos, o teste adequado é o teste t para dados pareados, desde que a variável tenha
distribuição normal. Note que no teste t para duas médias também temos dois conjuntos de
dados. Porém, estes são obtidos de dois grupos de indivíduos diferentes. No teste t para dados
101
pareados temos apenas um grupo, avaliado em dois momentos ou, avaliado simultaneamente por
dois tratamentos diferentes.
Por exemplo: Cientistas querem testar se uma nova droga é eficiente na redução de peso em
humanos. Quarenta pessoas são selecionadas e pesadas. A droga é aplicada e, dois meses depois
as quarenta pessoas são novamente pesadas. Será que a diferença de peso encontrada é
significativa? Para esta situação podemos utilizar o teste t para dados pareados.
A notação matemática adequada é:
x1i: representa o peso da pessoa i antes de receber a droga;
x2i: representa o peso da pessoa i após receber a droga e passado determinado tempo.
Assim, obtêm-se os desvios (di = x2i – x1i), que são a diferença de peso (antes e depois) de
cada observação (indivíduo).
Considerando as n = 40 pessoas do estudo, pode-se montar a seguinte tabela:
Pessoas x1i x2i di =x2i – x1i
1 x11 x21 d1
2 x12 x22 d2
3 x13 x23 d3
... ... ... ...
40 x140 x240 d40
A partir destes dados, pode-se obter a média estimada dos desvios pelo seguinte estimador:
n

∑d i
d= i =1

n
Assim, d é a diferença média na amostra e D é a diferença média na população.
As hipóteses são:
Ho: D = 0
Ha1: D > 0
ou
Ha2: D < 0
ou
Ha3: D ≠ 0
O t calculado é obtido por:

d
t=
S(d) , com (n – 1) graus de liberdade.
n

102
onde:
S(d) é o desvio padrão da diferença amostral;
n = tamanho da amostra.

A regra decisória é:
Se ‫׀‬tcalculado‫ ≥ ׀‬ttabelado : rejeita-se Ho
Se ‫׀‬tcalculado‫ < ׀‬ttabelado : não rejeita-se Ho

Exemplo
Com o objetivo de aferir pressão em cães, comparando os métodos Oscilométrico e
Doppler vascular, utilizou-se 9 cães de porte médio, obtendo a pressão diastólica (mmHg) dos
mesmos, sendo que os dados estão na tabela abaixo:
Animais Oscilométrico Doppler vascular di (desvios)
1 106 90 16
2 117 85 32
3 105 87 18
4 143 92 51
5 66 82 -16
6 89 80 9
7 94 93 1
8 104 90 14
9 120 89 31

1) Hipóteses
Ho: D = 0
Ha: D ≠ 0

2) Calculado
n

∑d i
16 + 32 + 18 + ... + 31
d= i =1
= = 17,33
n 9
2
 n 
 ∑ d i 

n
d i +  i =1
2 
(16 + 32 + 18
2 2 2
+ ... + 31 ) +
2 (156)
2

n 9
Sd2 = i =1 = = 374,50
n -1 8

103
Sd = Sd2 = 374,50 = 19,35

d 17,33
t= = = 2,69
S(d) 19,35
n 9

3) Tabelado
ttabelado 5% (8) = 2,306

4) Conclusão
‫׀‬tcalculado‫ ≥ ׀‬ttabelado. Portanto, rejeita-se Ho, ou seja, existe diferença estatisticamente significativa
entre os dois métodos de aferir pressão.

# programação em R
oscilométrico=c(106,117,105,143,66,89,94,104,120)
doppler=c(90,85,87,92,82,80,93,90,89)

t.test(oscilométrico,doppler, paired=TRUE)

Paired t-test

data: oscilométrico and doppler


t = 2.6871, df = 8, p-value = 0.02762
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
2.458067 32.208599
sample estimates:
mean of the differences
17.33333

Na análise utilizando o R devemos informar na função que o teste é pareado


(paired=TRUE). No teste observa-se diferença significativa (p<0,05).

104
Teste de Wilcoxon
O teste de Wilcoxon é um teste não paramétrico (nas hipóteses não testamos parâmetros),
baseado na ordenação dos dados. Pode ser utilizado nas três situações que utilizamos o teste t
(uma média, duas médias e dados pareados). No entanto, o teste t deve se preferido quanto os
dados são variáveis quantitativas com distribuição aproximadamente normal. Em caso de dados
sem distribuição normal ou variáveis qualitativas ordinais, recomenda-se a utilização do teste de
Wilcoxon. O teste, em suas três formas de aplicação, será detalhado a seguir.

Teste de Wilcoxon para uma amostra


Este teste é utilizado em substituição ao teste t para uma média, quando se trata de uma
variável qualitativa ordinal ou, a variável quantitativa em estudo não tenha distribuição
aproximadamente normal. É um teste baseado na soma de ordenações e, portanto, considera a
posição dos dados. Nestes casos pode-se considerar que a mediana é um melhor resumo do que a
média. Para exemplificar vamos utilizar os mesmos dados utilizados no teste t para uma média.
Exemplo: Considere o medicamento X avaliado em 7 indivíduos quanto ao tempo para penetrar
na corrente sanguínea (minutos). Teste se o medicamento X apresenta média estatisticamente
igual há 48 minutos. Segue os dados (em minutos) dos sete indivíduos: 43, 45, 48, 47, 46, 42, 44

1) Hipóteses
Ho : Os dados tem mediana (tendência central) de 48 minutos
Ha : Os dados não tem mediana (tendência central) de 48 minutos

2) Valor calculado
Primeiramente vamos calcular o valor S+. Subtraímos 48 de cada valor da amostra, obtendo:
-5,-3,0,-1,-2,-6,-4
Depois obtemos o ranqueamento dos valores em módulo e mantemos o sinal (desconsidere o
zero).
Valor -5 -3 -1 -2 -6 -4
Valor (ordenado em módulo) -1 -2 -3 -4 -5 -6
Posto 1 2 3 4 5 6

Obtemos S+ somando os postos dos valores positivos.

105
S+=0

n(n + 1) 6(6 + 1)
S+ − 0−
4 4 − 10,5
Z= = = = −2,20
n(n + 1)(2n + 1) 6(6 + 1)(12 + 1) 4,77
24 24

Pode-se aplicar uma pequena correção (importante em amostras pequenas, em geral n<20).

n(n + 1) 6(6 + 1)
S+ − − 0,5 0 − − 0,5
4 4 − 10
Z= = = = −2,10
n(n + 1)(2n + 1) 6(6 + 1)(12 + 1) 4,77
24 24

3) Valor tabelado
Z5% = 1,96

4) Conclusão
Valor calculado em módulo é maior que o tabelado (nos dois casos, com e sem correção).
Portanto, rejeita-se H0, ou seja, os valores não possuem tendência central de 48. Um valor de Z
de -2,20 nos daria 0,4861 de probabilidade obtido na tabela de Z. Multiplicando por 2 temos
0,9722. Então 1-0,9722 dá 0,0278. Este valor é a probabilidade da diferença ter ocorrido ao
acaso. Como p<0,05, rejeita-se H0. Considerando a correção o valor de p seria 0,0358.
Zcalculado ≥ Z tabelado : rejeita H0.

Zcalculado < Z tabelado : não se rejeita H0.

# programação em R
dados=c(43,45,48,47,46,42,44)
# sem correção
wilcox.test(dados, mu=48, correct=FALSE)
Wilcoxon signed rank test

data: dados
106
V = 0, p-value = 0.02771
alternative hypothesis: true location is not equal to 48

# com correção
wilcox.test(dados, mu=48) # teste de wilcoxon para uma média
Wilcoxon signed rank test with continuity correction

data: dados
V = 0, p-value = 0.03603
alternative hypothesis: true location is not equal to 48

No teste de Wilcoxon ocorre diferença significativa, pois o p foi menor que 0,05. No
entanto, como os dados são quantitativos e possuem distribuição normal, recomenda-se utilizar o
teste t.

Teste de Wilcoxon para duas amostras independentes


O teste de Wilcoxon para duas amostras independentes é também conhecido como teste
de Mann Whitney ou Teste U. É um teste não paramétrico baseado na ordenação (ranqueamento)
dos dados. Pode ser utilizado na comparação de dois grupos, como o teste t para duas médias. No
entanto, o teste t para duas médias deve ser preferencial quando a variável é quantitativa
(discreta ou contínua) e possua distribuição aproximadamente normal. Em casos de variáveis
com distribuição muito distante da normalidade e, em caso de variáveis qualitativas ordinais,
recomenda-se o teste de Wilcoxon.
Vejamos um exemplo onde uma medicação foi testada na cicatrização de feridas em cães.
A cicatrização foi avaliada utilizando uma escala de notas de 0 à 5, sendo 0 ferida cicatrizada e 5
ferida mais acentuada. Uma pomada com medicação foi aplicada diariamente em um grupo de 6
cães (6 animais com grau 5 de ferida). Outra pomada, sem medicação (placebo), também foi
aplicada diariamente em 7 cães com grau 5 de ferida. Os resultados, após um 15 dias de
aplicação das pomadas, encontram-se no quadro abaixo:
Tratamentos Notas (0-5)
Medicação 0 1 2 0 2 3 -
Placebo 2 3 4 3 5 4 4

107
1) Hipóteses
H0: A soma das ordenações é igual para as duas amostras.
Ha: A soma das ordenações é diferente para as duas amostras.

2) Valor Calculado
As notas (valores) são ordenadas da menor para a maior. Cada nota recebe um valor
devido a sua classificação (ranqueamento). A nota zero receberia o valor 1. No entanto, são duas
notas zero que estão presentes nos dados. Então elas recebem o valor médio, 1,5. E assim,
sucessivamente, aplicamos esta regra em todas as notas.
0 =(1+2)/2 = 1,5
1=3
2 = (4+5+6)/3 =5
3 =(7+8+9)/3 =8
4 = (10+11+12)/3 = 11
5 = 13

Para cada um nos grupos calcula-se a soma de ranques (soma das ordenações). Considera-se n a
amostra de menor tamanho (n<m).

Sn=1,5+3+5+1,5+5+8=24 (grupo com medicação) n=6


Sm=5+8+11+8+13+11+11=67 (grupo placebo) m=7

Depois calculamos Wn e Wm fazendo:

n(n + 1) 6(6 + 1)
Wn = nm + − Sn = 6x7 + − 24 = 42 + 21 - 24 = 39
2 2
m(m + 1) 7(7 + 1)
Wm = nm + − Sm = 6x7 + − 64 = 42 + 28 - 67 = 3
2 2
Seleciona-se o menor W. Então W = 3 para cálculo de Z.

108
nm 6x7
W− 3−
2 2 − 18
Z= = = = −2,57
mn(m + n + 1) 7x6x(7 + 6 + 1) 7
12 12

No entanto, em caso de ocorrer empates, utilizamos a seguinte equação:

nm
W−
2 − 18 − 18
Z= = = = −2,62
nm  N 3 − N  6x7 133 − 13  6,87
 − ∑ T   − 6,5 
N(N − 1)  12  13(13 − 1)  12 

N= m + n = 7 + 6 = 13
t 3 − t 23 − 2 33 − 3 33 − 3 33 − 3
∑T = ∑ 12
=
12
+
12
+
12
+
12
= 6,5

t = número de observações empatadas em uma mesma posição

Pode-se aplicar uma pequena correção (importante em amostras pequenas, em geral n<20).

nm
W− − 0,5
2 − 17,5 − 17,5
Z= = = = −2,55
nm  N 3 − N  6x7 133 − 13  6,87
 − ∑ T   − 6,5 
N(N − 1)  12  13(13 − 1)  12 

3) Valor tabelado
O valor tabelado para Z, considerando um nível de significância de 5% é 1,96.

4) Conclusão
Valor calculado em módulo (Zcal=2,55) é maior que o tabelado (Z tab=1,96). Portanto,
rejeita-se H0, ou seja, o grupo com medicação possui diferente (menor) soma de ranques, ou as
menores notas. Um valor de Z de -2,62 (sem correção) nos daria 0,4956 de probabilidade obtido
na tabela de Z. Multiplicando por 2 temos 0,9912. Então 1-0,9912 dá 0,0088. Este valor é a

109
probabilidade da diferença ter ocorrido ao acaso. Como p<0,05, rejeita-se H 0. Com correção o
valor de Z de 2,55 dá um valor de p igaul a 0,0108.
Zcalculado ≥ Z tabelado : rejeita H0.

Zcalculado < Z tabelado : não se rejeita H0.

# programação em R
a=c(0,1,2,0,2,3)
b=c(2,3,4,3,5,4,4)
wilcox.test(a,b, correct=FALSE) # sem a correção

Wilcoxon rank sum test


data: a and b
W = 3, p-value = 0.008829
alternative hypothesis: true location shift is not equal to 0

wilcox.test(a,b, correct=TRUE) # com a correção


Wilcoxon rank sum test with
continuity correction

data: a and b
W = 3, p-value = 0.0109
alternative hypothesis: true location shift is not equal to 0
Pelo R temos o valor de probabilidade de 0,0088 (sem a correção) e 0,0109 (com a
correção). Portanto, conclui-se que as amostras têm notas de cicatrização diferentes,
considerando um nível de significância de 5%.

Teste de Wilcoxon para dados pareados


O teste de Wilcoxon para dados pareados é utilizado quando temos um único grupo de
animais (ou outros elementos) avaliados por dois tratamentos ou métodos ou em dois momentos
de avaliação. A situação é a mesma do teste t para dados pareados. Recomenda-se utilizar o teste

110
de Wilcoxon em substituição ao teste t quando os dados não têm normalidade ou são variáveis
qualitativas ordinais.
Considere um grupo de 7 ratos. Em cada rato foi feita duas feridas. Uma das feridas foi
tratada com pomada cicatrizante (com medicação) e a outra ferida foi tratada com pomada
placebo (sem medicação). A cicatrização foi avaliada utilizando uma escala de notas de 0 à 5,
sendo 0 ferida cicatrizada e 5 ferida mais acentuada. Note que temos apenas um grupo, pois cada
animal possui duas feriadas e recebe os dois tratamentos (medicação e placebo). Portanto,
trata-se de dados pareados. Após 7 dias foi feita a primeira avaliação, obtendo-se os seguintes
dados:
Tratamentos Notas (0-5)
Medicação 3 1 2 1 2 3 1
Placebo 2 3 4 5 5 3 4

1) Hipóteses
H0: A soma das ordenações dos desvios é igual para os dois tratamentos.
Ha: A soma das ordenações dos desvios é diferente para os dois tratamentos.

2) Valor Calculado
Medicação 3 1 2 1 2 3 1
Placebo 2 3 4 5 5 3 4
Desvios 1 -2 -2 -4 -3 0 -3
Ranques 1 2,5 2,5 6 4,5 - 4,5

Os desvios (em módulo) são ordenados do menor para a maior. Cada desvio recebe um
valor devido a sua classificação (ranqueamento). O desvio zero não pontua. No caso de empates
faz-se a média.
0 = não pontua
1=1
-2 = (2+3)/2 =2,5
-3 =(4+5)/2 =4,5
-4 = 6
Na seqüência obtém-se então o valor T. Temos 5 desvios negativos e 1 positivo.
Somamos os ranques dos positivos (menor número). O valor obtido é o valor de T, T=1.
Aplica-se então a seguinte equação:

111
n(n + 1) 6(7)
T− 1−
Z= 4 = 4 = − 9,5 = −1,99
n(n + 1)(2n + 1) 6x7x13 4,77
24 24

n=6 (número de desvios não nulos)

Pode-se aplicar uma pequena correção (importante em amostras pequenas, em geral n<20).
n(n + 1) 6(7)
T− − 0,5 1 − − 0,5
4 4 −9
Z= = = = −1,89
n(n + 1)(2n + 1) 6x7x13 4,77
24 24

3) Valor tabelado
O valor tabelado para Z, considerando um nível de significância de 5% é 1,96.

4) Conclusão
Valor calculado em módulo é maior que o tabelado. Portanto, rejeita-se H 0, ou seja, a
medicação foi eficiente. Um valor de Z de -1,99 nos daria 0,4767 de probabilidade obtido na
tabela de Z. Multiplicando por 2 temos 0,9534. Então 1-0,9534 dá 0,0466. Este valor é a
probabilidade da diferença ter ocorrido ao acaso. Como p<0,05, rejeita-se H 0. Porém, se
considerado o valor de Z com a correção, H0 não seria rejeitada. O valor de p neste caso é
0,0588.
Zcalculado ≥ Z tabelado : rejeita H0.

Zcalculado < Z tabelado : não se rejeita H0.

# programação em R
a=c(3,1,2,1,2,3,1)
b=c(2,3,4,5,5,3,4)
wilcox.test(a,b, paired=TRUE, correct=FALSE) # sem correção
Wilcoxon signed rank test

data: a and b
112
V = 1, p-value = 0.0452
alternative hypothesis: true location shift is not equal to 0

wilcox.test(a,b, paired=TRUE, correct=TRUE) # com correção

Wilcoxon signed rank test with


continuity correction

data: a and b
V = 1, p-value = 0.05778
alternative hypothesis: true location shift is not equal to 0

Pelo R temos o valor de probabilidade de 0,0452. Portanto, conclui-se que as amostras


têm notas de cicatrização diferentes, considerando um nível de significância de 5%. No caso da
correção não se conclui pela diferença. A não ser que sejamos mais flexíveis na consideração do
valor de p. Pode-se, por exemplo, considerar um nível de significância de 10%, o mesmo de um
teste unilateral.

Teste Qui-quadrado ( χ 2)
O teste qui-quadrado é utilizado para avaliar se a diferença entre freqüências esperadas e
observadas ocorreu ao acaso.
Por exemplo: Suponha que em uma amostra de 80 nascimentos de bezerros avaliou-se a
freqüência de machos e fêmeas. Observou-se 45 machos e 35 fêmeas. A pergunta é: será que o
nascimento de machos na população é superior ao nascimento de fêmeas por acaso ou por algum
outro motivo que não seja o acaso. A decisão sobre esta questão pode ser orientada pelo teste
qui-quadrado, que compara as freqüências observadas (45 machos e 35 fêmeas), com as
freqüências esperadas (40 machos e fêmeas 40 fêmeas).
O teste de qui-quadrado pode ser utilizado principalmente para:
1. Teste de aderência
2. Teste de independência

113
Qui-quadrado para aderência
O teste de aderência é utilizado quando a hipótese a ser testada refere-se à forma da
distribuição da população. Assim, pode-se verificar se distribuições teóricas se ajustam a
distribuições empíricas, ou seja, as distribuições amostrais.
Exemplos:
1. Testar se uma variável tem distribuição normal
2. Testar se uma variável tem distribuição poisson
3. Testar se uma variável tem distribuição binomial
4. O nascimento de crianças do sexo feminino e masculino tem proporção 1:1

As hipóteses Ho e Ha são:
Ho: a variável analisada apresenta uma distribuição esperada
(a diferença da freqüência observada para a esperada é devido ao acaso)
Ha: a variável analisada não apresenta a distribuição esperada
(a diferença da freqüência observada para a esperada não é devido ao acaso)

O qui-quadrado calculado para aderência é obtido por:


(FO1 − FE1 ) 2 (FO 2 − FE 2 ) 2 (FO3 − FE 3 ) 2 (FO k − FE k ) 2
χ2 = + + + ... +
FE1 FE 2 FE 3 FE k
ou seja,
k
(FOi − FE i ) 2
χ2 = ∑
i =1 FE i
onde:
FOi é a freqüência observada para a i-ésima categoria;
FEi é a freqüência esperada para a i-ésima categoria;
k é o número de categorias da variável qualitativa analisada.

Note que quanto maior o valor de χ 2 calculado, maior é a discrepância entre as


freqüências esperadas e observadas.

114
O valor tabelado é obtido com o nível de significância e k-1 graus de liberdade. Sendo k
o número de categorias da variável.

χ 2tabelado α (k −1)

A conclusão é:
χ 2calculado ≥ χ 2tabelado : rejeita Ho.

χ 2calculado < χ 2tabelado : não se rejeita Ho.

Exemplo 1
Uma amostra de 410 ovos de galinha são postos a chocar. Destes ovos foram obtidos 390 pintos,
sendo 190 machos e 200 fêmeas. Considerando que a freqüência esperada de machos e fêmeas é
de 1:1 (iguais entre os sexos), podemos considerar que os desvios da freqüência esperada para a
observada podem se devidos ao acaso? Podemos supor que há uma interferência além do acaso
que esta alterando as proporções sexuais?

1) Hipóteses
Ho: a diferença da freqüência esperada para a freqüência observada é devido ao acaso
Ha: a diferença da freqüência esperada para a freqüência observada não é devido ao acaso

2) Calculado
As freqüências esperadas para machos e fêmeas são 195 machos e 195 fêmeas (metade de 390).
k
(FOi − FE i ) 2 (190 − 195) 2 (200 − 1950) 2
χ2 = ∑ = + = 0,26
i =1 FE i 195 195

3) Tabelado
Considerando α = 5% e o grau de liberdade obtido por (k – 1), onde k é o número de categorias
da variável qualitativa, tem-se:
χ 2 5% (1) = 3,84

4) Conclusão
χ 2calculado < χ 2tabelado : não se rejeita H0.

115
Assim, conclui-se que ocorreu interferência somente do acaso para que o número de
machos e fêmeas fosse diferente.

# programação em R
dados=c(190,200)

chisq.test(dados)

Chi-squared test for given probabilities

data: dados
X-squared = 0.2564, df = 1, p-value = 0.6126

Na análise realizada com auxílio do software R temos o valor calculado, graus de


liberdade e o valor de p (0,6126) superior a 0,05. Assim, não se rejeita H0, concluindo que a
diferença entre sexos é devida ao acaso.

Exemplo 2
Considere uma geração F2 com 290 galinhas. Destas, observou-se 153 com pescoços pelados e
penas pretas, 57 com pescoços pelados e penas brancas, 63 com pescoços normais e penas pretas
e, 17 com pescoços normais e penas brancas. Considere que a freqüência esperada para cada
combinação (pescoço e cor) deveria ser 9:3:3:1 respectivamente, considerando que os genes que
determinam a variação nestas características tem distribuição independente (segunda lei de
Mendel).
1) Hipóteses
Ho: a diferença da freqüência esperada para a freqüência observada é devido ao acaso
Ha: a diferença da freqüência esperada para a freqüência observada não é devido ao acaso

2) Calculado
9+3+3+1=16
153+57+63+17=290
116
A freqüência esperada para galinhas com pescoços pelados e penas pretas é:
9 - 16
FE1 - 290

Resolvendo a regra de três:


FE1 = 2610/16 = 163,125

Para as demais:
FE2 = FE3 = (3 x 290)/16 = 54,375
FE4 = (1 x 290)/16 = 18,125

k
(FOi − FE i ) 2 (153 −163,125) 2 (57 − 54,375) 2 (63 − 54,375) 2 (17 −18,125) 2
χ2 = ∑ = + + + = 2,19
i =1 FE i 163,125 54,375 54,375 18,125

3) Tabelado
Considerando α = 5% e o grau de liberdade obtido por (k – 1), onde k é o número de categorias
da variável qualitativa, tem-se:
χ 2 5% (3) = 7,815

4) Conclusão
χ 2calculado < χ 2tabelado : não se rejeita Ho.

Assim, ocorreu interferência somente do acaso.

# programação em R
dados=c(153,57,63,17)
FE=c(9/16,3/16,3/16,1/16)
chisq.test(dados, p=FE)

Chi-squared test for given probabilities

data: dados
X-squared = 2.1931, df = 3, p-value = 0.5333

117
O valor de p foi inferior a 0,05. Portanto, não se rejeita H 0, concluindo que a diferença da
freqüência observada para a esperada é devida ao acaso. Note que na programação em R foi
necessário informar as probabilidades associadas a cada freqüência observada. Caso não seja
informada a freqüência esperada (probabilidades) a função chisq.test( ) realizará o teste
considerando freqüências esperadas iguais, como no exemplo 1.

Qui-quadrado para independência


Este teste é utilizado para testar se duas variáveis qualitativas são independentes. Por
exemplo: Será que a ocorrência de anemia em cães tem relação com o sexo? Se a proporção de
animais anêmicos for estatisticamente igual em ambos os sexos, as variáveis são independentes.
Caso contrário pode-se inferir que a anemia em cães tem relação com o sexo.

As hipóteses H0 e Ha são:
H0: as variáveis são independentes (não tem relação)
Ha: as variáveis não são independentes (tem relação)

O qui-quadrado calculado, neste caso, é obtido por:


k h (FOij − FE ij ) 2 (FO11 − FE11 ) 2 (FO12 − FE12 ) 2 (FO kh − FE kh ) 2
χ = ∑∑
2
= + + ... +
i =1 j=1 FE ij FE11 FE12 FE kh

Considerando duas variáveis X e Y temos que:


FOij é a freqüência observada para i-ésima categoria da variável X e j-ésima categoria da variável
Y;
FEij é a freqüência esperada para i-ésima categoria da variável X e j-ésima categoria da variável
Y.

O número de graus de liberdade é obtido por:


G.L. = (k – 1)(h – 1), em que k é o número de categorias de uma das variáveis (X) e h é o
número de categorias da outra (Y).

A conclusão é:

118
χ 2calculado ≥ χ 2tabelado : rejeita H0.

χ 2calculado < χ 2tabelado : não se rejeita H0.

Para exemplificar melhor, considere o problema a seguir:


A tabela de contingência a seguir se refere á proporção de cães anêmicos por grupo de idade em
uma amostra de 876 cães sem raça definida. Será testado se a anemia é independente (não tem
relação) a idade do animal.
Grupo de Idade
Anemia Total
Até 12 meses 1 a 8 anos Acima de 8 anos
presente 128 143 38 309
ausente 152 274 141 567
Total 280 417 179 876

1) Hipóteses
H0: anemia e grupo de idade são independentes (não tem relação)
Ha: anemia e grupo de idade não são independentes (tem relação)

2) Calculado
Os valores esperados podem ser obtidos por:
(total da linha i) x (total da coluna j)
FE ij =
totalgeral
(309)(280) (309)(417) (309)(179)
FE11 = = 98,77 FE12 = = 147,09 FE13 = = 63,14
876 876 876
(567)(280) (567)(417) (567)(179)
FE 21 = = 181,23 FE 22 = = 269,91 FE 23 = = 115,86
876 876 876

k h (FOij − FE ij ) 2 (128 − 98,77) 2 (143 − 147,09) 2 (141 − 115,86) 2


χ = ∑∑
2
= + + ... + = 29
i =1 j=1 FE ij 98,77 147,09 115,86

3) Tabelado
Considerando α = 1% e o grau de liberdade obtido por (k – 1)(h – 1) tem-se:
χ 21% (2) = 9,21

119
4) Conclusão
χ 2calculado ≥ χ 2tabelado : portanto, rejeita-se H0 ao nível de 1% de probabilidade. A

anemia tem relação com a idade dos animais.

# programação em R
dados=matrix(c(128,152,143,274,38,141), nr=2)

chisq.test(dados)

Pearson's Chi-squared test

data: dados
X-squared = 29.0088, df = 2, p-value = 5.021e-07

Os dados devem ser programados para comporem uma matriz no R. No resultado temos o
qui-quadrado calculado, os graus de liberdade e o valor de p. Note que o valor de p é fornecido
com notação exponencial, pois o valor é muito pequeno (0,0000005021). Portanto, conclui-se
que as variáveis são relacionadas.

Restrições ao uso do Qui-quadrado


Não é recomendado utilizar o qui-quadrado nos seguintes casos (regra geral):
a) Se a freqüência absoluta total for menor que 20, ou seja, amostras com menos de 20
observações;
b) Se a freqüência absoluta total estiver entre 20 e 40 observações e a menor freqüência esperada
for menor que 5 observações;
c) Se a freqüência absoluta total for maior que 40 e a freqüência esperada mínima for menor que
5, deve-se proceder a correção de Yates apresentada a seguir.
( FO1 − FE1 − 0,5) 2 ( FO 2 − FE 2 − 0,5) 2 ( FO3 − FE 3 − 0,5) 2 ( FO k − FE k − 0,5) 2
χ 2 ajustado = + + + ... +
FE1 FE 2 FE 3 FE k
assim,

120
k
( FOi − FE i − 0,5) 2
χ 2
ajustado =∑
i =1 FE i

No caso de amostras pequenas podemos utilizar o teste binomial ou o teste exato de


Fisher, que podem ser utilizados para substituir o qui-quadrado.

Teste Binomial
O teste binomial pode ser utilizado para substituir o teste qui-quadrado quando a amostra
é muito pequena (geralmente n<30). Veremos o teste binomial para testar uma proporção e para
testar duas proporções.

Teste binomial para uma proporção


Este teste é utilizado para testar se uma proporção (freqüência) observada é
estatisticamente igual a um valor de freqüência pré-estabelecido. Por exemplo: Em uma leitegada
tem-se 14 leitões, sendo 4 machos e 10 fêmeas. Neste nascimento o valor mais provável é 7
machos e 7 fêmeas. Um teste qui-quadrado para aderência, comparando as freqüências
observadas (4 machos : 10 fêmeas) com a esperada (7 machos : 7 fêmeas) não seria
recomendado neste caso, devido ao pequeno tamanho da amostra (n=14). No entanto, o teste
binomial para uma proporção pode ser utilizado, seguindo os seguintes passos.

1) Hipóteses
H0: p = p0 testando se a freqüência de machos é igual a 0,50 p = 0,50
Ha: p ≠ p0 p ≠ 0,50
Consideremos um teste bilateral. Porém, também podemos fazer um teste unilateral.

2) Calculado
x = 4 (proporção de machos na leitegada)
n = tamanho da leitegada = 14
q = 1 – p = 0,5

121
Abaixo uma pequena correção que vamos adicionar no teste:
(x + 0,5) é utilizado se x < np
(x – 0,5) é utilizado se x > np

(x ± 0,5) − np (4 + 0,5) − 14x0,5 − 2,5


Z= = = − 1,34
npq 14x0,5x0,5 1,87

Pode-se fazer também utilizando as freqüências relativas:

(p̂ ± 0,5/n) − p (4/14 + 0,5 / 14) − 0,5 (0,2857 + 0,0357) − 0,5


Z= = = = −1,34
pq 0,5x0,5 0,1336
n 14

Sem a correção (x±0,5) o resultado seria Z=-1,60. No entanto, para termos um resultado
idêntico ao do software R, consideremos o resultado com a correção, onde Z=-1,34.

3) Tabelado
Considerando um valor de 5% de significância temos:
Z(α/2) = Z(0,05/2)= Z(0,025)=1,96 na tabela de Z

4) Conclusão
Valor calculado em módulo é menor que o tabelado. Portanto, não rejeita H 0, ou seja, a
proporção de machos é estatisticamente igual a 0,50, sendo a diferença encontrada atribuída ao
acaso.
Zcalculado ≥ Z tabelado : rejeita H0.

Zcalculado < Z tabelado : não se rejeita H0.

Também é possível encontrar o valor de probabilidade na tabela de Z. O valor de 1,34 na


tabela de Z fornece 0,4099 de probabilidade. Multiplicando por dois devido ao teste ser bilateral
temos 0,8198. A probabilidade da distribuição encontrada estar fora desta área é 1-0,8198 =
0,1802. Então, como p =0,1802 é maior que 0,05 não rejeita-se H0.

122
Se fosse testado x=10 (fêmeas) ao invés de x=4 (machos) teríamos a mesma conclusão
(mesmo valor de p).

# programação em R
dados=c(4,10)
binom.test(dados)

Exact binomial test

data: dados
number of successes = 4, number of trials = 14, p-value =
0.1796
alternative hypothesis: true probability of success is not equal to 0.5
95 percent confidence interval:
0.08388932 0.58103526
sample estimates:
probability of success
0.2857143

No resultado do teste temos o valor de p de 0,1796 que indica que não devemos rejeitar
H0, ou seja, a diferença de machos e fêmeas ocorreu devido ao acaso.

Pelo R também podemos fazer a análise utilizando a função prop.test( ).

# programação em R
prop.test(x=4,n=14,p=0.5)
1-sample proportions test with continuity correction

data: 4 out of 14, null probability 0.5


X-squared = 1.7857, df = 1, p-value = 0.1814
alternative hypothesis: true p is not equal to 0.5
95 percent confidence interval:
123
0.09581761 0.57996827
sample estimates:
p
0.2857143
prop.test(x=4,n=14,p=0.5, correct=FALSE)

1-sample proportions test without continuity


correction

data: 4 out of 14, null probability 0.5


X-squared = 2.5714, df = 1, p-value = 0.1088
alternative hypothesis: true p is not equal to 0.5
95 percent confidence interval:
0.1172138 0.5464908
sample estimates:
p
0.2857143

No primeiro caso é feita a correção de Yates (p=0,1814) e no segundo caso não


(p=0,1088). Em amostras pequenas (n<30) recomenda-se utilizar a correção de Yates.

Teste binomial para duas proporções


Neste teste comparamos as proporções de duas amostras. Por exemplo: Considere que em
amostras de 120 cães de um local A observaram-se 18 cães com um parasita X. Em outra
amostra de 160 cães, de um local B, observou-se 40 cães com o parasita X. Então, podemos
testar se a proporção de cães com o parasita X é estatisticamente igual ou não, nas duas
populações (dois locais). A seguir faremos o teste binomial para duas proporções:
1) Hipóteses
H0: p A = p B

Ha: p A ≠ p B
Consideremos um teste bilateral. Porém, também podemos fazer um teste unilateral.

124
2) Calculado
Obter as proporções estimadas em cada local:
p̂ A =18/120=0,15 (15% dos cães possuem o parasita X)

p̂ B =40/160=0,25 (25% dos cães possuem o parasita X)


Obter a proporção média:
xA + xB 18 + 40 58
p̂ = = = = 0,2071; q̂ = 1 - p̂ = 1 - 0,2071 = 0,7929
n A + n B 120 + 160 280
p̂ A - p̂ B 0,15 − 0,25 − 0,10
Z= = = = − 2,05
p̂q̂ p̂q̂ 0,2071x 0,7929 0,2071x 0,7929 0,0489
+ +
nA nB 120 160

3) Tabelado
Considerando um valor de 5% de significância temos:
Z(α/2) = Z(0,05/2)= Z(0,025)=1,96 na tabela de Z

4) Conclusão
Valor calculado em módulo é maior que o tabelado. Portanto, rejeita-se H 0, ou seja, a
proporção de animais com o parasita é diferente nos dois locais. A diferença não deve ser
atribuída ao acaso. E termos de probabilidade um valor de Z de 2,05 nos daria 0,4798.
Multiplicando por 2 temos 0,9596. Então 1-0,9596 dá 0,0404. Este valor é a probabilidade da
diferença ter ocorrido ao acaso. Como p<0,05, rejeita-se H0.
Zcalculado ≥ Z tabelado : rejeita H0.

Zcalculado < Z tabelado : não se rejeita H0.

# programação em R
x=c(18,40)
y=c(120,160)
prop.test(x,y, correct=FALSE)
2-sample test for equality of proportions without continuity correction

125
data: x out of y
X-squared = 4.1752, df = 1, p-value = 0.04102
alternative hypothesis: two.sided
95 percent confidence interval:
-0.192645883 -0.007354117
sample estimates:
prop 1 prop 2
0.15 0.25

Pelo R encontramos praticamente o mesmo valor de p (0,0410), concluindo que os dois


locais tem diferença quanto a freqüência de animais com o parasita X. No caso de amostras
pequenas recomenda-se utilizar a correção de Yates alterando correct=FALSE para
correct=TRUE na função prop.test.

Teste exato de Fisher


O teste exato de Fisher pode ser utilizado quando se quer testar a associação entre duas
variáveis qualitativas. Nestas situações o teste mais indicado é o qui-quadrado para
independência. No entanto, quando ocorrem valores esperados menores que 5 e amostras
pequenas (n total menor que 30), o teste qui-quadrado perde eficiência e, nestes casos, sugere-se
utilizar o teste Exato de Fisher.
O teste exato de Fisher consiste em arranjar duas variáveis dicotômicas (duas categorias)
uma tabela 2 x 2 considerando que FO ij é a freqüência observada da linha i e coluna j.
Consideremos o exemplo que segue, da frequência de cães doentes em duas localidades A e B.
Doença
Local Totais
presente ausente
A 2 (FO11) 8 (FO12) 10
B 10 (FO21) 4 (FO22) 14
Totais 12 12 24

A partir da tabela acima, alteramos os valores observados, mantendo o total geral e os


valores marginais, como no esquema abaixo onde são geradas T(a+1) tabelas:

a b a+b ... 2 8 10

126
T1 c d c+d ... 10 4 14
a+c b+d n ... 12 12 24

a-1 b+1 a+b ... 1 9 10


T2 c+1 d-1 c+d ... 11 3 14
a+c b+d n ... 12 12 24
a-2 b+2 a+b ... 0 10 10
T3 c+2 d-2 c+d ... 12 2 14
a+c b+d n ... 12 12 24
. .
. .
. .
0 b+a a+b ... 0 b+a a+b
T(a+1) c+a d-a c+d ... c+a d-a c+d
a+c b+d n ... a+c b+d n

Após a construção das tabelas, calculamos a probabilidade em cada arranjo com a


seguinte equação:
(a + b)!(c + d)!(a + c)!(b + d)!
P=
a!b!c!d!n!

Somando P1+P2+P3+...+P(a+1) temos o valor de probabilidade unilateral para o teste


exato de Fisher. Multiplicando o valor por 2 temos o valor bilateral. Assim, para o exemplo em
questão temos:
(2 + 8)!(10 + 4)!(2 + 10)!(8 + 4)! 10!14!12!12!
P1 = = = 0,016658
2!8!10!4!24! 2!8!10!4!24!
(1 + 9)!(11 + 3)!(1 + 11)!(9 + 3)! 10!14!12!12!
P2 = = = 0,001346
1!9!11!3!24! 1!9!11!3!24!
(0 + 10)!(12 + 2)!(0 + 12)!(10 + 2)! 10!14!12!12!
P3 = = = 0,000034
0!10!12!2!24! 0!10!12!2!24!

Punilateral=P1+P2+P3=0,0180
Pbilateral=Punilateral x 2 =0,0360
Como o valor de p (0,0360) é menor que 0,05, rejeita-se H 0 considerando as seguintes
hipóteses:
H0: as variáveis são independentes (não tem associação ou relação)
Ha: as variáveis são dependentes (tem associação ou relação)

127
# programação em R
m=matrix(c(4,8,10,2), ncol=2)

fisher.test(m)
Fisher's Exact Test for Count Data

data: m
p-value = 0.03607
alternative hypothesis: true odds ratio is not equal to 1
95 percent confidence interval:
0.008101526 0.896925044
sample estimates:
odds ratio
0.1121872

No resultado do R temos o valor de p bilateral, mas é possível também fazer o teste


unilateral inserindo na função o argumento alternative = "less". No R também é possível aplicar
o teste exato de Fisher em tabelas maiores que 2x2.

Risco relativo e razão de chances


Risco relativo e razão de chances são duas medidas de associação entre variáveis
qualitativas. São muito utilizadas em estudos epidemiológicos.
O risco relativo (risk ratio) é a probabilidade de um evento (doença, por exemplo) ocorrer
em um grupo exposto ao um fator de risco em relação ao grupo não exposto (controle). Assim, o
risco relativo é simplesmente a razão da probabilidade do grupo exposto ao fator de risco pelo
grupo sem exposição ao fator.
Por exemplo, considere a tabela abaixo onde se encontra a freqüência de cadelas com
incontinência urinária em 592 cadelas castradas e 1796 não castradas.
Incontinência Urinária Totais
Castração
presente ausente
sim 23 569 592

128
não 12 1784 1796
Totais 35 2353 2388

Considerando a castração como o fator de risco para incontinência urinária, têm-se as


seguintes probabilidades:
P(exposto)=23/592= 0,03885
P(não exposto)=12/1796=0,00668

Assim o risco relativo é:


P(exposto) 0,03885
RR = = = 5,81
P(não exposto) 0,00668

Então, a probabilidade de uma cadela castrada apresentar incontinência urinária é 5,81


vezes maior que uma cadela não castrada. Em alguns casos o grupo exposto ao fator de risco
(possível fator de risco) pode ter probabilidade menor em relação ao não exposto. Nestes casos o
risco relativo será menor que 1.

Para obter a significância do RR vamos construir o intervalo de confiança, obtido por:

IC95%RR = [RR x exp( ±1,96 S(RR)


2
)] = [5,81 x exp( ±1,96 0,1246 )] = [2,91à 11,61]
2
S(RR) = [(569 / 23) / 592] + [(1784 / 12) / 1796] = 0,1246

Como o intervalo inferior (2,91) não passa pelo um, considera-se que o RR é
estatisticamente significativo.

# programação em R
dados=matrix(c(23,12,569,1784), nc=2)
require(epitools)

riskratio(dados, rev="both")
$measure
risk ratio with 95% C.I.
Predictor estimate lower upper
Exposed2 1.000000 NA NA

129
Exposed1 5.814752 2.91145 11.61323

Para análise no R construímos uma matriz com o formato da tabela dos dados e
utilizamos a função riskratio( ) do pacote “epitools”. Na função entramos com a tabela (dados) e
neste caso utilizamos o comando rev="both", para trocar a posição de linhas e colunas para usar
a posição que fornece o valor de referência (grupo não exposto) correto. O resultado (parte do
resultado) mostra o valor do RR e seu intervalo de confiança.
Outra medida de associação entre variáveis é a razão de chances (odds ratio). Essa
medida é obtida pela razão da chance de um evento ocorrer em um grupo em relação a chance do
evento ocorrer em outro grupo.
A chance de um evento ocorrer é p/q. Então, considerando o exemplo usado
anteriormente para o risco relativo, temos que a chance de uma cadela ter incontinência urinária
é:
chance (cadela castrada) = 23/569
chance (cadela não castrada) = 12/1784
A razão de chances é:
p1/q1 23/569 23 x 1784
RC = = = =6
p2/q2 12/1784 12 x 569

Assim, a chance de uma cadela apresentar incontinência urinária é 6 vezes maior em uma
cadela castrada em relação a uma não castrada. Pode-se fazer a RC de uma cadela não castrada
em relação a uma castrada. Neste caso é só inverter o numerador e denominador. O resultado
seria 0,17 de chances de incontinência de um animal não castrado em relação a um animal
castrado. Geralmente utiliza-se RC fazendo o evento de maior chance (geralmente o grupo
exposto a um fator de risco) em relação ao de menor chance (grupo não exposto), obtendo RC
maior que 1, de mais fácil interpretação.
Para obter a significância do RC vamos construir o intervalo de confiança, obtido por:

IC95%RC = [RC x exp( ±1,96 S(RC)


2
)] = [6 x exp( ±1,96 0,1292 )] = [2,97 à 12,14]

1 1 1 1
2
S(RC) = + + + = 0,1292
23 569 12 1784

130
Como o intervalo inferior (2,97) não passa pelo um, considera-se que a RC é
estatisticamente significativa.

# programação em R
dados=matrix(c(23,12,569,1784), nc=2)
require(epitools)
oddsratio.wald (dados, rev="both")
$measure
odds ratio with 95% C.I.
Predictor estimate lower upper
Exposed2 1.000000 NA NA
Exposed1 6.009373 2.971346 12.1536
Para análise no R construímos uma matriz com o formato da tabela e utilizamos a função
oddsratio.wald( ) do pacote “epitools”. Na função entramos com a tabela (dados) e neste caso
utilizamos o comando rev="both" para trocar a posição de linhas e colunas (semelhante ao
procedimento do risco relativo). O resultado (parte do resultado) mostra o valor da RC e seu
intervalo de confiança.

Exercícios

1. Qual a relação entre o tamanho da amostra e a precisão das estimativas obtidas?

2. Qual a relação da variância com a precisão das estimativas?

3. Estime a média por intervalo (α = 5%) do peso de suínos (kg) onde foi retirada uma amostra
de 50 animais, com média de 82 kg e variância de 144 kg 2. Apresente a interpretação dos
resultados.

4. Uma empresa de crédito agrícola resolveu fazer uma pesquisa sobre a inadimplência de
empréstimos a produtores rurais no Estado do de Goiás. Foram amostrados 211 produtores. Na
amostra, a porcentagem de inadimplentes foi de 18%. Apresente a proporção por intervalo ( α =
5%) de produtores rurais inadimplentes.
131
5. Pesquisadores da Embrapa querem descobrir se duas variedades de uma planta do Cerrado
possuem a mesma variabilidade na quantidade de determinado principio ativo. Foram
amostradas 11 plantas da variedade X e 19 plantas da variedade Y. As duas amostras
apresentaram a mesma média quanto à quantidade de princípio ativo extraída. Sabendo que a
variância da amostra X foi 40 e da Y 16, pergunta-se. A população X possui maior variabilidade
na quantidade de princípio ativo em relação à população Y?
Resposta: Rejeita-se Ho ao nível de 5% de probabilidade.
Ftabelado 5% (10,18) =2,41; Fcalculado = 2,50

6. Um rebanho de certa raça leiteira apresenta lactação média de 200 kg. Uma nova raça foi
introduzida com o objetivo de aumentar a produtividade média. Posteriormente, uma amostra de
25 vacas apresentou uma lactação média de 210 kg e desvio padrão de 26 kg. Pode-se concluir
que a média de produção de leite aumentou com a introdução da nova raça?
Resposta: Rejeita-se Ho ao nível de 5% de probabilidade.
‫ ׀‬tcalculado 1,92 = ‫ ;׀‬ttabelado 5% (24) = 1,71

7. Suponha que duas fontes protéicas X e Y deverão ser comparadas na alimentação de aves,
medindo-se a eficiência pelo tempo exigido para a absorção de determinado nutriente. A fonte X
foi administrada a 18 aves e a Y foi administrada a 13. Verificar se há diferença significativa
entre as duas rações, quanto ao tempo de absorção do nutriente, adotando α = 5%. Os resultados
foram:
X = 20 min Y = 17 min
2
S = 12 min
x S 2y = 15 min

Resposta: Fcalculado = 1,25; Ftabelado 5% (12,17) = 2,38; Não se rejeita Ho


‫ ׀‬tcalculado 2,27 = ‫ ;׀‬ttabelado 5% (29) = 2,045; Rejeita-se Ho.

8. Um pesquisador deseja saber se duas rações alimentares X e Y para suínos são equivalentes,
ou se a ração X é superior a ração Y no sentido de causar maior ganho de peso. Para 11 animais
foi dada a ração X e a outros 19 a ração Y. Os resultados foram:
X = 66kg Y = 63kg
2 2
S = 40kg
x S 2y = 16kg 2

132
A que conclusão chegar ao nível de 5% de probabilidade?
Resposta: Fcalculado = 2,50; Ftabelado 5% (10,18) = 2,41; Rejeita-se Ho
‫ ׀‬tcalculado 1,418 =‫ ;׀‬ttabelado 5% (14) = 1,761; Não se rejeita Ho.

9. O quadro abaixo apresenta uma seqüência de observações sobre os valores das pressões de
sete indivíduos antes e depois da aplicação de um medicamento que tem por finalidade reduzir a
pressão. Verificar se o medicamento teve efeito significativo ao nível de 1% de probabilidade.
Pressão
Indivíduo
Antes Depois
1 1,1 0
2 3,9 1,2
3 3,1 2,1
4 5,3 2,1
5 5,3 3,4
6 3,4 2,2
7 5 3,2
Resposta: Ho: D = 0; Ha: D < 0
(tcalculado = -5,795; ttabelado (1%) = -3,143; Rejeita-se Ho)

10. Uma amostra de 125 proprietários de certa máquina agrícola foi entrevistada. O objetivo foi
descobrir se o nível de satisfação dos proprietários com a máquina esta relacionada com a
concepção do consumo de combustível da mesma. Os dados obtidos na entrevista foram
organizados na tabela a seguir. Verificar, ao nível de 5% de probabilidade, se o nível de
satisfação e o consumo não guardam relação entre si.
Consumo Nível de Satisfação
Péssimo Regular Bom
Alto 29 27 42
Baixo 4 6 17
R.:
Ho: Desempenho e consumo são independentes
Ha: Desempenho e consumo não são independentes
χ 2 calculado = 3,791; χ 2 tabelado (5%) = 5,991; Não rejeita − se Ho

11. Em seus experimentos com ervilha, Mendel observou 315 lisas e amarelas, 108 lisas e
verdes, 101 rugosas e amarelas, 32 rugosas e verdes. De acordo com sua teoria de

133
hereditariedade, os números deveriam apresentar-se na proporção 9:3:3:1. As observações estão
de acordo com esta teoria, ao nível de 1% de probabilidade?
R.: χ 2 calculado = 0,470; χ 2 tabelado(1%) = 11,345; Não rejeita − se Ho

134
Capítulo V
Análise de Variância

Análise de variância
A análise de variância é uma técnica que permite avaliar se diferenças médias de grupos
ou tratamentos são estatisticamente diferentes. Geralmente é aplicada em dados de experimentos
controlados e, portanto, vamos iniciar com alguns conceitos importantes de estatística
experimental.

Estatística experimental
A experimentação, no contexto da estatística, tem o objetivo de planejar e executar
experimentos, como também analisar e interpretar os dados obtidos.
135
Exemplos de experimentos na agropecuária são:
- avaliação de cultivares de forragem ou cultivares para produção de grãos
- avaliação de tipos ou doses de fertilizantes
- avaliação de rações (% de proteína, % de fibra, % de lipídios, adição de enzimas, etc)
- avaliação do manejo de produção animal (quantidade de alimento, freqüência da alimentação,
lotação de animais m2, fatores que melhoram a qualidade do ambiente, etc)
- avaliação de medicamentos na medicina veterinária

Alguns conceitos básicos em experimentação


Tratamento: é o “elemento” cujo efeito deseja-se testar em um experimento. Como exemplos
podemo citar:
Ração (exemplo com três tratamentos)
ração com enzima A
ração com enzima B
ração sem adição de enzima (controle)

Medicamento (exemplo com 4 tratamentos)


medicamento X
medicamento Y
medicamento Z
placebo (controle)

Unidade experimental: é a unidade que vai receber o tratamento e fornecer os dados (variável
resposta). Como por exemplo:
Um leitão fornecendo o ganho de peso diário
Uma baia com 6 leitões fornecendo o ganho de peso diário (o dado é uma média dos 6 animais)
Uma baia com 30 leitões fornecendo o ganho de peso diário (o dado é uma média dos 30
animais)
Observe que a unidade experimental pode vir de um animal ou uma de média de um
grupo de animais. Nos dois casos temos apenas um valor, mas no caso do grupo de animais o
valor médio é, em geral, mais preciso.

136
Delineamento experimental: é a maneira como os tratamentos são distribuídos as unidades
experimentais. Exemplos: delineamento inteiramente casualizado (DIC). delineamento em
blocos casualizados (DBC) e delineamento em quadrado latino (DQL).

Erro experimental: é o efeito de variáveis desconhecidas que causam variações entre as unidades
experimentais. Como exemplos podemos supor que existe diferenças genéticas entre animais de
diferentes unidades experimentais e diferenças de local entre as diferentes unidades
experimentais.

Princípios básicos da experimentação

Podemos, conceitualmente, considerar três princípios básicos da experimentação:


repetição, casualização e controle local.

Princípio da repetição
A repetição consiste em aplicar o mesmo tratamento a várias unidades experimentais, ou
seja, consiste na repetição do experimento básico.
A decisão sobre o número de repetições depende do conhecimento do pesquisador e as
condições em que será realizado o experimento. Quanto maior o número de repetições espera-se
que maior seja a precisão do experimento. Também é importante considerar o espaço físico
disponível, a logística do experimento, a disponibilidade financeira e, no caso do uso de animais,
as restrições dos comitês de ética.
Em termos estatísticos, o uso da repetição tem a finalidade de obter estimativa do erro
experimental.

Princípio da casualização
Este princípio consiste em distribuir ao acaso os tratamentos às unidades experimentais.
Evita que algum dos tratamentos seja sistematicamente favorecido ou desfavorecido por fatores
fora de controle do pesquisador.
Em termos estatísticos, o uso da casualização favorece a uma estimativa válida do erro
experimental.

137
Princípio do controle local ou controle na casualização
É recomendado quando as condições experimentais não são homogêneas e a fonte de
variação é conhecida e atua de forma sistemática. Nestes casos é possível “isolar ou controlar” a
fonte sistemática, a fim de reduzir o erro experimental. É o caso do delineamento de blocos ao
acaso (DBC) onde se faz o controle de uma variável sistemática que causa variação no
experimento. Exemplos são experimentos com suínos ou bovinos de corte confinados, onde
geralmente faz-se o “controle” ou “blocagem” do peso no início do experimento, caso os pesos
iniciais sejam muito discrepantes.

Tratamentos qualitativos e quantitativos


Tratamentos qualitativos são variáveis qualitativas, como por exemplo: Tipos de
medicamentos (A, B, Placebo) e Tipos de bebedouros para aves (bebedouro X, bebedouro Y,
bebedouro Z). Tratamentos quantitativos são variáveis quantitativas, como por exemplo: Doses
de um medicamento X (0,5 mg, 1,0 mg, 1,5 mg, 2,0 mg, 2,5 mg) e Manejo da densidade de
peixes/m3 (0,5, 1,0, 1,5, 2,0, 2,5, 3,0 peixes/m3).
A análise de variância é uma técnica estatística que pode ser utilizada quando os
tratamentos são qualitativos e a resposta é quantitativa e, também, quando os tratamentos são
quantitativos e a resposta é quantitativa. Porém, no segundo caso, pode-se também utilizar
análise de regressão, que deve ser priorizada por, em geral, facilitar a discussão e interpretação
dos resultados. Para tratamentos qualitativos ou quantitativos onde a resposta é qualitativa,
geralmente utilizam-se testes como o qui-quadrado, Kruskal-Wallis e Friedmann. Um esquema
da discussão deste parágrafo encontra-se no Quadro 1.

Quadro 1. Relação entre o tipo de variável considerada como tratamento e sua resposta e, a
análise estatística mais comumente utilizada em cada situação.
Tratamento Resposta Análise (mais comum#)
Qualitativo Quantitativa Análise de Variância##
Quantitativo Quantitativa Análise de Variância ou Regressão
Qualitativo ou Quantitativo Qualitativa Testes Qui-quadrado, Kruskal-Wallis e Friedmann
# no caso de dois tratamentos avaliados a análise de variância pode ser substituída pelo teste t e
os testes de Kruskal-Wallis e Friedmann pelos teste de Wilcoxon e Wilcoxon para dados
pareados

138
## A análise de variância geralmente é completada com alguns testes que serão vistos mais a
frente, como o teste de Tukey.

Análise de variância em delineamento inteiramente casualizado (DIC)

Introdução
Neste delineamento os tratamentos são distribuídos inteiramente ao acaso (não tem
restrição na casualização). Considera os princípios básicos da repetição e casualização (mais
simples de todos). É indicado para condições experimentais homogêneas (animais e ambiente
homogêneos).
Para exemplificar vamos considerar um experimento com suínos onde foram testados 3
tipos de ração (RA, RB, RC), com 4 repetições, considerando a unidade experimental uma baia
com 4 animais, totalizando 48 animais. Um esquema deste experimento pode ser observado a
seguir:

RB RC RC RA RC RA
corredor corredor
RA RA RB RC RB RB

Para que este experimento tenha boa precisão, utilizamos animais homogêneos (mesmo
sexo, com idade, peso e genética semelhantes). Também tomamos o cuidado para que as baias
tenham condições ambientais e de manejo semelhantes.
Considerando os dados da Tabela 1, vamos aplicar uma análise de variância considerando
o delineamento inteiramente ao acaso (DIC).

Tabela 1. Ganho de peso diário (kg/dia) em um experimento para avaliar três tipos de rações em
suínos.
Rações
Repetições
RA RB RC
1 0,898 0,912 0,899
2 0,752 0,892 0,932
3 0,770 0,893 0,856
4 0,713 0,967 0,923

139
Cada valor na tabela acima corresponde a uma unidade experimental, ou seja, é a média
dos 4 animais da baia. Alguns códigos que vamos utilizar são:
I = número de tratamentos = 3
J = número de repetições = 4
N = número de unidades experimentais = I x J = 12
Agora vamos calcular algumas somas de quadrados, considerando que a soma de
quadrados total é obtida pela soma de quadrados de tratamentos somada à soma de quadrados do
resíduo ou erro. Então : SQtotal = SQtratamentos + SQerro.
I, J
SQtotal = ∑Y
i =1, j=1
2
ij −FC

I,J

∑Y
i =1, j=1
2
ij = 0,8982 + 0,752 2 + 0,770 2 + ... + 0,9232 = 9,0946

2
 I, J 
 ∑ Yij 
 
 = (0,898 + 0,752 + 0,770 + ... + 0,923) = (10,4070) = 108,3057 = 9,0255
2 2
FC = 
i =1, j=1

N 12 12 12
SQtotal = 9,0945 − 9,0255 = 0,0690
I

∑T i
2

(3,1332 + 3,664 2 + 3,610 2 )


SQtratamentos = i =1
− FC = − 9,0255 = 9,0682 − 9,0255 = 0,0427
J 4
Ti = Total do tratamento i
TRA = (0,898 + 0,752 + 0,770 + 0,713) = 3,133
TRB = (0,912 + 0,892 + 0,893 + 0,967) = 3,664
TRC = (0,899 + 0,932 + 0,856 + 0,923) = 3,610
SQtotal = SQtratamentos + SQerro
SQerro=SQtotal-SQtratamentos = 0,0690-0,0427=0,0263

Após calcularmos as somas de quadrados criamos a tabela da análise de variância,


esquematiada da seguinte forma:
F.V. G.L S.Q. Q.M. Fcal Ftab
Tratamentos I-1 SQtratamentos QMtratamentos QMtratamentos/QMerro F(n1,n2)
Erro I(J-1) SQerro QMerro
(resíduo)
Total N-1 SQtotal

140
Onde:
F.V. = fontes de variação do experimento
G.L. = graus de liberdade
S.Q. = somas de quadrados
Q.M. = quadrados médios
Fcal = F calculado para tratamentos
Ftab = F tabelado para tratamentos
QMtratamentos=SQtratamentos/GLtratamentos
QMerro=SQerro/GLerro
n1=GLtratamentos
n2=GLerro

Para o exemplo da Tabela 1 temos:


F.V. G.L S.Q. Q.M. Fcal Ftab
Tratamentos 3-1=2 0,0427 0,0427/2=0,0214 0,0214/0,0030=7,13 F(2,9)=4,26
Erro 3(4-1)=9 0,0263 0,0263/9=0,0030
(resíduo)
Total 12-1=11 0,0690
A conclusão, ao nível de significância de 5%, segue a regra:
Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes estatisticamente
Fcal<Ftab: não existe diferença estatística entre tratamentos

Então, como Fcal é maior que o Ftab, existe pelo menos um par de tratamentos com
diferença estatisticamente significativa. Para completar a análise, no caso de diferença estatística
pelo teste F e com número de tratamentos maior que dois, realizamos testes após a análise, para
comparar os pares de tratamentos e detalharmos o resultado. Esta análise será vista mais a
adiante no texto.
Além da análise de variância e médias dos tratamentos podemos apresentar algumas
medidas de precisão do experimento. Geralmente o desvio padrão, coeficiente de variação e o
erro padrão da média. A seguir vamos calcular as médias, desvios-padrões, coeficiente de
variação e erro padrão da média para o exemplo da Tabela 1.
Médias

141
Ti = Total do tratamento i
TRA = (0,898 + 0,752 + 0,770 + 0,713) = 3,133
TRB = 3,664
TRC = 3,610
TRA 3,13
m RA = = = 0,783
J 4
T 3,664
m RB = RB = = 0,916
J 4
T 3,610
m RC = RC = = 0,903
J 4

Desvio padrão
Variância para o tramento RA
(∑ x ) 2
( (0,898 + 0,752 + 0,770 + 0,713))
2

∑x 2
i −
n
i
(0,898 + 0,752 + 0,770
2 2 2
+ 0,713 ) −
2

4
S2RA = =
n −1 4 −1
2,473 − 2,454
= = 0,0063
3
Desvio padrão para o tratamento RA
SRA = S2RA = 0,0063 = 0,0794
Desvio padrão para o tratamento RB = 0,0352
Desvio padrão para o tratamento RC = 0,0340
O QMerro pode ser obtido pela média das variâncias dos tratamentos.
S2RA + S2RB + S2RC 0,0063 + 0,0014 + 0,0012
QMerro = = = 0,0030
I 3
Quanto menor o desvio padrão, mais homogêneo é o tratamento e, quanto menor o
QMerro, mais homogêneo é o experimento, ou seja, menor a variação ambiental.

Erro padrão da média

QMerro 0,0030
EPM RA = = = 0,0274
J 4
Quando todos os tratamentos tem o mesmo número de repetições, o EPM é igual para
todos. Então:
EPMRB=0,0274
EPMRC=0,0274

142
Quanto menor o EPM mais precisa é a média do tratamento. A maior precisão é devido a
menor QMerro e/ou maior número de repetições.

Coeficiente de variação
O coeficiente de variação é obtido por:

QMerro 0,0030
CV(%) = 100 = 100 = 6,32%
m 0,867

m = média geral do experimento =


∑y ij
=
10,4070
= 0,867
N 12

O coeficiente de variação é uma medida da precisão do experimento. Quanto menor for,


mais homogêneo é o experimento. Tem a vantagem de poder ser utilizado para comparar
diferentes experimentos. Valor alto, relativamente a outros experimentos, indica possíveis
valores discrepantes que podem ser devidos a falta de homogeneidade dos animais, instalações,
manejo e até mesmo por erros na coleta de dados, no laboratório ou na digitação dos dados.

Exigências para aplicação da análise de variância


Teoricamente são consideradas 4 exigências (pressupostos). Estes pressupostos podem
ser testados e caso não sejam atendidos, a análise de variância não deixa de ser adequada, mas
perde sua eficiência e outras análises podem ser mais adequadas. Os pressupostos são:

1) Os erros (resíduos) devem ter distribuição normal


2) Erros devem ter variância comum (homogeneidade de variâncias)
3) Erros devem ser independentes
4) Os efeitos do modelo devem ser aditivos

É importante ressaltar que a exigência é feita sobre os erros (resíduos) da variável


resposta e não sobre os dados (variável resposta).
Para testar a normalidade dos erros (resíduos) pode-se utilizar o teste de Shapiro-Wilk,
Komolgorov-Smirnov entre outros testes, juntamente com análise gráfica dos resíduos. A
homogeneidade das variâncias pode ser testada por testes como Hartley, Bartlett, entre outros e
também por análise gráfica. A independência dos erros pode ser verificada também por uma

143
análise gráfica. A aditividade dos efeitos é uma pressuposição teórica do modelo, considerando
que os tratamentos são qualitativos e é difícil de ser testada.
Das exigências acima as mais importantes são a normalidade seguida pela
homogeneidade de variâncias. Caso em uma análise observa-se extrema falta de
normalidade e/ou homogeneidade de variâncias, podemos utilizar um teste não paramétrico,
como os testes de Kruskal-Wallis e Friedman, que serão abordados mais adiante. A
transformação de dados, abordada em alguns livros, é uma técnica que na maioria das vezes não
resolve a falta de normalidade e homogeneidade de variâncias.

Testes estatísticos após a análise de variância


Após a análise de variância, no caso de diferença estatística pelo teste F e com número de
tratamentos superior a dois, realizamos testes para comparar pares de tratamentos. Entre os testes
mais comuns e que serão abordados aqui, temos o teste t, teste de Duncan, teste
Student-Nelwman-Keuls (SNK), teste de Tukey e deste de Scott-Knott. Na seqüência vamos
apresentar cada teste com um exemplo.

Teste t
O teste t após a análise de variância é uma adaptação do teste t para duas médias
amostrais. Para facilitar a resolução utilizaremos um valor calculado aqui chamado de diferença
mínima significativa (DMS) que será comparado com a diferença entre o par de médias avaliado.
A DMS para o teste t é obtida por:

QMerro QMerro
DMS = t (GLerro) +
ra rb
ra = número de repetiçõs do tratamento a
rb = número de repetiçõs do tratamento b
t (GLerro) = valor tabelado da distribuição t
Se o experimento possui o mesmo número de repetições em cada tratamento ra = rb = J
QMerro
Então a DMS = t (GLerro) 2
J
Para o exemplo da Tabela 1 temos:
Médias (ordene as médias da maior para a menor, pois facilita a resolução)
mRB=0,916
mRC=0,903
144
mRA=0,783

Diferença entre todos os possíveis pares de médias (chamaremos de contrastes de médias = Yi)
Y1 = mRB-mRC = 0,916-0,903 = 0,013
Y2 = mRB-mRA = 0,916-0,783 = 0,133
Y3 = mRC-mRA = 0,903-0,783 = 0,120

Diferença mínima significativa (DMS)

QMerro 0,0030
DMS = t (GLerro) 2 = 2,262 2 = 0,0876
J 4
t 5% (9) = 2,262

Regra decisória
|Y| ≥ DMS : ocorre diferença estatística entre o par de médias
|Y| < DMS : não ocorre diferença estatística entre o par de médias

Então, para Y1 (diferença entre as médias da RB com a RC) não ocorre diferença
estatística, pois a o contraste Y é menor que a DMS. Entre RB e RA e entre RC e RA ocorre
diferença estatística, pois o contraste é maior que a DMS.
Para resumir e facilitar a apresentação em tabelas utiliza-se letras ao lado das médias, de
modo que letras iguais indicam médias estatisticamente iguais, como apresentado a seguir:
mRB=0,916 a
mRC=0,903 a
mRA=0,783 b

Teste de Duncan
Posteriormente a utilização do teste t, surgiram vários outros testes com a intenção de
corrigir um problema com o teste t que será abordado mais adiante. Um desses testes é o de
Duncan. Sua DMS é obtida por:

145
QMerro  1 1 
DMS = qi  + 
2  ra rb 
ra = número de repetiçõs do tratamento a
rb = número de repetiçõs do tratamento b
qi = valor tabelado de Duncan
Se o experimento possui o mesmo número de repetições em cada tratamento ra = rb = J
QMerro
Então a DMS = di
J

Para o exemplo da Tabela 1 temos:


Médias (ordene as médias da maior para a menor, pois facilita a resolução)
mRB=0,916
mRC=0,903
mRA=0,783

Diferença entre todos os possíveis pares de médias (chamaremos de contrastes de médias = Yi)
Y1 = mRB-mRC = 0,916-0,903 = 0,013
Y2 = mRB-mRA = 0,916-0,783 = 0,133
Y3 = mRC-mRA = 0,903-0,783 = 0,120

Diferença mínima significativa (DMS)

QMerro
DMS = qi
J
i = p + 2, onde p é o número de médias entre as duas que estão sendo comparadas
Para comparar RB com RC e RC com RA i = 2 (DMS1 ).
Para comparar RB com RA i = 3 (DMS2 ).
qi 5% (i, GLerro); q25% (2,9) = 3,20; q35% (3,9) = 3,34
QMerro 0,0030
DMS1 = qi = 3,20 = 0,0876
J 4
QMerro 0,0030
DMS2 = qi = 3,34 = 0,0915
J 4

Regra decisória
|Y| ≥ DMS : ocorre diferença estatística entre o par de médias

146
|Y| < DMS : não ocorre diferença estatística entre o par de médias

Então, para Y1 (diferença entre as médias da RB com RC) não ocorre diferença
estatística, pois a o contraste Y é menor que a DMS1. Entre RB e RA e entre RC e RA ocorre
diferença estatística, pois o contraste é maior que a DMS1 e DMS2, respectivamente..
A conclusão foi a mesma do teste t, como pode ser verificado resumidamente a seguir:
mRB=0,916 a
mRC=0,903 a
mRA=0,783 b

Teste de Student-Newman-Keus (SNK)


O teste SNK é semelhante ao de Duncan, sendo a diferença no valor tabelado, onde são
encontrados valores em geral superiores aos tabelados de Duncan. Esse fato torna o teste em
geral mais rigoroso que o de Duncan, no sentido de concluir pela diferença estatística entre duas
médias. Sua DMS é obtida por:

QMerro  1 1 
DMS = qi  + 
2  ra rb 
ra = número de repetiçõs do tratamento a
rb = número de repetiçõs do tratamento b
qi = valor tabelado de SNK
Se o experimento possui o mesmo número de repetições em cada tratamento ra = rb = J
QMerro
Então a DMS = di
J
Para o exemplo da Tabela 1 temos:
Médias (ordene as médias da maior para a menor, pois facilita a resolução)
mRB=0,916
mRC=0,903
mRA=0,783

Diferença entre todos os possíveis pares de médias (chamaremos de contrastes de médias = Yi)
Y1 = mRB-mRC = 0,916-0,903 = 0,013
Y2 = mRB-mRA = 0,916-0,783 = 0,133

147
Y3 = mRC-mRA = 0,903-0,783 = 0,120

Diferença mínima significativa (DMS)

QMerro
DMS = qi
J
i = p + 2, onde p é o número de média entradas entre as duas que estão sendo comparadas
Para comparar RB com RC e RC com RA i = 2 (DMS1 ).
Para comparar RB com RA i = 3 (DMS2 ).
qi 5% (i, GLerro); q25% (2,9) = 3,20; q35% (3,9) = 3,95
QMerro 0,0030
DMS1 = qi = 3,20 = 0,0876
J 4
QMerro 0,0030
DMS2 = qi = 3,95 = 0,1082
J 4

Regra decisória
|Y| ≥ DMS : ocorre diferença estatística entre o par de médias
|Y| < DMS : não ocorre diferença estatística entre o par de médias

Então, para Y1 (diferença entre as médias da RB com RC) não ocorre diferença
estatística, pois a o contraste Y é menor que a DMS1. Entre RB e RA e entre RC e RA ocorre
diferença estatística, pois o contraste é maior que a DMS1 e a DMS2, respectivamente..
A conclusão foi a mesma do teste t e de Duncan, como pode ser verificado
resumidamente a seguir:
mRB=0,916 a
mRC=0,903 a
mRA=0,783 b

Teste de Tukey
O teste de Tukey é uma simplificação do teste SNK. No teste de Tukey temos somente
um valor tabelado e uma única DMS. Entre os testes apresentados até aqui é o mais rigoroso no
sentido de concluir pela diferença estatística entre duas médias. Também vem sendo mais
utilizado do que os testes t, Duncan e SNK.
Sua DMS é obtida por:

148
QMerro  1 1 
DMS = q  + 
2  ra rb 
ra = número de repetiçõs do tratamento a
rb = número de repetiçõs do tratamento b
q = valor tabelado de Tukey
Se o experimento possui o mesmo número de repetições em cada tratamento ra = rb = J
QMerro
Então a DMS = d
J

Para o exemplo da Tabela 1 temos:


Médias (ordene as médias da maior para a menor, pois facilita a resolução)
mRB=0,916
mRC=0,903
mRA=0,783

Diferença entre todos os possíveis pares de médias (chamaremos de contrastes de médias = Yi)
Y1 = mRB-mRC = 0,916-0,903 = 0,013
Y2 = mRB-mRA = 0,916-0,783 = 0,133
Y3 = mRC-mRA = 0,903-0,783 = 0,120

Diferença mínima significativa (DMS)

QMerro
DMS = q
J
q 5% (número de médias comparadas, GLerro); q 5% (3,9) = 3,95
QMerro 0,0030
DMS = q = 3,95 = 0,1082
J 4

Regra decisória
|Y| ≥ DMS : ocorre diferença estatística entre o par de médias
|Y| < DMS : não ocorre diferença estatística entre o par de médias

149
Então, para Y1 (diferença entre as médias da RB com RC) não ocorre diferença
estatística, pois a o contraste Y é menor que a DMS. Entre RB e RA e entre RC e RA ocorre
diferença estatística, pois o contraste é maior que a DMS.
A conclusão foi a mesma do teste t, Duncan e SNK, como pode ser verificado
resumidamente a seguir:
mRB=0,916 a
mRC=0,903 a
mRA=0,783 b

Teste de Scott-Knott
O teste de Scott-Knott consiste em separar as médias (ordenadas) em dois grupos para
encontrar a partição de dois grupos que maximize a soma de quadrados entre grupos. A partição
com maior soma de quadrados é então considerada a mais adequada e será testada
estatisticamente para verificar sua adequação. Caso seja significativa o processo se repete dentro
das partições até que não ocorram novas partições significativas.
Vamos exemplificar com um experimento de 3 repetições, GLerro=8, QMerro=244,5 e
as seguintes médias já ordenadas:
mc=117,33
ma=72,67
md=67,00
mb=66,33

Com estas médias criamos partições de dois grupos, sendo possível criar I-1 partições.
Neste exemplo temos:
mc VS ma md mb (partição 1)
mc ma VS md mb (partição 2)
mc ma md VS mb (partição 3)

Para cada partição formada calcula-se uma soma de quadrados da seguinte forma:

150
 T 2 T 2  (T + T ) 2
SQP =  1 + 2  − 1 2
 I1 I 2  I1 + I 2
I1 I2
T12 e T22 são os totais dos grupos 1 e 2 onde T1 = ∑ Yi e T2 = ∑ Yi
i =1 i =1

I1 e I 2 são o número de tratamentos em cada grupo

117,332 206 2  (117,33 + 206) 2


SQP1 =  + − = 27911,7 − 26135,6 = 1776,1
 1 3  1+ 3
190 2 133,332  (190 + 133,33) 2
SQP2 =  +  − = 26938,4 − 26135,6 = 802,8
 2 2  2+2
 257 2 66,332  (257 + 66,33) 2
SQP3 =  + − = 26415,0 − 26135,6 = 279,4
 3 1  3 +1

A soma de quadrados da partição 1 (SQP 1) foi a maior. Portanto a melhor divisão inicial
das médias é: mc VS ma md mb. No entanto é necessário testar se a mc é realmente diferente
estatisticamente das demais. Para este teste seguimos os seguintes passos:
Encontrar o valor de λ obtido por:
π SQP
λ= x 2 onde :
2(π − 2) σ̂ 0
π é uma constante igual a 3,14
SQP é a soma de quadrados a partição a ser testada
σ̂ 02 é o estimador da variância apresentado a seguir :
1 I  QMerro 
σ̂ 02 = ∑
I + GLerro  i =1
(Yi − Y) 2 + GLerro
 J



1  244,5  1
σ̂ 02 = (117,33 - 80,83) 2 + ... + (66,33 - 80,83) 2 + 8 = (1800 + 652) = 204,33
4 +8  3  12

π SQP 3,14 1776,1


λ= x 2 = x = 1,38 x 8,69 = 12
2(π − 2) σ̂ 0 2(3,14 − 2) 204,33

Encontrar o valor tabelado de qui-quadrado

 I  2  4 
χα2   = χ0, 05   = χ02, 05 ( 3,51 ≈ 4) = 9,488
π - 2   3,14 - 2 

151
A regra é:
λ ≥ χα2 : considera a partição significativa

λ < χα2 : considera a partição não significativa

No nosso caso λ > 9,488 e portanto a partição é significativa e, portanto, devemos repetir
o processo dentro dos grupos. Caso um dos grupos possua apenas uma média, não será
necessário o processo neste grupo. No caso repetimos o processo para as médias ma, md e mb.
No novo processo temos I=3 e, portanto, temos I-1=2 partições possíveis. São elas:
ma VS md mb (partição 1)
ma md VS mb (partição 2)

 72,67 2 133,332  (72,67 + 133,33) 2


SQP1 =  +  − = 14169,4 − 14145,3 = 24,1
 1 2  1+ 2
139,67 2 66,332  (139,67 + 66,33) 2
SQP2 =  + − = 14153,5 − 14145,3 = 8,2
 2 1  2 +1

A soma de quadrados da partição 1 (SQP1) foi à maior. Portanto a melhor divisão das três
médias é: ma VS md mb. No entanto é necessário testar esta partição, com os seguintes passos:

1  244,5  1
σ̂ 02 = (72,67 - 68,67) 2 + ... + (66,33 - 68,67) 2 + 8 = (24,26 + 652) = 61,48
3+8  3  11

π SQP 3,14 24,1


λ= x 2 = x = 1,38 x 0,39 = 0,54
2(π − 2) σ̂ 0 2(3,14 − 2) 61,48

Encontrar o valor tabelado de qui-quadrado

 I  2  3  2
χα2   = χ0, 05   =0, 05 ( 2,63 ≈ 3) = 7,815
π - 2   3,14 - 2 

No nosso caso λ < 7,815 e portanto a partição é não significativa e encerramos a análise
ficando as médias agrupadas da seguinte forma:

152
mc=117,33 a
ma=72,67 b
md=67,00 b
mb=66,33 b

No exemplo da Tabela 1 temos três médias m RB=0,916, mRC=0,903 e mRA=0,783. Neste


exemplo teríamos as seguintes partições:
mRB VS mRC mRA (partição 1)
mRB mRC VS mRA (partição 2)
Com as seguintes somas de quadrados:
 0,916 2 1,686 2  (0,916 + 1,686) 2
SQP1 =  + − = 2,2604 − 2,2568 = 0,0036
 1 2  1+ 2
1,819 2 0,7832  (1,819 + 0,783) 2
SQP2 =  +  − = 2,2675 − 2,2568 = 0,0107
 2 1  2 +1

A soma de quadrados da partição 2 (SQP2) foi à maior. Portanto a melhor divisão das três
médias é: mRB mRC VS mRA. No entanto é necessário testar esta partição, com os seguintes
passos:

1  0,0030  1
σ̂ 02 = (0,916 - 0,867) 2 + ... + (0,783 - 0,867) 2 + 9 = (0,0108 + 0,0068) = 0,0015
3+9  4  12

π SQP 3,14 0,0107


λ= x 2 = x = 1,38 x 7,13 = 9,844
2(π − 2) σ̂ 0 2(3,14 − 2) 0,0015

Encontrar o valor tabelado de qui-quadrado

 I  2  3  2
χα2   = χ0, 05   =0, 05 ( 2,63 ≈ 3) = 7,815
 π - 2   3,14 - 2 

Como λ > 7,815 a partição é significativa e prosseguimos a análise no grupo de duas


médias, que só tem uma partição possível:
mRB VS mRC.

153
Esta partição tem a seguinte soma de quadrados:

 0,916 2 0,9032  (0,916 + 0,903) 2


SQP =  + − = 1,6545 − 0,6544 = 0,0001
 1 1  1 +1

Para testar a partição temos:


1  0,0030  1
σ̂ 02 = (0,916 - 0,9095) 2 + (0,903 - 0,9095) 2 + 9 = (0,00009 + 0,0068) = 0,0006
2+9  4  12

π SQP 3,14 0,0001


λ= x 2 = x = 1,38 x 0,1667 = 0,230
2(π − 2) σ̂ 0 2(3,14 − 2) 0,0006

Encontrar o valor tabelado de qui-quadrado

 I  2  2  2
χα2   = χ0, 05   =0, 05 (1,75 ≈ 2) = 5,991
π - 2   3,14 - 2 

Como λ < 5,991 a partição é não significativa e encerramos a análise com o seguinte
resultado (mesmo dos demais testes apresentados anteriormente para este exemplo):
mRB=0,916 a
mRC=0,903 a
mRA=0,783 b

# programação em R
# entrar com a tabela abaixo em formato de tabela denominado dados

tratamentos resposta
ra 0.898
ra 0.752
ra 0.770
ra 0.713
rb 0.912
rb 0.892
rb 0.893
rb 0.967
rc 0.899
rc 0.932

154
rc 0.856
rc 0.923

require(easyanova)
ea1(dados, design=1)

$`Analysis of variance`
df type I SS mean square F value p>F
treatments 2 0.0427 0.0214 7.267 0.0132
Residuals 9 0.0264 0.0029 - -

$Means
treatment mean standard.error tukey snk duncan t scott_knott
1 rb 0.9160 0.0271 a a aa a
2 rc 0.9025 0.0271 a a aa a
3 ra 0.7832 0.0271 b b bb b

$`Multiple comparison test`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 rb - rc 0.0135 0.9344 0.7328 0.7328 0.7328
2 rb - ra 0.1328 0.0176 0.0176 0.0088 0.0071
3 rc - ra 0.1193 0.0303 0.0125 0.0125 0.0125

$`Residual analysis`
values
p.value Shapiro-Wilk test 0.4177
p.value Bartlett test 0.2658
coefficient of variation (%) 6.2500
first value most discrepant 1.0000
second value most discrepant 4.0000
third value most discrepant 8.0000

155
Para esta análise temos que carregar o pacote “easyanova” que dispõe da função ea1.
Nesta função entramos com os dados em forma de tabela “data.frame” e definimos o
delineamento com o argumento design. A tabela foi denominada “dados” e utilizamos o design 1
(delineamento inteiramente ao acaso).
No resultado temos o valor de p do teste F que indica diferença entre tratamentos
(p<0,05). Temos também o resultado para todos os testes, com as letras, valores dos contrastes e
valores de p para cada contraste.
Temos também o resultado de uma análise de resíduos. Nesta análise o valor de p para o
teste de Shapiro-Wilk indica normalidade (p>0,05). O valor de p para o teste de Bartlett indica
homogeneidade de variâncias (p>0,05). Temos ainda o coeficiente de variação e os três valores
mais discrepantes dos dados, que podem ser observado também na Figura 1 (figura gerada pela
função ea1).

Figura 1. Gráfico dos resíduos padronizados para cada unidade experimental

No gráfico em questão (Figura 1) observa-se o número 1 indicando o primeiro valor do


tratamento x (0,898) e assim sucessivamente na seqüência de dados. O número 1 tem o valor
mais discrepante dos dados. Valores que ultrapassam 2,5 escores z podem ser considerados

156
outliers, principalmente se não ocorre normalidade e o coeficiente de variação é elevado para o
tipo de variável em análise. Porém, considerar um valor outlier e retirar o mesmo é uma decisão
que deve ser analisada do ponto de vista estatístico (valor muito discrepante, falta de
normalidade, coeficiente de variação elevado, etc) e também prático (animal fora do padrão,
problema com análise laboratorial do dado em questão, unidade experimental com algum
problema, etc). Caso o dado se enquadre nestas características, podemos considerar a sua retirada
para posterior análise.

Análise de variância com diferente número de repetições dos tratamentos

Experimentos onde todos os tratamentos possuem o mesmo número de repetições são


considerados experimentos balanceados. Caso ocorra diferença no número de repetições, temos
um experimento desbalanceado.
Geralmente os experimentos são planejados para serem balanceados. Porém, é comum
ocorrer a perda de unidades experimentais, tornando o experimento desbalanceado. Durante o
experimento pode ocorrer a morte de um animal. Também pode ocorrer algum dano (virose,
fratura, intoxicação, etc) tornando inviável para o animal continuar no experimento e, mesmo
que continue, os dados gerados podem ser muito discrepantes, sendo mais adequado descartá-los.
Erros laboratoriais também podem gerar a perda de dados e levar a experimentos
desbalanceados.
Em caso de experimentos desbalanceados a resolução matemática é fácil considerando o
delineamento inteiramente ao acaso. Porém, em delineamentos mais complexos, a resolução é
complicada sem ajuda de softwares estatísticos. Vamos fazer um exemplo do delineamento
inteiramente ao acaso (Tabela 3).

Tabela 3. Tempo efetivo de anestesia (minutos) de 4 anestésicos, avaliados em 3 ratos cada, em


um delineamento inteiramente ao acaso.
Repetições
Anestésicos
1 2 3
x 71 82 65
y 62 88 49
z 60 50 91
k 109 - 121

157
Neste experimento ocorreu o óbito de um dos ratos do tratamento k. Não devemos inserir
o valor 0 e nem a média de 109 e 121 para o dado faltante. A solução é a seguinte:

I, J
SQtotal = ∑Y
i =1, j=1
2
ij −FC

I,J

∑Y
i =1, j=1
2
ij = 712 + 62 2 + 60 2 + ... + 1212 = 70882

2
 I, J 
 ∑ Yij 
 
 = (71 + 62 + 60 + ... + 121) = (848) = 719104 = 65373
2 2
FC = 
i =1, j=1

N 11 11 11
SQtotal = 70882 − 65373 = 5509

Ti2 I
 2182 199 2 2012 230 2 
SQtratamentos = ∑ − FC =  + + +  − 65373 = 68959 − 65373 = 3584
i =1 ri  3 3 3 2 
Ti = Total do tratamento i
Tx = (71 + 82 + 65) = 218; Ty = 199; Tz = 201; Tk = 230
ri = número de repetições para o tratamento i
rx = 3; ry = 3; rz = 3; rk = 2
SQtotal = SQtratamentos + SQerro
SQerro=SQtotal-SQtratamentos = 5509-3584=1925

Após calcularmos as somas de quadrados criamos o quadro da análise de variância apresentado a


seguir:
F.V. G.L S.Q. Q.M. Fcal Ftab
Tratamentos 4-1=3 3584 3584/3=1195 1195/275=4,35 F(3,7)=4,35
Erro 10-3=7 1925 1925/7=275
(resíduo)
Total 11-1=10 5509

O grau de liberdade do erro em caso de desbalanceamento deve ser obtido pela diferença
GLtotal – GLtratamentos.
A conclusão, ao nível de significância de 5%, segue a regra:
Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes estatisticamente

158
Fcal<Ftab: não existe diferença estatística entre tratamentos

Então, como Fcal é igual ao Ftab, existe pelo menos um par de tratamentos com diferença
estatisticamente significativa. Para completar a análise, no caso de diferença estatística pelo teste
F e com número de tratamentos maior que dois, realizamos testes após a análise, comparando
pares de tratamentos. Neste exemplo vamos usar apenas o teste de Tukey.
Obtendo as diferenças mínimas significativas para comparar pares com 3 e 3 repetições e
3 e 2 repetições.

QMerro  1 1  275  1 1 
DMS1 = q  +  = q(4,7)  +  = 4,68 91,67 = 44,81
2  ra rb  2 3 3 
QMerro  1 1  275  1 1 
DMS2 = q  +  = q(4,7)  +  = 4,68 114,58 = 50,10
2  ra rb  2 3 2 

Médias já ordenadas:
mk=115,00 a
mx=72,67 a
mz=67,00 a
my=66,33 a
Contrastes de todos os pares de médias
Y1=mk-mx=42,33 vs DMS2
Y2=mk-mz=48,00 vs DMS2
Y3=mk-my=48,67 vs DMS2
Y4=mx-mz=5,67 vs DMS1
Y5=mx-my=6,33 vs DMS1
Y3=mz-my=0,67 vs DMS1

No teste de Tukey não ocorre diferença para nenhum par de tratamentos. Este é um dos
problemas que podem ocorrer. O teste F é significativo e o teste após a análise de variância não é
significativo para nenhum par de tratamentos. Neste caso podemos optar por outro teste menos
rigoroso.
# programação em R
# entrar com a tabela abaixo que será denominada “dados”
tratamentos resposta
159
x 71
x 82
x 65
y 62
y 88
y 49
z 60
z 50
z 91
k 109
k 121
require(easyanova)
ea1(dados, design=1)
$`Analysis of variance`
df type I SS mean square F value p>F
treatments 3 3585.576 1195.1919 4.3499 0.0499
Residuals 7 1923.333 274.7619 - -

$Means
treatment mean standard.error tukey snk duncan t scott_knott
1 k 115.0000 11.7210 a a aa a
2 x 72.6667 9.5701 a b bb b
3 z 67.0000 9.5701 a b bb b
4 y 66.3333 9.5701 a ab bb b

$`Multiple comparison test`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 k - x 42.3333 0.0977 0.0266 0.0266 0.0266
2 k - z 48.0000 0.0598 0.0368 0.0186 0.0157
3 k - y 48.6667 0.0565 0.0565 0.0192 0.0147
4 x - z 5.6667 0.9735 0.6880 0.6880 0.6880
5 x - y 6.3334 0.9638 0.8881 0.6655 0.6540
6 z - y 0.6667 1.0000 0.9621 0.9621 0.9621

$`Residual analysis`

160
values
p.value Shapiro-Wilk test 0.2865
p.value Bartlett test 0.6249
coefficient of variation (%) 21.5000
first value most discrepant 9.0000
second value most discrepant 5.0000
third value most discrepant 6.0000

No resultado do R observamos o valor de p do teste F. O valor foi muito próximo a 0,05,


como já podíamos esperar devido a igualdade do valor tabelado e calculado. Podemos observar
também o resultado dos demais testes e a análise de resíduos que indica normalidade e
homogeneidade de variâncias.

Análise de variância em delineamento de blocos casualizados (DBC)

O objetivo de um pesquisador, geralmente, é encontrar efeito significativo entre


diferentes tratamentos (rações, medicamentos, métodos, técnicas, equipamentos, genótipos, etc).
Para este objetivo, quanto menor o QMerro, melhor o controle ambiental (menor variância
ambiental) no experimento e mais facilmente será encontrado diferença significativa entre
tratamentos. No delineamento de blocos ao acaso os tratamentos são distribuídos totalmente ao
acaso dentro de “blocos”(restrição na casualização). Os princípios considerados são: repetição;
casualização e controle local.
É um delineamento indicado para condições experimentais heterogêneas, com
heterogeneidade entre blocos e homogeneidade dentro de blocos. São exemplos de
heterogeneidade em experimentos o peso inicial de animais, idade de animais, faixas de solo,
experimentos com diferentes locais ou datas, etc.
Vamos considerar um experimento em delineamento de blocos ao acaso (DBC) para
avaliar o peso de suínos (kg) em função de quatro tratamentos (rações A, B, C e D). Os animais
foram divididos em grupos de acordo com o peso inicial (blocos) e a unidade experimental foi
constituída por uma baia com 6 animais (Tabela 4).

161
Tabela 4. Peso de suínos (kg) em função de quatro tratamentos em delineamento de blocos ao
acaso.
Tratamentos
Blocos Totais
A B C D
1 57 64 70 78 269
2 65 66 75 70 276
3 69 70 82 80 301
Totais 191 200 227 228 846

Neste experimento foram necessários 72 animais. Caso os animais tivessem


homogeneidade de peso no inicio o delineamento inteiramente ao acaso seria adequado. No
entanto, devido a heterogeneidade, optou-se pelo delineamento de blocos ao acaso. Assim, os 72
animais foram divididos em três grupos de peso, dando origem aos blocos do experimento.
Foram 24 animais pesados, 24 com peso intermediário e 24 leves. Neste delineamento o peso
dentro do bloco deve se homogêneo, mas pode ser heterogêneo entre blocos.
O desenho do experimento pode ser observado a seguir, com 4 baias para cada bloco,
sendo 4 pesados (BP), 4 intermediários (BI) e 4 leves (BL). Dentro de cada bloco foram
distribuídos 4 distintos tratamentos (TA, TB, TC, TD) de forma casual (aleatória), totalizando 12
unidades experimentais (12 baias).

BP TC BI TB BI TC BP TD BL TD BI TA
corredor corredor
BI TD BL TC BP TB BP TA BL TB BL TA

A análise de variância deste experimento é apresentada a seguir:

I, J
SQtotal = ∑Y
i =1, j=1
2
ij −FC

I,J

∑Y
i =1, j=1
2
ij = 57 2 + 652 + 69 2 + ... + 80 2 = 60220

162
2
 I, J 
 ∑ Yij 
 
 = (57 + 65 + 69 + ... + 80) = (846) = 59643
2 2
FC = 
i =1, j=1

N 12 12
SQtotal = 60220 − 59643 = 577
I

∑T i
2

(1912 + 200 2 + 227 2 + 2282 )


SQtratamentos = i =1
− FC = − 59643 = 59998 − 59643 = 355
J 3

∑B 2
j
(269 2 + 276 2 + 3012 )
j=1
SQblocos = − FC = − 59643 = 59785 − 59643 =141,5
I 4
B j = total do bloco j

SQtotal = SQtratamentos + SQblocos + SQerro


SQerro=SQtotal-SQtratamentos-SQblocos = 577-355-141,5=80,5

Após calcularmos as somas de quadrados criamos o quadro da análise de variância apresentado a


seguir:
F.V. G.L S.Q. Q.M. Fcal Ftab
Tratamentos (I-1)= 4-1=3 355,0 355,0/3=118,33 118,33/13,42=8,82 F(3,6)=4,76
Blocos (J-1)= 3-1=2 141,5 ---
Erro (I-1)(J-1) =6 80,5 80,5/6=13,42
(resíduo)
Total N-1=11 577,0 ---

A conclusão, ao nível de significância de 5%, segue a regra:


Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes estatisticamente
Fcal<Ftab: não existe diferença estatística entre tratamentos

Então, como Fcal é maior que o Ftab, existe pelo menos um par de tratamentos com
diferença estatisticamente significativa. Prosseguindo com o teste de Tukey vamos
primeiramente obter a diferença mínima significativa.

QMerro 13,42
DMS = q = q(4,6) = 4,90 4,4733 = 10,36
J 3

163
Médias já ordenadas:
mTD=76,00 a
mTC=75,67 a
mTB=66,67 a b
mTA=63,67 b
Contrastes de todos os pares de médias
Y1= mTD - mTC= 0,33
Y2= mTD - mTB= 9,33
Y3= mTD - mTA= 12,33
Y4= mTC - mTB = 9,00
Y5= mTC - mTA = 12,00
Y3= mTB - mTA = 3,00

No resultado consideramos que médias seguidas de mesma letra são estatisticamente


iguais pelo teste de Tukey, considerando 5% de significância.

# programação em R
# entrada com a tabela abaixo denominada “dados”
Tratamentos Blocos Peso
TA BL 57
TA BI 65
TA BP 69
TB BL 64
TB BI 66
TB BP 70
TC BL 70
TC BI 75
TC BP 82
TD BL 78
TD BI 70
TD BP 80

require(easyanova)
ea1(dados, design=2)

164
$`Analysis of variance`
df type III SS mean square F value p>F
treatments 3 355.0 118.3333 8.8199 0.0128
blocks 2 141.5 70.7500 5.2733 0.0477
Residuals 6 80.5 13.4167 - -

$`Adjusted means`
treatment adjusted.mean standard.error tukey snk duncan t scott_knott
1 TD 76.0000 2.1148 a a aa a
2 TC 75.6667 2.1148 a a aa a
3 TB 66.6667 2.1148 ab b bb b
4 TA 63.6667 2.1148 b b bb b

$`Multiple comparison test`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 TD - TC 0.3333 0.9994 0.9149 0.9149 0.9149
2 TD - TB 9.3333 0.0745 0.0469 0.0237 0.0206
3 TD - TA 12.3333 0.0239 0.0239 0.0080 0.0062
4 TC - TB 9.0000 0.0851 0.0237 0.0237 0.0237
5 TC - TA 12.0000 0.0269 0.0165 0.0083 0.0070
6 TB - TA 3.0000 0.7538 0.3545 0.3545 0.3545

$`Residual analysis`
values
p.value Shapiro-Wilk test 0.9534
p.value Bartlett test 0.8371
coefficient of variation (%) 5.2000
first value most discrepant 10.0000
second value most discrepant 11.0000
third value most discrepant 1.0000

165
Para esta análise carregamos o pacote “easyanova” que dispõe da função ea1. Nesta
função entramos com os dados em forma de tabela “data.frame” e definimos o delineamento com
o argumento design. A tabela foi denominada “dados” e utilizamos o design 2 (delineamento de
blocos ao acaso). Note que tratamentos ficam na coluna 1 e blocos na coluna 2. Esta ordem é
importante na análise e deve ser mantida.
No resultado temos o valor de p do teste F que indica diferença entre tratamentos
(p<0,05). Temos também o resultado para todos os testes, com as letras, valores dos contrastes e
valores de p para cada contraste. Pode-se observar que no teste de Tukey ocorre sobreposição de
letras e nos demais não. Porém, o teste de Scott-Knott é o único onde essa sobreposição nunca
ocorre.
Temos também o resultado de uma análise de resíduos. Nesta análise o valor de p para o
teste de Shapiro-Wilk indica normalidade (p>0,05). O valor de p para o teste de Bartlett indica
homogeneidade de variâncias (p>0,05). Temos ainda o coeficiente de variação e os três valores
mais discrepantes dos dados.

Análise de variância em delineamento quadrado latino (DQL)

Indicado para condições experimentais heterogêneas onde se pretende controlar duas


variáveis (geralmente em experimentos com animais). Os princípios básicos utilizados são:
repetição, casualização e controle local.
Como exemplo considere a avaliação da pressão arterial, freqüência cardíaca e
respiratória em cães, utilizando 5 diferentes tipos de anestesia (tratamentos). Para realizarmos
este experimento em delineamento inteiramente ao acaso deveríamos utilizar muitos cães que,
provavelmente, seriam muito heterogêneos (raça, porte, idade, etc). Utilizar o delineamento de
blocos casualizados também não seria adequado, pois o mesmo controla apenas uma variável.
Então, neste caso, poderíamos fazer o controle do porte do animal, mas deixaríamos outras
importantes fontes de variação sem controle (raça, idade, etc). Uma boa alternativa seria o
delineamento em quadrado latino, “controlando” o efeito do animal e do dia da execução da
anestesia (Tabela 5). A vantagem neste caso seria o “controle” do efeito de todas as variáveis do
animal (porte, raça, idade, etc), com um número reduzido de animais.

166
Tabela 5. Esquema experimental de um quadrado latino 5x5, com 5 animais avaliados com 5
diferentes procedimentos anestésicos em 5 dias de execução.
Dias de execução
Animais
I II III IV V
1 A E B D C
2 D B A C E
3 C A E B D
4 E C D A B
5 B D C E A

Note (Tabela 5) que o número de tratamentos (anestésicos) é igual ao número de linhas


(animais) e colunas (dias de execução). Assim, número de tratamentos I é igual ao número de
linhas L e colunas C. Então vamos considerar que I = L = C = K, com os graus de liberdade
apresentados na Tabela 6.

Tabela 6. Fontes de variação (F.V.) e graus de liberdade (G.L.) para um quadrado latino 5x5,
com 5 animais avaliados com 5 diferentes procedimentos anestésicos em 5 dias de execução.
F.V. G.L.
Tratamento (anestésicos) (K – 1) = 4
Linhas (animais) (K – 1) = 4
Colunas (dias) (K – 1) = 4
Erro (K – 1) (K – 2) = 12
Total K2 – 1 = 24
Para fazer a distribuição dos tratamentos no quadrado fazemos o seguinte procedimento,
considerando 5 tratamentos (A, B, C, D e E):
1) Faz-se a distribuição sistemática dos tratamentos dentro das linhas, de maneira que cada
coluna contenha também todos os tratamentos.
Colunas
Linha
1 2 3 4 5
1 A B C D E
2 E A B C D
3 D E A B C
4 C D E A B
5 B C D E A

2) Faz-se a distribuição ao acaso das linhas. Exemplo (sorteio de linhas = 2,4,5,1,3):


E A B C D
C D E A B
B C D E A

167
A B C D E
D E A B C

3) Após a casualização das linhas, faz-se a distribuição ao acaso das colunas obtendo assim o
quadrado final. Exemplo (sorteio de colunas = 3,5,1,4,2):
B D E C A
E B C A D
D A B E C
C E A D B
A C D B E

Vamos fazer um exemplo com os dados da Tabela 7, onde avaliou-se a digestibilidade


aparente de carboidratos totais (%) de acordo com a ração utilizada, o animal e o período
experimental

Tabela 7. Digestibilidade aparente de carboidratos totais (%) de acordo com a ração utilizada, o
animal e o período experimental.
Período
Animal Totais
P1 P2 P3 P4
1 43A 50B 72D 58C 223
2 60B 60C 49A 70D 239
3 76D 46A 73C 63B 258
4 72C 75D 74B 50A 271
Totais 251 231 268 241 991

Calculando as somas de quadrados


I,J, K
( 991) 2
SQtotal = ∑ Yijk2 − FC = (432 + 602 + ... + 502 ) − 16
= 63373 − 61380,06 = 1992,94
i =1, j=1, k =1
2
 I,J,K 
 ∑ Yijk 
 
FC =  i =1, j=1, k =1 

k2

K
Tk2 (188 2 + 247 2 + 2632 + 2932 )
SQtratamentos = ∑ − FC = − 61380 ,06 = 1462 ,69
k =1 K 4
168
L2i
I
(2232 + ... + 2712 )
SQlinhas = ∑ − FC = − 61380 ,06 = 333,69
i =1 K 4

J C 2j (2512 + ... + 2412 )


SQcolunas∑ − FC = − 61380,06 = 186,69
j=1 K 4

SQtotal=SQtratamentos+SQlinhas+SQcolunas+SQerro
SQerro = SQtotal –Sqtratamentos-SQlinhas-SQcolunas
SQResíduo = 1992,94 – 1462,69 – 333,69 – 186,69 = 9,87

Após calcularmos as somas de quadrados criamos o quadro da análise de variância apresentado a


seguir:
F.V. G.L. S.Q. Q.M. Fcal Ftab
Tratamento (K – 1)=3 1462,69 1462,69/3=487,56 487,56/1,65=296 F(3,6)=4,76
Linhas (K – 1)=3 333,69 --- --- ---
Colunas (K – 1)=3 186,69 --- --- ---
Erro (K – 1)(k – 2)=6 9,87 9,87/6=1,65 --- ---
Total K2 – 1=15 1992,94 --- --- ---

A conclusão, ao nível de significância de 5%, segue a regra:


Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes estatisticamente
Fcal<Ftab: não existe diferença estatística entre tratamentos

Então, como Fcal é maior que o Ftab, existe pelo menos um par de tratamentos com
diferença estatisticamente significativa. Prosseguindo com o teste de Tukey, vamos
primeiramente obter a diferença mínima significativa.

QMerro 1,65
DMS = q = q(4,6) = 4,90 0,4100 = 3,14
J 4

169
Médias já ordenadas:
mD=293/4 = 73,25 a
mC=263/4 = 65,75 b
mB=247/4 = 61,75 c
mA=188/4 = 47,00 d

Contrastes de todos os pares de médias


Y1= mD - mC= 7,50
Y2= mD - mB= 11,50
Y3= mD - mA= 26,25
Y4= mC - mB = 4,00
Y5= mC - mA = 18,75
Y3= mB - mA = 14,75

No resultado consideramos que médias seguidas de mesma letra são estatisticamente


iguais pelo teste de Tukey, considerando 5% de significância.
# programação em R
# entrada com a tabela abaixo denominada “dados”
tratamentos animais períodos resposta
A 1 1 43
B 2 1 60
D 3 1 76
C 4 1 72
B 1 2 50
C 2 2 60
A 3 2 46
D 4 2 75
D 1 3 72
A 2 3 49
C 3 3 73
B 4 3 74
C 1 4 58
D 2 4 70
B 3 4 63
A 4 4 50

require(easyanova)

170
ea1(dados,design=3)
$`Analysis of variance`
df type III SS mean square F value p>F
treatments 3 1462.6875 487.5625 296.2405 <0.001
rows 3 333.6875 111.2292 67.5823 <0.001
columns 3 186.6875 62.2292 37.8101 <0.001
Residuals 6 9.8750 1.6458 - -

$`Adjusted means`
treatment adjusted.mean standard.error tukey snk duncan t scott_knott
1 D 73.25 0.6415 a a aa a
2 C 65.75 0.6415 b b bb b
3 B 61.75 0.6415 c c cc c
4 A 47.00 0.6415 d d dd d
$`Multiple comparison test`
pair contrast p(tukey) p(snk) p(duncan) p(t)
1D-C 7.50 0.0007 0.0002 0.0002 0.0002
2D-B 11.50 0.0001 0.0000 0.0000 0.0000
3D-A 26.25 0.0000 0.0000 0.0000 0.0000
4C-B 4.00 0.0176 0.0045 0.0045 0.0045
5C-A 18.75 0.0000 0.0000 0.0000 0.0000
6B-A 14.75 0.0000 0.0000 0.0000 0.0000

$`Residual analysis`
values
p.value Shapiro-Wilk test 0.7694
p.value Bartlett test 0.1330
coefficient of variation (%) 2.0700
first value most discrepant 5.0000
second value most discrepant 12.0000
third value most discrepant 1.0000

171
Para esta análise carregamos o pacote “easyanova” que dispõe da função ea1. Nesta
função entramos com os dados em forma de tabela “data.frame” e definimos o delineamento com
o argumento design. A tabela foi denominada “dados” e utilizamos o design 3 (delineamento em
quadrado latino). Note que tratamentos ficam na coluna 1 e animais e períodos nas colunas 2 e 3
e a variável resposta na coluna 4. Esta ordem é importante e deve ser mantida.
No resultado temos o valor de p do teste F que indica diferença entre tratamentos
(p<0,05). Temos também o resultado para todos os testes de médias, o teste de Shapiro-Wilk que
indica normalidade (p>0,05), o teste de Bartlett indica homogeneidade de variâncias (p>0,05), o
coeficiente de variação e os três valores mais discrepantes dos dados.
Enfim, devemos ficar atentos nos seguintes aspectos em relação ao quadrado latino. No
quadrado latino não deve haver interação entre tratamentos x fator considerado na linha e
tratamento vs fator considerado na coluna. É um delineamento que tem o menor grau de
liberdade do erro em comparação com o inteiramente ao acaso e blocos ao acaso. Tem a
limitação do número de tratamentos ser igual ao de linhas e colunas. Então, em quadrados
pequenos (com 3 ou 4 tratamentos), sugere-se duplicar ou triplicar o quadrado para aumentar o
grau de liberdade do erro. Uma regra geral é que o grau de liberdade do erro (resíduo) não seja
menor que 10.
Quadrados Latinos Repetidos

Os quadrados latinos repetidos são realizados para aumentar a precisão das médias
experimentais, geralmente em quadrados latinos 3x3 ou 4x4, por serem muito pequenos. Estes
experimentos podem ser feitos de três formas. Vamos exemplificar considerando um quadrado
latino 4x4 com 4 tratamentos, 4 animais e 4 períodos. Assim temos:
1) Esquema para duas repetições do quadrado. O segundo quadrado é feito com outros animais
em outros períodos. Os dois quadrados são realizados em tempos diferentes.
Quadrado 1 Quadrado 2
Períodos Animais Períodos
Animais
I II III IV V VI VII VIII
1 B C D A .................... 5 B C D A
2 C D A B 6 C D A B
3 A B C D 7 A B C D
4 D A B C 8 D A B C

172
2) Esquema para duas repetições do quadrado. O segundo quadrado é feito com outros animais
nos mesmos períodos. Os dois quadrados são realizados simultaneamente.
Quadrado 1 Quadrado 2
Períodos Animais Períodos
Animais
I II III IV I II III IV
1 B C D A .................... 5 B C D A
2 C D A B 6 C D A B
3 A B C D 7 A B C D
4 D A B C 8 D A B C

3) Esquema para duas repetições do quadrado. O segundo quadrado é feito com os mesmos
animais em outros períodos. Os dois quadrados são realizados em tempos diferentes.
Quadrado 1 Quadrado 2
Períodos Animais Períodos
Animais
I II III IV V VI VII VIII
1 B C D A .................... 1 B C D A
2 C D A B 2 C D A B
3 A B C D 3 A B C D
4 D A B C 4 D A B C
Os esquemas da análise de variância, com fontes de variação e graus de liberdade ficam:

1) Esquema para duas repetições do quadrado com outros animais em outros períodos
F.V. G.L.
Tratamentos (K - 1) = 4-1=3
Animais/Quadrados (K - 1)L = (4-1)2=6
Períodos/Quadrados (K - 1)L = (4-1)2=6
Quadrados (L - 1) = 1
Erro diferença* = 15
Total LK2 – 1 = 32-1=31
* a diferença do G.L.total – G.L. de tratamentos, linhas, colunas e quadrados.

2) Esquema para duas repetições do quadrado com outros animais nos mesmos períodos
F.V. G.L.
Tratamentos (K - 1) = 4-1=3
Animais/Quadrados (K - 1)L = (4-1)2=6
Períodos (K - 1) = 4-1=3
Quadrados (L - 1) = 1
Erro diferença* = 18
Total LK2 – 1 = 32-1=31
* a diferença do G.L.total – G.L. de tratamentos, linhas, colunas e quadrados.

173
3) Esquema para duas repetições do quadrado com os mesmos animais em outros períodos
F.V. G.L.
Tratamentos (K - 1) = 4-1=3
Animais (K - 1) = 4-1=3
Períodos/Quadrados (K - 1)L = (4-1)2=6
Quadrados (L - 1) = 1
Erro diferença* = 18
Total LK2 – 1 = 32-1=31
* a diferença do G.L.total – G.L. de tratamentos, linhas, colunas e quadrados.

Como exemplo vamos considerar um experimento para avaliar a digestibilidade aparente


de carboidratos totais (%) de acordo com a ração utilizada, o animal e o período experimental,
realizado em um quadrado latino duplicado com os mesmos animais em outros períodos.

Quadrado 1 Quadrado 2
Período Período
Animal Totais Animal
P1 P2 P3 P4 P5 P6 P7 P8 Totais
1 43A 50B 72D 58C 223 1 51A 66C 69B 71D 257
2 60B 60C 49A 70D 239 ....... 2 71D 54B 44A 62C 231
3 76D 46A 73C 63B 258 3 73C 42A 75D 65B 255
4 72C 75D 74B 50A 271 4 72B 77D 73C 54A 276
Totais 251 231 268 241 991 Totais 267 239 261 252 1019

Calculando as somas de quadrados

I,J, K, L
( 991 + 1019) 2
SQtotal = ∑ Yijkl2 − FC = (432 + 602 + ... + 542 ) − (16 x 2)
= 130170 − 126253 = 3917
i =1, j=1, k =1, l =1
2
 I,J,K,L 
 ∑ Yijkl 
 
FC =  i =1, j=1, k =1, l =1 

k 2L

K
Tk2 (379 2 + 507 2 + 537 2 + 587 2 )
SQtratamentos = ∑ − FC = − 126253 = 2951
k =1 LK ( 2 x 4)

174
I
L2i (480 2 + 470 2 + 5132 + 547 2 )
SQlinhas = ∑ − FC = − 126253 = 457
i =1 LK ( 2 x 4)
Q l2 L
(9912 + 1019 2 )
SQquadrado∑ 2 − FC = − 126253 = 25
l =1 K 16

J C 2j (2512 + ... + 252 2 )


SQcolunas∑ − FC − SQquadrado = − 126253 − 25 = 298
j=1 K 4

SQtotal=SQtratamentos+SQlinhas+SQcolunas+SQquadrado+SQerro
SQerro = SQtotal –Sqtratamentos-SQlinhas-SQcolunas-SQquadrado
SQResíduo = 3917 –2951–457–298-25= 186

Após calcularmos as somas de quadrados criamos a tabela da análise de variância:


F.V. G.L. S.Q. Q.M. Fcal Ftab
Tratamento (K – 1)=3 2951 2951/3=984 984/10=98 F(3,18)=3,16
Animais (K – 1)=3 457 --- --- ---
Períodos/Quadrados (K - 1)L = (4-1)2=6 298 --- --- ---
Quadrado (L-1) = 1 25
Erro 18 186 186/18=10 --- ---
Total LK – 1=31
2 3917 --- --- ---
A conclusão, ao nível de significância de 5%, segue a regra:
Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes estatisticamente
Fcal<Ftab: não existe diferença estatística entre tratamentos

Então, como Fcal é maior que o Ftab, existe pelo menos um par de tratamentos com
diferença estatisticamente significativa.
Seguindo com o teste de Tukey temos:

QMerro 10
DMS = q = q(4,18) = 4,00 1,25 = 4,47
LK 8
Médias já ordenadas:
mD=587/8 = 73,38 a
mC=537/8 = 67,13 b

175
mB=507/8 = 63,38 b
mA=379/8 = 47,38 c
Contrastes de todos os pares de médias
Y1= mD - mC = 6,25
Y2= mD - mB = 10,00
Y3= mD - mA = 26,00
Y4= mC - mB = 3,75
Y5= mC - mA = 19,75
Y3= mB - mA = 16,00
No resultado consideramos que médias seguidas de mesma letra são estatisticamente
iguais pelo teste de Tukey, considerando 5% de significância.

# programação em R
# entrada com a tabela abaixo denominada “dados”
tratamentos quadrado animais periodos resposta
A 1 1 1 43
B 1 2 1 60
D 1 3 1 76
C 1 4 1 72
B 1 1 2 50
C 1 2 2 60
A 1 3 2 46
D 1 4 2 75
D 1 1 3 72
A 1 2 3 49
C 1 3 3 73
B 1 4 3 74
C 1 1 4 58
D 1 2 4 70
B 1 3 4 63
A 1 4 4 50
A 2 1 5 51
D 2 2 5 71
C 2 3 5 73
B 2 4 5 72
C 2 1 6 66
B 2 2 6 54
A 2 3 6 42
D 2 4 6 77
B 2 1 7 69

176
A 2 2 7 44
D 2 3 7 75
C 2 4 7 73
D 2 1 8 71
C 2 2 8 62
B 2 3 8 65
A 2 4 8 54
require(easyanova)
ea1(dados,design=4)
$`Analysis of variance`
df type I SS mean square F value p>F
treatments 3 2950.375 983.4583 94.412 <0.001
squares 1 24.500 24.5000 2.352 0.1425
rows 3 456.625 152.2083 14.612 <0.001
columns 6 297.875 49.6458 4.766 0.0045
Residuals 18 187.500 10.4167 - -

$`Adjusted means`
treatment adjusted.mean standard.error tukey snk duncan t scott_knott
1 D 73.375 1.1411 a a aa a
2 C 67.125 1.1411 b b bb b
3 B 63.375 1.1411 b c cc c
4 A 47.375 1.1411 c d dd d

$`Multiple comparison test`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1D-C 6.25 0.0056 0.0011 0.0011 0.0011
2D-B 10.00 0.0000 0.0000 0.0000 0.0000
3D-A 26.00 0.0000 0.0000 0.0000 0.0000
4C-B 3.75 0.1296 0.0320 0.0320 0.0320
5C-A 19.75 0.0000 0.0000 0.0000 0.0000
6B-A 16.00 0.0000 0.0000 0.0000 0.0000

$`Residual analysis`

177
values
p.value Shapiro-Wilk test 0.9221
p.value Bartlett test 0.0344
coefficient of variation (%) 5.1400
first value most discrepant 25.0000
second value most discrepant 5.0000
third value most discrepant 21.0000

Neste caso tratamentos devem estar localizados na coluna 1, quadrado na coluna 2,


animais e períodos nas colunas 3 e 4 e a variável resposta na coluna 5. No resultado temos o
valor de p do teste F que indica diferença entre tratamentos (p<0,05). Temos também o resultado
para todos os testes de médias, o teste de Shapiro-Wilk que indica normalidade (p>0,05), o teste
de Bartlett que indica falta de homogeneidade de variâncias (p<0,05), o coeficiente de variação e
os três valores mais discrepantes dos dados. A falta de homogeneidade de variâncias não é um
problema que impede a aplicação da análise. Porém, com a investigação e retirada de possíveis
outliers o problema pode ser resolvido.

Experimentos Fatoriais

Experimentos fatoriais são aqueles em que se estudam dois ou mais fatores, cada um
deles com duas ou mais categorias (níveis). Não é um delineamento, podendo ser delineado em
DIC, DBC, DQL, etc.

Exemplos
Exemplo 1
Avaliar o ganho de peso pelo teor de fibra e teor de proteína na ração.
Fator 1 = Teor de fibra. Níveis = F1, F2, F3.
Fator 2 = Teor de proteína. Níveis = P1, P2.

Neste caso, têm-se um fatorial 3 x 2 com os seguintes tratamentos:

178
F1P1, F1P2, F2P1, F2P2, F3P1, F3P2
Note que o número de tratamentos é 3 x 2 = 6
Este é o caso de um fatorial duplo (dois fatores)

Exemplo 2
Avaliar a produtividade de milho em função do espaçamento e do cultivar
Fator 1 = espaçamento. Níveis = E1, E2
Fator 2 = variedade. Níveis = V1, V2, V3.

Teste caso tem-se um fatorial 2 x 3 com 6 tratamentos. E1V1, E1V2, E1V3, E2V1, E2V2, E2V3.

Realizar um experimento em esquema fatorial tem duas vantagens:


1) Permite estudar a interação entre os fatores avaliados.
2) Tem-se um experimento maior em comparação com experimentos avaliando fatores isolados.
Com isso tem-se maior G.L. do erro.
Nas Tabelas 8 e 9 podemos observar dados sem interação (Tabela 8) e com interação
(Tabela 9). No primeiro exemplo (Tabela 8), independente da linhagem, a ração Rb é superior a
Ra. E, independente da ração a linhagem Lx é superior a Ly. Neste caso as médias marginais
resumem o resultado das médias internas da tabela. No segundo exemplo (Tabela 9) a ração Rb é
superior a Ra para a linhagem Lx. No entanto, para a linhagem Ly a Ração Ra é superior a Rb.
Para linhagens temos linhagem Lx superior a Ly com a ração Rb e, a linhagem Ly superior Lx
com a ração Ra. Neste caso as médias marginais não devem ser utilizadas, pois não resumem a
informação do interior da tabela.

Tabela 8. Peso de frangos de corte (kg) em função da linhagem e da ração (não há interação entre
fatores)
Rações
Linhagens Médias marginais
Ra Rb
Lx 2,6 2,9 2,75
Ly 2,4 2,7 2,55
Médias marginais 2,5 2,8 -

179
Tabela 9. Peso de frangos de corte (kg) em função da linhagem e da ração (há interação entre
fatores)
Rações
Linhagens Médias marginais
Ra Rb
Lx 2,4 2,9 2,65
Ly 2,6 2,1 2,35
Médias marginais 2,5 2,5 -

Como exemplo vamos considerar um experimento para estudar a influencia da vitamina B12 e
do uso de antibióticos no peso (kg) de suínos. Para este estudo realizou-se um experimento em
esquema fatorial 3 x 2 (três níveis de vitamina B12 e dois tipos de antibióticos), em
delineamento de blocos casualizados. Considerando o peso inicial, foram criados dois blocos
(leves e pesados). No experimento foram utilizados 48 animais machos distribuídos em 12 baias
(4 animais por baia), de modo que 6 baias continham os animais pesados e 6 baias os leves. Os
tratamentos foram então casualizados dentro de cada bloco. Os dados em kg estão na Tabela10.

Tabela 10. Peso de suínos (kg) em função da dose de vitamina B12 e do tipo de antibiótico.
Antibióticos
Vitamina
Blocos Antibiótico
B12 Antibiótico X Totais
Y
1 85 89
Dose 1 375
2 96 105
1 79 74
Dose 2 315
2 84 78
1 99 80
Dose 3 368
2 106 83
Totais 549 509 1058

Será considerado:
A = Vitamina B12;
B = Antibióticos;
W = blocos;
I = níveis do fator A. J = níveis do fator B. K = níveis de W (número de blocos).

Soma de Quadrados Total

180
I,J, K
SQtotal = ∑Y
i =1, j=1, k =1
2
ijk − FC = 94570 - 93280,3 = 1289,7

I,J, K

∑Y 2
ijk = (852 + 96 2 + ... + 832 ) = 94570
i =1, j=1, k =1
2
 I,J,K 
 ∑ Yijk 
i =1, j=1,k =1  (1058) 2
FC =   = = 93280,3
N 3x2x2

Soma de Quadrados de Tratamentos


I,J
(AB)ij2 (1812 + 1632 + 2052 + 194 2 + 152 2 + 1632 )
SQtratamentos = ∑ K
− FC =
2
− FC
i =1, j=1

I,J
(AB)ij2
SQtratamentos = ∑
i =1, j=1 K
− FC = 94332 − 93280,3 = 1051,7

onde ABij total do tratamento ij

Soma de Quadrados do Fator A (Vitamina B12)

A i2
I
(3752 + 3152 + 3682 )
SQA = ∑ − FC = − FC = 93818,5 − 93280,3 = 538,2
i =1 JK 2x2
onde A i é total para o nível j do fator A (Vitamina B12)

Soma de Quadrados do Fator B (Antibióticos)


J B 2j (549 2 + 509 2 )
SQB = ∑ − FC = − FC = 93413,7 − 93280,3 = 133,4
j=1 IK 3x2
onde B j é o total para o nível j do fator B (Antibiótico).

Soma de Quadrados de Blocos

Wk2 K
(506 2 + 552 2 )
SQblocos = ∑ − FC = − FC = 93456,7 − 93280,3 = 176,4
k =1 IJ 3x2
onde Wk é o total para o bloco k.
Soma de Quadrados da Interação AxB
SQAxB =SQtrat − SQA − SQB = 1051,7 − 538,2 − 133,4 = 380,1

Soma de Quadrados do Erro (Resíduo)


181
SQtotal =SQtrat + SQblocos + SQerro
SQerro =SQtotal -SQtrat - SQblocos = 1289,7 − 1051,7 − 176,4 = 61,6

Tabela da Análise de Variância


FV GL SQ QM Fcal Ftab
Fator A = Vitamina (I-1)=2 538,2 269,1 21,9 5,79
Fator B = Antibióticos (J-1)=1 133,4 133,4 10,9 6,61
AxB (I-1)(J - 1)=2 380,1 190,1 15,5 5,79
Tratamentos (IJ-1)=5 1051,7 - - -
Blocos (K-1)=1 176,4 - - -
Resíduo (IJ-1)(K-1)=5 61,6 12,3 - -
Total IJK – 1=11 1289,7 - - -

Para o fator A e B a conclusão, ao nível de 5% de significância, segue a regra:


Fcal≥Ftab: existe pelo menos um par de tratamentos diferentes.
Fcal<Ftab: não existe diferença estatística entre tratamentos.

Para a interação a conclusão será:


Fcal≥Ftab: existe interação significativa entre fatores.
Fcal<Ftab: não existe interação significativa entre fatores.

No exemplo todos os efeitos testados foram significativos. No entanto, como a interação


foi significativa, não devemos interpretar os resultados pelas médias marginais dos fatores A e B.

Teste de Tukey

Fator A (Vitamina B12)


Diferença mínima significativa.

QMerro 12,3
DMS = q = q(3,5) = 4,54 3,075 = 7,96
JK 4
Médias já ordenadas:
mD1=375/4 = 93,75 a
mD3=368/4 = 92,00 a
mD2=315/4 = 78,75 b

182
Contrastes de todos os pares de médias
Y1= mD1 – mD3 = 1,75
Y2= mD1 – mD2 = 15,00
Y3= mD3 – mD2 = 13,25
No resultado consideramos que médias seguidas de mesma letra são estatisticamente
iguais pelo teste de Tukey, considerando 5% de significância.

Fator B (Antibióticos)
Neste caso como só serão comparadas duas médias. É importante comentar que o teste F
da análise de variância já é conclusivo e o resultado dos demais testes tem resultados idênticos
(valor de p) ao teste F. No entanto iremos prosseguir com o teste de Tukey para exemplificar o
procedimento.

Diferença mínima significativa.

QMerro 12,3
DMS = q = q(2,5) = 3,61 2,05 = 5,17
IK 6
Médias já ordenadas:
mAx=549/6 = 91,50 a
mAy=509/6 = 84,83 b

Contraste de médias
Y1= mD1 – mD3 = 6,67
No resultado consideramos que médias seguidas de mesma letra são estatisticamente
iguais pelo teste de Tukey, considerando 5% de significância.

Desdobramento da interação A x B

Fator A (Vitamina B12) dentro dos níveis de B (Antibióticos)


Diferença mínima significativa.

QMerro 12,3
DMS = q = q(3,5) = 4,54 6,15 = 11,26
K 2

183
Médias já ordenadas dos níveis de A no antibiótico X:
mD3=205/2 = 102,50 a
mD1=181/2 = 90,50 b
mD2=163/2 = 81,50 b

Contrastes de todos os pares de médias


Y1= mD3 – mD1 = 12,00
Y2= mD3 – mD2 = 21,00
Y3= mD1 – mD2 = 9,00

Médias já ordenadas dos níveis de A no antibiótico Y:


mD1=194/2 = 97,00 a
mD3=163/2 = 81,50 b
mD2=152/2 = 76,00 b

Contrastes de todos os pares de médias


Y1= mD1 – mD3 = 15,50
Y2= mD1 – mD2 = 21,00
Y3= mD3 – mD2 = 5,50

Fator B (Antibióticos) dentro dos níveis de A (Vitamina B12)


Diferença mínima significativa.

QMerro 12,3
DMS = q = q(2,5) = 3,61 6,15 = 8,95
K 2
Médias já ordenadas dos níveis de B na Dose 1:
mAy=194/2 = 97,00 a
mAx=181/2 = 90,50 a
Contraste de médias
Y1= mAy – mAx = 6,50

Médias já ordenadas dos níveis de B na Dose 2:


184
mAx=163/2 = 81,50 a
mAy=152/2 = 76,00 a
Contraste de médias
Y1= mAx – mAy = 5,50

Médias já ordenadas dos níveis de B na Dose 3:


mAx=205/2 = 102,50 a
mAy=163/2 = 81,50 b
Contraste de médias
Y1= mAx – mAy = 21,00

Para resumir todo o resultado podemos sugerir a seguinte tabela:


Antibióticos
Vitamina B12 Médias Marginais F2 F3 F4
X Y
Dose 1 90,50bB1 97,00aA 93,75A
Dose 2 81,50aB 76,00aB 78,75B 21,9** 10,9* 15,5**
Dose 3 102,50aA 81,50bB 92,00A
Médias Marginais 91,50a 84,83b
1 médias seguidas de mesma letra minúscula (em uma mesma linha) e mesma letra maiúscula (em

uma mesma coluna), são estatisticamente iguais pelo teste de Tukey ao nível de 5% de
significância; 2 valor calculado de F para o efeito isolado da Vitamina B12; 3 valor calculado de
F para o efeito isolado de Antibiótico; 3 valor calculado de F para a interação entre os fatores; *
significativo a 5%; ** significativo a 1%.
Na tabela anterior podemos substituir os valores de Fcalculado pelos valores de
probabilidade, obtidos com auxílio de softwares estatísticos. A seguir faremos o exemplo
utilizando a função ea2( ) do pacote R easyanova.

# programação em R
# entrada com a tabela abaixo denominada “dados”

Vit Anti blocos peso


a
d1 x 1 85
d1 x 2 96

185
d2 x 1 79
d2 x 2 84
d3 x 1 99
d3 x 2 106
d1 y 1 89
d1 y 2 105
d2 y 1 74
d2 y 2 78
d3 y 1 80
d3 y 2 83

require(easyanova)
ea2(dados, design=2)
$`Analysis of variance`
df type III SS mean square F value p>F
factor_1 2 538.1667 269.0833 21.8176 0.0034
factor_2 1 133.3333 133.3333 10.8108 0.0218
blocks 1 176.3333 176.3333 14.2973 0.0129
factor_1:factor_2 2 380.1667 190.0833 15.4122 0.0073
Residuals 5 61.6667 12.3333 - -

$`Adjusted means (factor 1)`


factor_1 adjusted.mean standard.error tukey snk duncan t scott_knott
1 d1 93.75 1.7559 a a aa a
2 d3 92.00 1.7559 a a aa a
3 d2 78.75 1.7559 b b bb b

$`Multiple comparison test (factor 1)`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d1 - d3 1.75 0.7714 0.5124 0.5124 0.5124
2 d1 - d2 15.00 0.0042 0.0042 0.0021 0.0018
3 d3 - d2 13.25 0.0072 0.0031 0.0031 0.0031

$`Adjusted means (factor 2)`


factor_2 adjusted.mean standard.error tukey snk duncan t scott_knott

186
1 x 91.50000 1.4337 a a aa a
2 y 84.83333 1.4337 b b bb b

$`Multiple comparison test (factor 2)`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 x - y 6.6667 0.0218 0.0218 0.0218 0.0218

$`Adjusted means (factor 1 in levels of factor 2)`


$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in x`
treatment adjusted.mean standard.error tukey snk duncan t scott_knott
3 d3.x 102.5 2.4833 a a aa a
1 d1.x 90.5 2.4833 b b bb b
2 d2.x 81.5 2.4833 b b bb b

$`Adjusted means (factor 1 in levels of factor 2)`$`factor_1 in y`


treatment adjusted.mean standard.error tukey snk duncan t scott_knott
4 d1.y 97.0 2.4833 a a aa a
6 d3.y 81.5 2.4833 b b bb b
5 d2.y 76.0 2.4833 b b bb b

$`Multiple comparison test (factor 1 in levels of factor 2)`


$`Multiple comparison test (factor 1 in levels of factor 2)`$`factor_1 in x`
pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d3.x - d1.x 12 0.0421 0.0189 0.0189 0.0189
2 d3.x - d2.x 21 0.0044 0.0044 0.0022 0.0019
3 d1.x - d2.x 9 0.1078 0.0505 0.0505 0.0505

$`Multiple comparison test (factor 1 in levels of factor 2)`$`factor_1 in y`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d1.y - d3.y 15.5 0.0158 0.0069 0.0069 0.0069
2 d1.y - d2.y 21.0 0.0044 0.0044 0.0022 0.0019
187
3 d3.y - d2.y 5.5 0.3406 0.1781 0.1781 0.1781

$`Adjusted means (factor 2 in levels of factor 1)`


$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in d1`
treatment adjusted.mean standard.error tukey snk duncan t scott_knott
4 d1.y 97.0 2.4833 a a aa a
1 d1.x 90.5 2.4833 a a aa a

$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in d2`


treatment adjusted.mean standard.error tukey snk duncan t scott_knott
2 d2.x 81.5 2.4833 a a aa a
5 d2.y 76.0 2.4833 a a aa a

$`Adjusted means (factor 2 in levels of factor 1)`$`factor_2 in d3`


treatment adjusted.mean standard.error tukey snk duncan t scott_knott
3 d3.x 102.5 2.4833 a a aa a
6 d3.y 81.5 2.4833 b b bb b

$`Multiple comparison test (factor 2 in levels of factor 1)`


$`Multiple comparison test (factor 2 in levels of factor 1)`$`factor_2 in d1`
pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d1.y - d1.x 6.5 0.1234 0.1234 0.1234 0.1234

$`Multiple comparison test (factor 2 in levels of factor 1)`$`factor_2 in d2`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d2.x - d2.y 5.5 0.1781 0.1781 0.1781 0.1781

$`Multiple comparison test (factor 2 in levels of factor 1)`$`factor_2 in d3`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 d3.x - d3.y 21 0.0019 0.0019 0.0019 0.0019
188
$`Residual analysis`
values
p.value Shapiro-Wilk test 0.9796
p.value Bartlett test (factor_1) 0.4358
p.value Bartlett test (factor_2) 0.0819
p.value Bartlett test (treatments) 0.6454
coefficient of variation (%) 3.9800
first value most discrepant 8.0000
second value most discrepant 7.0000
third value most discrepant 11.0000

Na função ea2( ) devemos entrar com uma tabela, sendo as duas primeiras colunas
referentes aos fatores e a terceira referente a blocos. As demais colunas são destinadas as
variáveis respostas. O parâmetro “design=2” refere-se ao delineamento de blocos ao acaso. Caso
estivéssemos analisando em delineamento inteiramente casualizado utilizaríamos “design=1”.
No resultado obtido pelo software temos o mesmo resultado obtido anteriormente, porém
com outras opções de testes, valores de p e testes de normalidade, homogeneidade de variâncias,
coeficiente de variação e valores mais discrepantes. Caso os dados sejam desbalanceados a
análise pela função ea2( ) faz as correções necessárias.

Experimentos em Parcelas Subdivididas (split – plot)

Semelhante aos experimentos fatoriais. Neste esquema é realizado o estudo de 2 fatores.


Um dos fatores é denominado primário (parcela ou split) e o outro secundário (subparcela ou
splitplot). Alguns autores consideram parcelas subdivididas um delineamento especial de blocos
ao acaso. Mas aqui vamos denominar como esquema experimental e não delineamento
experimental. Este esquema pode ser delineado em DIC, DBC, DQL e outros.
Pode-se testar: cultivares e adubações, raça (linhagem) e sexo, dieta e sexo e,
principalmente, tratamento e tempo. Neste último exemplo, tratamento pode ser qualquer
variável a ser testada ao longo do tempo, desde que o efeito do tempo seja avaliado na mesma

189
unidade experimental (parcela). O tratamento será a parcela e o tempo a subparcela. Este
exemplo também é conhecido como parcela subdividida no tempo.

Como exemplo vamos considerar 3 rações para frangos (R1, R2 e R3) e o sexo (M e F) com 3
repetições em um delineamento inteiramente ao acaso com 20 aves por parcela.

Esquema fatorial
Ração (R1,R2,R3) x Sexo (M,F) = fatorial duplo (3 x 2)
20 aves por parcela (unidade experimental)/360 aves no experimento
R1M R3M R1F R2M R3F R3M R2F R3F R1F
R2F R1M R3F R3M R1F R2F R2M R2M R1M

Esquema em parcelas subdivididas


Ração (parcela)
Sexo (subparcela) 10 machos e 10 fêmeas por gaiola.
20 aves na parcela/10 aves na subparcela/180 aves no experimento

R1 (M F) R3 (M F) R2 (M F) R3 (M F) R2 (M F) R1 (M F) R1 (M F) R3 (M F) R2 (M F)

O esquema de parcelas subdivididas tem as mesmas vantagens (maior G.L. do erro e


permite avaliar a interação) e desvantagens (tamanho e complexidade) do fatorial em relação a
experimentos isolados. No entanto, o fatorial deve ser considerado melhor opção de análise de
forma geral, em ralação a parcelas subdivididas. Porém, os experimentos em parcelas
subdivididas podem ser indispensáveis nos seguintes casos:

1) O esquema de parcelas subdivididas pode diminuir custos em relação ao fatorial. Se este fator
é muito relevante, usar parcelas subdivididas é a melhor opção.

2) Em alguns casos a estrutura do experimento é mais adequada ao esquema de parcelas


subdivididas. Por exemplo, quando se tem restrição do número de instalações, gaiolas, espaço
físico e também por praticidade da aplicação dos tratamentos.

190
3) Quando tem-se um fator (tratamento) avaliado ao longo do tempo. Nestes casos o tratamento é
a parcela e o tempo a subparcela e, portanto, a análise deve ser feita considerando o esquema de
parcelas subdivididas.

Para exemplificar vamos considerar um experimento em parcelas subdivididas instalado


em delineamento de blocos casualizados (DBC), onde foram testados três tipos de rações
(parcela) no peso de machos e fêmeas (subparcela) de aves de corte (Tabela 11).

Tabela 11. Peso (kg) e frangos de corte em função da ração e do sexo.


Ração a Ração b Ração c
Blocos Totais
Macho Fêmea Macho Fêmea Macho Fêmea
1 2,7 2,1 2,1 2,4 2,6 2,5 14,4
2 2,9 2,4 2,3 2,6 2,9 2,9 16
Totais 5,6 4,5 4,4 5,0 5,5 5,4 30,4

Fator A = ração totais = 10,1; 9,4; 10,9


Fator B = sexo totais = 15,5; 14,9
Totais de parcelas = 4,8; 5,3; 4,5; 4,9; 5,1; 5,8

Somas de Quadrados
2
 I,J,K 
 ∑ Yijk 
I,J, K   (30,4) 2
SQTotal = ∑ Yijk − 2  i =1, j=1, k =1 
= (2,7 + 2,9 + ... + 2,9 ) −
2 2 2
= 77,92 − 77,0133 = 0,9067
i =1, j=1, k =1 IJK 3x2x2

K
Wk2 (14,4 2 + 16 2 )
SQBlocos = ∑ − FC = − 77,0133 = 77,2267 − 77,0133 = 0,2133
k =1 IJ 3x2

I,J
(AB)ij2 (5,6 2 + 4,52 + ... + 5,4 2 )
SQTrat. = ∑ K
− FC =
2
− 77,0133 = 77,69 − 77,0133 = 0,6767
i =1, j=1

J B 2j (15,52 + 14,9 2 )
SQB = ∑ − FC = − 77,0133 = 77,0433 − 77,0133 = 0,0300
j=1 IK 3x2

191
I
A i2 (10,12 + 9,4 2 + 10,9 2 )
SQA = ∑ − FC = − 77,0133 = 77,295 − 77,0133 = 0,2817
i =1 JK 2x2

soma ( Total da parcela i no bloco k )


2
Y2
I,K
SQParcelas = ∑ ik − FC = −C =
i =1, k =1 J J
(4,82 + 5,32 + ... + 5,82 )
− 77,0133 = 77,52 − 77,0133 = 0,5067
2
SQInteração(A x B) = SQTratamentos – SQA – SQB = 0,6767 – 0,03 – 0,2867 = 0,36
SQResíduo(a) = SQParcelas – SQBlocos – SQA = SQInteração(Bloco x
A)=0,5067-0,2133-0,2817=0,0117
SQResíduo(b) = SQTotal – SQParcelas – SQB – SQInteração(A x
B)=0,9067-0,5067-0,03-0,365=0,005

Tabela da análise de variância.


FV GL SQ QM Fcal Ftab
Blocos (K - 1)=1 0,2133 - - -
A=ração (I - 1)=2 0,2817 0,1409 24,09* 19
Resíduo (a) (I - 1)(K - 1)=2 0,0117 0,00585 - -
Parcelas IK – 1 = 5 0,5067
B=sexo (J – 1)=1 0,0300 0,0300 17,96* 10,13
AxB (I – 1)(J-1)=2 0,3600 0,1800 107,78* 9,55
Resíduo (b) I(J – 1)(K – 1)=3 0,0050 0,00167 - -
Total IJK – 1=11 0,9067 - - -

Teste de Tukey para o efeito isolado de Ração

QMerro 0,00585
DMS = q = q(3,2) = 8,28 0,0015 = 0,317
JK 4

Médias
mrc=10,9/4=2,725 a
mra=10,1/4=2,525 a b
mrb=9,4/4=2,350 b

Contrastes

192
Y1= mrc- mra=0,200
Y2= mrc- mrb=0,375
Y3= mrb- mrc=0,175

Efeito isolado de sexo


Como são apenas dois níveis o teste F da anova já é conclusivo.
Médias
mmachos= 15,5/6=2,58 a
mfêmeas= 14,9/6=2,48 b

Deve-se comparar um fator dentro de cada nível do outro, pois a interação foi significativa.
(desdobramento do efeito da interação)

Estudo do fator B (Sexo=Subparcela) dentro dos níveis (categorias) do fator A (Ração ou


parcela).
Utilizamos o resíduo (a) para está análise.
Diferença mínima significativa.

QMerro 0,00585
DMS = q = q(2,2) = 6,09 0,0029 = 0,329
K 2
Médias (Ração a)
mmachos=5,6/2 = 2,80 a
mfêmeas=7,5/2 = 2,25 b
Contraste de médias
mmachos– mfêmeas = 0,55

Médias (Ração b)
mfêmeas=2,20 a
mmachos=2,50 a
Contraste de médias
mfêmeas - mmachos = 0,30

Médias (Ração c)
193
mmachos=2,75 a
mfêmeas=2,70 a
Contraste de médias
mmachos– mfêmeas = 0,05

Estudo do fator A (Ração=parcela) dentro dos níveis (categorias) do fator B (Sexo=subparcela).


Utilizamos um resíduo e grau de liberdade combinado entre os resíduos a e b.

QM do resíduo combinado:
QMRes(a) + (J − 1)QMRes(b) 0,00585 + (2 − 1)(0,00167)
QMres(combinado) = = = 0,00376
J 2

Grau de liberdade do resíduo combinado (equação de Satterhwaitte):

[QMRes(a) + (J − 1)QMRes(b)] = [0,00585 + (2 − 1)(0,00167)]


2 2

[QMRes(a)] + [(J − 1)QMRes(b)] [0,00585] + [(J − 1)0,00167]


2 2 2 2
=

n* = g.l.Res(a) g.l.Res(b) 2 3
0,00005655 0,00005655
= = 3,1346
0,00001711125 + 0,000000929633 0,00001804088

Teste de Tukey
Diferença mínima significativa (D.M.S.)
q = qα(número de tratamentos, grau de liberdade do resíduo n*) = q5% (3, 3) = 5,88
Usar o QMRCombinado

0,00376
D.M.S. = 5,88 = 0,25495
2

Ração dentro de machos


Médias
ma=2,80 a
mb=2,75 a
mc=2,20 b

194
ma – mb = 0, 60

ma – mc = 0,05

mc – mb = 0,55

Ração dentro de fêmeas


Médias
mc=2,70 a
mb=2,50 a b
ma=2,25 b

mc – mb = 0,20

mc – ma = 0, 45

mb – ma = 0,25

# programação em R
# entrada de dados com a tabela a seguir denominada “dados”

Racao Bloco Sexo Peso


a 1 m 2.7
a 2 m 2.9
a 1 f 2.1
a 2 f 2.4
b 1 m 2.1
b 2 m 2.3
b 1 f 2.4
b 2 f 2.6
c 1 m 2.6
c 2 m 2.9
c 1 f 2.5

195
c 2 f 2.9

r=ea2(dados, design=5)
$`Marginal anova (Type III Sum of Squares)`
numDF denDF F-value p-value
plot 2 2 24.14286 0.0398
split.plot 1 3 18.00000 0.0240
block 1 2 36.57143 0.0263
plot:split.plot 2 3 109.50000 0.0016

$`Adjusted means (plot)`


plot adjusted.mean standard.error tukey snk duncan t
1 c 2.725 0.0382 a a a a
2 a 2.525 0.0382 ab ab ab ab
3 b 2.350 0.0382 b b b b

$`Multiple comparison test (plot)`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 c - a 0.200 0.1175 0.0658 0.0658 0.0658
2c-b 0.375 0.0365 0.0365 0.0184 0.0201
3a-b 0.175 0.1482 0.0835 0.0835 0.0835

$`Adjusted means (split.plot)`


split.plot adjusted.mean standard.error tukey snk duncan t
1 m 2.5833 0.025 a a aa
2 f 2.4833 0.025 a a aa

$`Multiple comparison test (split.plot)`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1m-f 0.1 0.0663 0.0663 0.0663 0.0663

$`Adjusted means (plot in levels of split.plot)`

196
$`Adjusted means (plot in levels of split.plot)`$`plot in f`
plot.split.plot adjusted.mean standard.error tukey snk duncan t
3 c.f 2.70 0.0433 a a a a
2 b.f 2.50 0.0433 ab ab ab ab
1 a.f 2.25 0.0433 b b b b

$`Adjusted means (plot in levels of split.plot)`$`plot in m`


plot.split.plot adjusted.mean standard.error tukey snk duncan t
4 a.m 2.80 0.0433 a a aa
6 c.m 2.75 0.0433 a a aa
5 b.m 2.20 0.0433 b b bb

$`Multiple comparison test (plot in levels of split.plot)`


$`Multiple comparison test (plot in levels of split.plot)`$`plot in f`
pair contrast p(tukey) p(snk) p(duncan) p(t)
1 c.f - b.f 0.20 0.1461 0.0823 0.0823 0.0823
2 c.f - a.f 0.45 0.0327 0.0327 0.0165 0.0180
3 b.f - a.f 0.25 0.0987 0.0550 0.0550 0.0551

$`Multiple comparison test (plot in levels of split.plot)`$`plot in m`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 a.m - c.m 0.05 0.7316 0.5000 0.5000 0.5000
2 a.m - b.m 0.60 0.0187 0.0187 0.0094 0.0103
3 c.m - b.m 0.55 0.0221 0.0120 0.0120 0.0122

$`Adjusted means (split.plot in levels of plot)`


$`Adjusted means (split.plot in levels of plot)`$`split.plot in a`
plot.split.plot adjusted.mean standard.error tukey snk duncan t
4 a.m 2.80 0.0433 a a aa
1 a.f 2.25 0.0433 b b bb

197
$`Adjusted means (split.plot in levels of plot)`$`split.plot in b`
plot.split.plot adjusted.mean standard.error tukey snk duncan t
2 b.f 2.5 0.0433 a a aa
5 b.m 2.2 0.0433 b b bb

$`Adjusted means (split.plot in levels of plot)`$`split.plot in c`


plot.split.plot adjusted.mean standard.error tukey snk duncan t
6 c.m 2.75 0.0433 a a aa
3 c.f 2.70 0.0433 a a aa

$`Multiple comparison test (split.plot in levels of plot)`


$`Multiple comparison test (split.plot in levels of plot)`$`split.plot in a`
pair contrast p(tukey) p(snk) p(duncan) p(t)
1 a.m - a.f 0.55 0.0029 0.0029 0.0029 0.0029

$`Multiple comparison test (split.plot in levels of plot)`$`split.plot in b`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 b.f - b.m 0.3 0.0163 0.0163 0.0163 0.0163

$`Multiple comparison test (split.plot in levels of plot)`$`split.plot in c`


pair contrast p(tukey) p(snk) p(duncan) p(t)
1 c.m - c.f 0.05 0.474 0.474 0.474 0.474

$`Residual analysis`
values
p.value Shapiro-Wilk test 0.8315
p.value Bartlett test (plot) 0.2626
p.value Bartlett test (split.plot) 0.4835
p.value Bartlett test (plot*split.plot) 0.8260
AIC 19.9074
BIC 16.0018
198
first value most discrepant 11.0000
second value most discrepant 12.0000
third value most discrepant 1.0000

Na estrada de dados para uma parcela subdividida devemos inserir as parcelas na


primeira coluna, repetições na segunda coluna e subparcela na terceira coluna. Na quarta coluna
inserimos a variável resposta. O resultado, em termos de interpretação, é muito semelhante ao
fatorial.

Teste não paramétricos para substituir a análise de variância

Teste de Kruskal-Wallis
O teste de Kruskal-Wallis é um teste não paramétrico que pode substituir uma análise de
variância em delineamento inteiramente casualizado nos seguintes casos:

1) Os dados são quantitativos porém tem resíduos na análise de variância que fogem
demais da aproximação da normalidade e, a variação dos dados é muito grande. Nestes casos
geralmente tem-se coeficientes de variação muito elevados.
2) Os dados são variáveis qualitativas ordinais (escores de doença, grau de doença ou
grau de uma lesão entre outros atributos categóricos em escala ordinal).

Dados de contagem (variáveis quantitativas discretas) são os dados quantitativos com


maior possibilidade de fugirem da aproximação normal e apresentarem elevada variação.

Vamos considerar um exemplo onde foram aplicados 3 tratamentos para tratar lesões
cutâneas em cães (Tabela 12). A variável resposta foi o grau de lesão, sendo 0 (ausência de
lesão), 1 (lesão leve), 2 (lesão moderada), 3 (lesão severa). Cada tratamento foi aplicado em 4
cães.
Tabela 12. Grau de lesão em feridas cutâneas em cães, em função do tratamento aplicado.
Tratamentos
placebo (T1) medicamento A (T2) medicamento B (T3)

199
3 2 1
2 1 0
2 3 0
3 2 0

O teste consiste no seguinte:

1. Ordenar todos os valores de forma crescente. Então ranqueamos os valores de 1 até N (total de
dados). Em caso de empate o ranque médio é utilizado.
tratamento T3 T3 T3 T3 T2 T2 T2 T1 T1 T2 T1 T1
ordenação 0 0 0 1 1 2 2 2 2 3 3 3
ranqueamento 1 2 3 4 5 6 7 8 9 10 11 12
ranqueamento médio 2 2 2 4,5 4,5 7,5 7,5 7,5 7,5 11 11 11

2. Calcular a soma de ranques para cada tratamento Ri.


RT1= 7,5+7,5+11+11=37
RT2=4,5+7,5+7,5+11=30,5
RT3=2+2+2+4,5=10,5

3. Obter o valor calculado T

1  I R i2 N(N + 1) 2 
T= ∑ −  onde :
S2  i =1 n i 4 
I = número de tratamentos ou grupos experimentais (3 neste exemplo);
n i = o número de repetições para o tratamento i;
N = número de unidades experimentais (12 neste exemplo);
R i = soma de ranques para o tratamento i;
1  I 2 N(N + 1) 2 
∑ X ij −
2
S =  sendo que X ij é o valor do ranque i para o tratamento j.
N - 1  i =1 4 

1  I 2 N(N + 1) 2  1  2 12(12 + 1) 2 
S2 = ∑ ij − = + + + + + −
2 2 2 2
X  ( 2 2 2 4,5 ... 11 ) 
N - 1  i =1 4  12 − 1  4 
=
1
11
[ ]
640,5 − 507 = 12,14

200
1  I R i2 N(N + 1) 2  1  37 2 30,52 10,52  12(12 + 1) 2 
T = 2 ∑ − =  + + − 
S  i =1 n i 4  12,14  4 4 4  4 
=
1
12,14
[ ]
602,375 − 507 = 7,86

4. Comparar o valor calculado T com o valor tabelado. Utiliza-se a distribuição qui-quadrado


com I-1 graus de liberdade.

A regra decisória é :
T ≥ χ(2I −1) : existe pelo menos um par de tratamentos com diferença significativa.
T < χ(2I −1) : não existe tratamentos com diferença significativa.

−1) = χ 5%(3−1) = χ 5%(2) = 5,99.


2 2 2
Então, o valor de T (7,86) é maior que o valor tabelado χ 5%(I
Conclui − se que existe pelo menos um par de tratamentos com diferença significativa.

No entanto, semelhante à análise de variância, a conclusão do teste precisa ser detalhada


com algum teste para comprar pares de tratamentos. Utilizando uma adaptação do teste t vamos
seguir os seguintes passos:

1. Obter a diferença mínima significativa D.M.S.

 (N − 1 − T)  1 1 
D.M.S. = t (N-I) S2   +  caso n i = n i' = n (tratamentos tem o mesmo número de repetições)
 N − I  n i n i ' 
a equação fica :
 (N − 1 − T)  2   (12 − 1 − 7,86)  2 
D.M.S. = t (N-I) S2    = t 5%(12-3) 12,14  
 N − I  n   12 − 3  4 
 (12 − 1 − 7,86)  2 
= t 5%(9) 12,14   = 2,262 2,11 = 3,29
 12 − 3  4 
2. Obter as médias e contrastes de ranques e concluir comparando o valor do contraste com a
D.M.S..
mT1=37,0/4 =9,250 a
mT2=30,5/4 =7,625 a
mT3=10,5/4 =2,625 b

201
Y1= mT1- mT2 =1,625
Y2= mT1- mT3 =6,625
Y1= mT2- mT3 =5,000

Contrastes de médias (médias de ranques) superiores a D.M.S. indicam diferença


significativa entre o par testado. No resultado consideramos que médias seguidas de mesma letra
são estatisticamente iguais pelo teste t, considerando 5% de significância.

# programação em R
# entrada com a tabela abaixo denominada “dados”

grupos grau_de_lesao
t1 3
t1 2
t1 2
t1 3
t2 2
t2 1
t2 3
t2 2
t3 1
t3 0
t3 0
t3 0

require(easyanova)
ea1(dados, design=14)

$`Kruskal-Wallis Rank Sum Test`


Estimates
Kruskal-Wallis chi-squared = 7.8586
p.value = 0.0197

$`Ranks, Means and Medians`


treatment rank mean median t adjust.Holm adjust.Bonferroni adjust.fdr

202
1 t1 9.250 2.50 2.5 a a a a
2 t2 7.625 2.00 2.0 a a a a
3 t3 2.625 0.25 0.0 b b b b

$`Multiple comparison test for ranks`


pair contrast tcal p(t) p.adj(Holm) p.adj(Bonferroni) p.adj(fdr)
1 t1 - t2 1.625 1.1166 0.2931 0.2931 0.8793 0.2931
2 t1 - t3 6.625 4.5522 0.0014 0.0041 0.0041 0.0041
3 t2 - t3 5.000 3.4356 0.0074 0.0149 0.0223 0.0112

Aqui também utilizamos a função ea1 do pacote easyanova. O design=14 designa o teste
de Kruskal-Wallis juntamente com o teste t. No resultado do teste t está incluso alguns ajustes no
valor de p. Estes ajustes são recomendados, principalmente quando o número de tratamentos for
elevado (maior que 5).

Teste de Friedmann
O teste de Friedmann é um teste não paramétrico que pode substituir uma análise de
variância em delineamento de blocos casualizados nos seguintes casos:

1) Os dados são quantitativos porém tem resíduos na análise de variância que fogem
demais da aproximação da normalidade e, a variação dos dados é muito grande. Nestes casos
geralmente tem-se coeficientes de variação muito elevados.
2) Os dados são variáveis qualitativas ordinais (escores de doença, grau de doença ou
grau de uma lesão entre outros atributos categóricos em escala ordinal).

Dados de contagem (variáveis quantitativas discretas) são os dados quantitativos com


maior possibilidade de fugirem da aproximação normal e apresentarem elevada variação. Este
teste é muito utilizado nos teste de provas de alimentos. Um provador (bloco) avalia (pontua)
todos os tratamentos (vinhos, bebidas lácteas, carnes, etc). Assim, cada tratamento passa por
todos os provadores (blocos).

203
Vamos considerar um exemplo onde foram avaliadas, em relação ao aroma, três bebidas
lácteas. A avaliação foi com base em uma escala de notas sendo: 0 (muito ruim), 1 (ruim), 2
(tolerável), 3 (bom), 4 (muito bom) e 5 (excelente). Foram utilizados 5 provadores sendo que
cada provador avaliou as três bebidas (Tabela 13).
Tabela 13. Notas atribuídas a 3 tipos de bebidas lácteas.
Tratamentos
Provador (blocos) Bebida
Bebida B Bebida C
A
1 5 3 1
2 4 2 0
3 5 2 2
4 5 3 1
5 3 1 0
Para realizar o teste fazemos o seguinte procedimento:

1. Ranqueamento dos tratamentos dentro de cada bloco (em caso de empate utiliza-se a média
dos ranques). A seguir (entre parênteses) o ranque por bloco.
Tratamentos
Provador (blocos) Bebida
Bebida B Bebida C
A
1 5(3) 3(2) 1(1)
2 4(3) 2(2) 0(1)
3 5(3) 2(1,5) 2(1,5)
4 5(3) 3(2) 1(1)
5 3(3) 1(2) 0(1)

2. Somamos as ordenações de cada tratamento Ri.


RA=3+3+3+3+3=15
RB=2+2+1,5+2+2=9,5
RC=1+1+1,5+1+1=5,5

3. Obtemos o valor calculado.

204
 I 2 2
12∑ R i  - 3J (I + 1)
2

χ 02 =  i =1  sendo :
 1  J  W 3  
JxI(I + 1) -  ∑  ∑ t i'  − I
 I - 1  j=1  i'=1  
I = número de tratamentos; J = número de blocos; R i = total do ranque para o tatamento i
W = número de ranques diferentes; ti' = tamanho de cada grupo formado

 I 2 2
12∑ R i  - 3J (I + 1)
[ ]
2

 i =1  12(152 + 9,52 + 5,52 ) − 3x52 x3(3 + 1) 2


χ 02 = =
 1  J  W 3  
JxI(I + 1) -  ∑  ∑ t i'  − I
 I - 1  j=1  i'=1  
5x3(3 + 1) − 
 3 −
[
 1  3
1 
3
]
 (1 + 2 + 2 ) − 3
3

4146 − 3600
= = 9,5789
60 − 3

 12   12 
χ 02 =  (152 + 9,52 + 5,52 ) - 3x5(3 + 1) =  345,5  - 60 = 9,1
3x5(3 + 1)   60 

4. Comparar o valor calculado com o valor tabelado. Utiliza-se a distribuição qui-quadrado com
I-1 graus de liberdade.

A regra decisória é :
T ≥ χ(2I −1) : existe pelo menos um par de tratamentos com diferença significativa.
T < χ(2I −1) : não existe tratamentos com diferença significativa.

Então, o valor calculado χ 02 (9,1) é maior que o valor tabelado χ 5%(I −1) = χ 5%(3−1) = χ 5%(2) = 5,99.
2 2 2

Conclui − se que existe pelo menos um par de tratamentos com diferença significativa.

No entanto, precisamos comparar os pares de tratamentos, utilizando o procedimento a


seguir com distribuição Z ao nível de 5% de significância.

1. Obter a diferença mínima significativa D.M.S.

JxI(I + 1) 5x3(3 + 1)
D.M.S. = Zα = 1,96 = 6,20
6 6
2. Obter contrastes para as somas de ranques e concluir comparando o valor do contraste com a
D.M.S..

205
RA=15 a
RB=9,5 ab
RC=5,5 b

Y1= 15-9,5 =5,5


Y2= 15-5,5 =9,5
Y1= 9,5-5,5 =4,0

Contrastes superiores a D.M.S. indicam diferença significativa entre o par testado. No


resultado consideramos que médias seguidas de mesma letra são estatisticamente iguais
considerando 5% de significância.

# programação em R
# entrada com a tabela abaixo denominada “dados”
bebida provador nota
A 1 5
A 2 4
A 3 5
A 4 5
A 5 3
B 1 3
B 2 2
B 3 2
B 4 3
B 5 1
C 1 1
C 2 0
C 3 2
C 4 1
C 5 0

require(easyanova)
ea1(dados, design=15)
$`Friedman Rank Sum Test`
Estimates
Friedman chi-squared = 9.5789
p.value = 0.0083

206
$`Ranks, Means and Medians`
treatment rank mean median non.adjusted adjust.Holm adjust.Bonferroni adjust.fdr
1 A 15.0 4.4 5 a a a a
2 B 9.5 2.2 2 ab ab ab ab
3 C 5.5 0.8 1 b b b b

$`Multiple comparison test for ranks`


pair contrast p(non adjusted) p.adj(Holm) p.adj(Bonferroni) p.adj(fdr)
1A-B 5.5 0.0820 0.1640 0.2460 0.1230
2A-C 9.5 0.0027 0.0080 0.0080 0.0080
3B-C 4.0 0.2059 0.2059 0.6177 0.2059

Com a função ea1 do pacote easyanova, utilizando o design=15, realiza-se o teste


juntamente com o pós teste apresentado anteriormente.

Exercícios

1. Qual a função da repetição na experimentação?

2. Qual a função da casualização na experimentação?

3. Um pesquisador quer verificar qual enzima (A, B, C ou D) produz maiores fragmentos de


DNA. Para isso, o pesquisador obteve as amostras a1, a2, a3, ..., a12 e distribuiu as três primeiras
para a enzima A, as próximas três para a enzima B e assim por diante. Pergunta-se:
a) Quais os tratamentos?
b) O princípio da repetição foi utilizado nesta pesquisa?
c) O princípio da casualização foi utilizado nesta pesquisa?
d) É possível estimar o erro experimental nesta pesquisa? O erro é válido?

4. Quais as pressuposições de uma análise de variância?


207
5. Quando não são atendidas as pressuposições de uma análise de variância, quais as alternativas
possíveis?

6) Como o aumento do número de repetições contribui para a ocorrência de significância


(ocorrência de diferença entre as médias testadas) de um teste de médias após a análise de
variância?

7. Considere um experimento em delineamento inteiramente casualizado (DIC) com três


repetições, onde foram avaliadas três rações quanto ao ganho de peso em kg de animais em
determinado período.
Rações
Repetições
A B C
1 7,60 6,00 5,90
2 8,90 6,50 6,20
3 7,50 5,90 5,70
Totais 24,00 18,40 17,80
Médias 8,00 6,13 5,93
a) Faça uma análise de variância (use α = 5%) e estime o coeficiente de variação.

b) Compare todos os pares de médias pelos testes de Tukey (use α = 5%).

8) Com o objetivo avaliar 4 teores de proteína na ração de frangos, um pesquisador realizou um


experimento usando o delineamento de blocos ao acaso, com 5 repetições. Cada tratamento foi a
plicado a uma gaiola com 20 aves. A tabela abaixo apresenta os resultados parciais da análise de
variância deste experimento.
FV GL SQ QM Fcal Ftab5%
Blocos 132 33
Tratamentos 55 3,49
Resíduo 11
Total
a) Quantas gaiolas e quantas aves foram necessárias para realizar este experimento?
b) Complete o quadro da análise de variância e conclua se existe diferença entre tratamentos.

208
c) Caso exista diferença entre tratamentos pelo teste F da análise de variância, qual procedimento
deve ser adotado na avaliação deste experimento?

9. Considere um experimento com 4 tratamentos e 4 repetições. Faça três esquemas de análise de


variância com as fontes de variação e os graus de liberdade, considerando que o experimento foi
realizado em delineamento inteiramente ao acaso, em blocos ao acaso e quadrado latino.

10. Os dados abaixo são de um experimento para avaliar 4 produtos comerciais para suprir
deficiência de micronutrientes em caprinos. Os animais foram separados em 3 grupos de acordo
com a idade. Os resultados obtidos, expressos em ppm de micronutriente/mL de sangue, foram
os seguintes:
Produtos Comerciais
Blocos Totais
A B C D
1 83 86 116 132 417
2 63 68 81 98 310
3 55 61 79 91 286
Totais 201 215 276 321 1013

Proceda a análise de variância e conclua ao nível de 5% de significância se existe diferença


significativa entre as os produtos comerciais utilizados. Caso exista diferença entre tratamentos
na análise de variância, proceda um teste de médias para comparar os tratamentos dois a dois.

11. Digestibilidade aparente de carboidratos totais (%) de acordo com a ração utilizada, o animal
e o período experimental
Períodos
Animais Totais
P1 P2 P3 P4
1 43A 50B 72D 58C 223
2 60B 60C 49A 70D 239
3 76D 46A 73C 63B 258
4 72C 75D 74B 50A 271
Totais 251 231 268 241 991

209
Proceda a análise de variância e conclua ao nível de 5% de significância se existe diferença
significativa entre as rações utilizadas. Caso exista diferença entre tratamentos na análise de
variância, proceda um teste de médias para comparar os tratamentos dois a dois.

12. Em um experimento em DIC, com duas repetições, duas linhagens de coelhos foram
submetidas a uma dieta com, respectivamente, 14%, 16% e 18% de proteína na ração. Cada
unidade experimental foi constituída por uma gaiola com 10 coelhos. O peso médio ao abate esta
apresentado no quadro abaixo. Com base nas informações apresentadas, responda as seguintes
perguntas:
Teor de proteína na ração (%)
Linhagens Totais
14 16 18
Linhagem 1 1,6 1,7 1,9 2,0 2,3 2,4 11,9
Linhagem 2 2,3 2,2 2,2 2,3 2,3 2,3 13,6
Totais 7,8 8,4 9,3 25,5
Total de tratamentos (AB)ij = 3,3; 3,9; 4,7; 4,5; 4,5; 4,6

a) Qual o número de unidades experimentais deste experimento?


b) Quantos coelhos foram necessários para realização deste experimento?
c) Quantos e quais foram os tratamentos avaliados neste experimento?
d) A interação entre linhagens e teor de proteína foi significativa? Justifique apresentado o quadro de
análise de variância apropriado.
e) Qual linhagem deveria ser recomendada para teor de proteína de 14%, 16% e 18%? E qual teor de
proteína deveria ser recomendado caso a linhagem 1 seja utilizada e, qual teor de proteína
deveria ser recomendado caso a linhagem 2 seja utilizada? Justifique apresentado o quadro
apropriado e o teste de Tukey.

210
Capítulo VI
Análise de Regressão

211
Regressão
A regressão quantifica a variação na variável resposta (y) em função de uma variável
explicativa (x) (ou em função de várias variáveis explicativas). Procura obter o modelo
matemático que melhor representa a relação de causa e efeito entre as variáveis em estudo.
Existem vários modelos de regressão, como os modelos polinomiais, logarítmicos,
exponenciais, modelos de múltiplas variáveis explicativas, entre outros. Inicialmente veremos o
modelo linear simples.

Regressão Linear Simples


A regressão linear é caracterizada pela formação de uma reta (crescente ou decrescente).
Possui o seguinte modelo matemático.
y = a + bx
onde :
y = variável resposta;
x = variável explicativa;
b = coeficiente angular da reta;
a = coeficiente linear da reta (x = 0; y = a).
O modelo matemático pode ser descrito como um modelo estatístico da seguinte forma:

212
Yi = β o + β1X i + e i
onde :
Yi = i − ésimo valor observado para a variável resposta;
β o = constante da regressão (coeficiente linear da reta);
β1 = coeficiente de regressão (coeficiente angular da reta);
X i = i − ésimo valor observado para a variável explicativa;
e i = erro aleatório associado a observação Yi .

Ajustar o modelo de regressão linear consiste em obter os valores dos coeficientes linear e
angular, utilizando os dados de x e y. Com as seguintes equações podemos obter os valores
estimados dos coeficientes em questão:

n n

n ∑ x i ∑ yi
∑x y − i =1 i =1 n n

∑ yi ∑x
i i
i =1 n
β̂1 = 2
i
  n
β̂ 0 = i =1
− β̂1 i =1
= Y − β̂1X
n
 ∑ x i  n n
∑ x i2 −  i =1 
i =1 n

Exemplo
Considere os dados do ganho de peso mensal em função da densidade de animais no pasto.
Piquete
1 2 3 4
Lotação (animal/hectare) 0,5 1 1,5 2
Ganho Mensal (kg/cabeça) 9,4 7,9 6,7 5,8

Modelo: Linear
x = variável explicativa (Lotação)
y = variável resposta (Ganho Mensal)
n n

n ∑ x i ∑ yi 5x29,8
∑x y − i =1 i =1
[(0,5x9.4) + ... + (2x5,8)] −
4 = 34,25 − 37,25 = − 3 = −2,4
i i
i =1 n
β̂1 = =
 n 
2
(5) 2
7,5 − 6,25 1,25
 ∑ x i  (0,52 + ... + 2 2 ) −
n 4
∑ x i −  i =1 
2

i =1 n

213
β̂ 0 = Y − β̂1X = 7,45 − ( −2,4x1,25) = 7,45 + 3 = 10,45

O modelo estimado fica:

Ŷi = β̂ 0 + β̂1X i = Ŷi = 10,45 − 2,40X i

Com este modelo podemos estudar a relação entre as duas variáveis. Por exemplo,
podemos verificar se a relação é linear crescente ou decrescente e em qual proporção. No caso a
relação é decrescente, pois o coeficiente angular foi negativo. Também podemos verificar que, a
cada unidade de aumento em x (Lotação), ocorre a diminuição de 2,40 em y (ganho de peso).
Um modelo de regressão também pode ser utilizado para fazer uma predição. Por exemplo:
Qual seria o valor esperado de y quando x=0,75? Para obter o valor é só substituir na equação
fazendo: y=10,45 – (2,40x0,75) = 8,65. No entanto, valores fora do intervalo de x utilizados para
estimar o modelo não podem ser preditos pelo modelo. Então, não podemos utilizar o modelo
para predizer y com x=4, por exemplo, pois a relação entre as duas variáveis pode ter
comportamento diferente fora do intervalo de x de 0,5 à 2.

Análise de Variância da Regressão


A análise de variância da regressão visa obter uma estimativa da significância ou não da
influência das variáveis independentes (explicativas).
Esquema da tabela da análise de variância
F.V G.L S.Q. Q.M. F
Regressão p SQreg SQreg/p QMreg/QMerro
Erro n-1-p SQerro SQerro/(n-1-p)
Total n-1 SQtotal

Onde:
p = número de coeficientes de regressão (não inclui βo);
n = número de observações

2
 n 
n
 ∑ y i 
SQTotal = ∑ y i −  i =1 
2

i =1 n

214
Soma de quadrados da regressão de primeiro grau:
2
 n 
n n
 ∑ y i 
SQReg = β̂ o ∑ y i + β̂1 ∑ y i x i −  i =1 
i =1 i =1 n

Hipóteses:
Ho: β1=β2=β3=βp=0
Ha: pelo menos um βi ≠ 0

Conclusão:
Se Fcal maior ou igual ao Ftab, rejeita-se Ho.
Se Fcal menor que Ftab, não se rejeita Ho.

Exemplo
Considere os dados do ganho de peso mensal em função da densidade de animais no pasto.
Piquete
1 2 3 4
Lotação (animal/hectare) 0,5 1 1,5 2
Ganho Mensal (kg/cabeça) 9,4 7,9 6,7 5,8

2
 n 
 ∑ y i 
( 29,8) 229,30 – 222,01 = 7,29
n 2

SQTotal = ∑ y i −
2  i =1  = (9,4 + ... + 5,8 ) −
2 2

i =1 n 4
2
 n 
n n
 ∑ y i 
SQReg = β̂ o ∑ y i + β̂1 ∑ y i x i −  i =1  = (10,45 x 29,8) + ( −2,4 x 34,25) − 222,01 = 7,20
i =1 i =1 n

Tabela da análise de variância da regressão.


F.V G.L S.Q. Q.M. F
Regressão p =1 7,200 7,200 160
Erro n-1-p = 2 0,090 0,045
Total n-1 = 3 7,290

215
F5%tab(p, n-1-p) = 18,51

Como o Fcalc foi maior que o Ftab, rejeita-se Ho, ou seja, a variável x exerce influência sobre a
variável resposta (y).

Coeficiente de Determinação (R2)


O coeficiente de determinação quantifica o quanto da variação total é devido a variação
da regressão. Varia de 0 a 1 (0 - 100%). Quanto mais próximo de 1 (100%) melhor é o ajuste do
modelo. Pode ser utilizado na seleção de modelos. O modelo com maior R2 tem melhor ajuste,
desde que os dois modelos tenham o mesmo número de parâmetros (coeficientes estimados).

SQReg 7,20
R2 = = = 0,9877 99% da variação total é devido a variação de x (variável
SQTotal 7,29
explicativa).

Coeficiente de Determinação Ajustado (R2 ajustado)


O coeficiente de determinação ajustado deve ser utilizado para comparar modelos com
número diferentes de parâmetros.
 n -1   4 -1 
R2 ajustado = 1 -  (1 - R 2 ) = 1 -  (1 - 0,9877) = 1 - (1,5x0,0123) = 0,9815
 n - (p + 1)   4 - (1 + 1) 

Teste t para parâmetros


Pode-se também testar os parâmetros β 0 e β1 com um teste t. Para isso obtemos as desvios

padrões de β 0 (Sβ 0 ) e β1 (Sβ1 ) :

  
  
 1  X 2  1 1,5635 
S(β0 ) = Se2  +  2  = 0,045 +   = 0,2598
n  n 2  n    4  1,25 
 
  ∑ x −  ∑ x  /n 
  i =1  i =1  

216
Se2 0,045
S(β1 ) = 2
= = 0,1897
n
 n  1,25
∑x 2
−  ∑ x  /n
i =1  i =1 
Se2 = quadrado médio do erro (obtido na análise de variância)

Hipóteses:
Ho: β0=0
Ha: β0 ≠ 0

Ho: β1=0
Ha: β1 ≠ 0

Teste t para β 0
β0 10,45
t cal = = = 40,22; t tab(αa (n − 1 − p) = t tab(5%) (4 − 1 − 1) = t tab(5%) (2) = 4,303
S(β 0 ) 0,2598

Teste t para β1
β1 − 2,40
t cal = = = 12,64 t tab(αa (n − 1 − p) = t tab(5%) (4 − 1 − 1) = t tab(5%) (2) = 4,303
S(β1 ) 0,1897

A regra decisória é :
t cal ≥ t tab(αa : rejeita H 0 .
t cal < t tab(αa : não rejeita H 0 .

Então, ambos são significativos, ou seja, diferentes de zero.

Intervalos de confiança para parâmetros

217
Para β 0
IC(1-α) [β 0 ± (S(β0 ) x t tab(αa )] = 10,45 ± (0,2598x 4,303) = 10,45 ± 1,12

Para β1
IC(1-α) [β1 ± (S(β1 ) x t tab(αa )] = -2,40 ± (0,1897x 4,303) = −2,40 ± 0,82

t tab(αa (n − 1 − p) = t tab(5%) (2) = 4,303

Regressão considerando a falta de ajuste


Quando os dados possuem repetição é possível fazer a mesma análise realizada
anteriormente. Porém, na análise de variância também podemos realizar análise considerando a
falta de ajuste do modelo com o seguinte esquema de tabela:

F.V G.L S.Q. Q.M. F


Regressão p SQReg QMReg QMreg/QMres
Falta de Ajustamento I-1-p SQFalt QMFalt QMFalt/QMres
(Tratamentos) I-1 SQTrat
Resíduo I(J-1) SQres QMres
Total IJ-1 SQtotal

Exemplo
Dados do ganho de peso mensal em função da densidade de animais no pasto, em um
delineamento inteiramente casualizado com três repetições.
Animal/hectare
Repetição
0,5 1,0 1,5 2,0
1 9,4 7,9 6,7 5,8
2 12,7 8,9 6,1 4,6
3 11,0 10,4 8,5 5,6
Total 33,1 27,2 21,3 16,0

Obtenção do modelo de regressão:


Modelo Estatístico Linear Yi = β o + β1X i + e i

218
n n

n ∑x ∑y i i
15x97,6
∑x y i i − i =1
n
i =1
[(9,4x0,5) + 12,7x0,5) + ... + (5,6x2,0)] −
107,7 − 122
β̂1 = i =1
= 12 = = −3,8133
 n 
2
22,5 − 18,75 3,75
n
 ∑ x i 
∑ x 2 −  i =1 
i =1
i n
n n

∑ yi ∑x i
= 8,1333 + (3,8133 x 1,25) = 12,90
β̂ 0 = i =1
− β̂1 i =1
= Y − β̂1X
n n
Modelo Ajustado: y = 12,9 – 3,8133x

Análise de variância da regressão:

2
 I,J 
 ∑ y ij 
I,J   ( 97,6)
2

SQTotal = ∑ y ij − 2  i =1, j=1 


= (9,4 + 7,9 + ... + 5,6 ) −
2 2 2
= 860,94 − 793,8133 = 67,1267
i =1, j=1 IJ 12

2
 I,J 
 ∑ y ij 
I
Ti2 i =1, j=1  (33,12 + ... + 16,0 2 )
SQTrat = ∑ − = − 793,8133 = 54,5667
i =1 J IJ 3
2
 n 
n n
 ∑ y i 
SQReg = β̂ o ∑ y i + β̂1 ∑ y i x i −  i =1  = (12,9x97,6) − (3,8133x107,7) + 793,8133 = 54,5329
i =1 i =1 n

Tabela da análise de variância da regressão.


F.V G.L S.Q. Q.M. F Ftab5%
Regressão p=1 54,5343 54,5343 34,74 5,32*
Falta de Ajustamento I-1–p=2 0,0324 0,0162 0,01 4,46n.s.
(Tratamentos) I–1=3 54,5667
Resíduo I(J-1) = 8 12,5600 1,5700
Total IJ-1 = 11 67,1267

219
Para o modelo ser adequado espera-se que a falta de ajuste seja não significativa e a
regressão seja significativa. Portanto, neste exemplo, a variável x explica a variação em y em um
modelo linear.
O R2 foi de 0,81, ou seja, a variação em x corresponde a 81% da variação total em y.
Pode-se obter o R2 em relação a tratamentos, neste caso, 99% da variação nos tratamentos é
devido a regressão.

# programação em R
# dados sem repetição
x y
0.5 9.4
1 7.9
1.5 6.7
2 5.8

# construindo o modelo
modelo=lm(y~x, data=dados)
modelo
Call:
lm(formula = y ~ x, data = dados)

Coefficients:
(Intercept) x
10.45 -2.40
# anova do modelo
anova(modelo)
Analysis of Variance Table

Response: y
Df Sum Sq Mean Sq F value Pr(>F)
x 1 7.20 7.200 160 0.006192 **
Residuals 2 0.09 0.045
---

220
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

# utilizando o pacote easyreg


require(easyreg)
regplot(dados)
$y$`Linear model`
estimates
coefficient a 10.450000
coefficient b -2.400000
p-value t.test for a 0.000618
p-value t.test for b 0.006192
r-squared 0.987654
adjusted r-squared 0.981481
AIC 2.174548
BIC 0.333431
p.value Shapiro-Wilk test 0.023857
coefficient of variation (%) 2.847410
first value most discrepant 3.000000
second value most discrepant 4.000000
third value most discrepant 1.000000

$y$`Whole model test`


df sum of squares mean squares Fcal p-value
regression 1 7.20 7.200 160 0.0062
residuals 2 0.09 0.045 - -
total 3 7.29 2.430 - -

$y$`Parameters, standard errors and confidence intervals`


parameter estimate standard error IC 2.5% IC 97.5%
1 a 10.45 0.259808 9.332138 11.567862
2 b -2.40 0.189737 -3.216371 -1.583629

221
$y$`Residuals of linear model`
[1] 0.15 -0.15 -0.15 0.15
$y$`Residuals standardized of linear model`
1 2 3 4
0.8660254 -0.8660254 -0.8660254 0.8660254

Figura 1. Ganho de peso individual (Resposne Variable) em função da lotação animal/hectare


(Explanatory Variable).

Utilizando a função regplot do pacote easyreg temos um resultado mais abrangente, que
inclui o gráfico de dispersão dos dados juntamente com o modelo (Figura 1).

# programação em R
# dados com repetição e análise considerando a falta de ajuste

x y
0.5 9.4
0.5 12.7
0.5 11.0
1 7.9
1 8.9
1 10.4
1.5 6.7

222
1.5 6.1
1.5 8.5
2 5.8
2 4.6
2 5.6

er2(dados)

$`Analysis of variance`
$`Analysis of variance`$linear
df type II SS mean square F value p>F
whole model 1 54.5307 54.5307 34.7329 <0.001
------------- - ------- ------- ------- ------
linear 1 54.5307 54.5307 34.7329 <0.001
lack_of_fit 2 0.036 0.018 0.0115 0.9886
Residuals 8 12.56 1.57 - -

$`Analysis of variance`$quadratic
df type II SS mean square F value p>F
whole model 2 2.1934 1.0967 0.6985 0.5253
------------- - ------- ------- ------- ------
linear 1 2.1634 2.1634 1.3779 0.2742
quadratic 1 0.03 0.03 0.0191 0.8935
lack_of_fit 1 0.006 0.006 0.0038 0.9522
Residuals 8 12.56 1.57 - -

$`Analysis of variance`$cubic
df type II SS mean square F value p>F
whole model 3 0.0574 0.0191 0.0122 0.998
------------- - ------- ------- ------- ------
linear 1 0.0476 0.0476 0.0303 0.8661
quadratic 1 0.0038 0.0038 0.0024 0.9619
cubic 1 0.006 0.006 0.0038 0.9522

223
Residuals 8 12.56 1.57 - -

$Models
$Models$linear
(Intercept) linear
12.9000 -3.8133

$Models$quadratic
(Intercept) linear quadratic
13.1500 -4.3133 0.2000

$Models$cubic
(Intercept) linear quadratic cubic
12.8000 -3.2000 -0.8000 0.2667

$`t test for coefficients`


$`t test for coefficients`$linear
Estimate Std. Error t value Pr(>|t|)
(Intercept) 12.9000 0.886 14.5598 0e+00
linear -3.8133 0.647 -5.8935 4e-04

$`t test for coefficients`$quadratic


Estimate Std. Error t value Pr(>|t|)
(Intercept) 13.1500 2.0139 6.5296 0.0002
linear -4.3133 3.6745 -1.1739 0.2742
quadratic 0.2000 1.4468 0.1382 0.8935

$`t test for coefficients`$cubic


Estimate Std. Error t value Pr(>|t|)
(Intercept) 12.8000 6.0092 2.1301 0.0658
linear -3.2000 18.3804 -0.1741 0.8661
quadratic -0.8000 16.2407 -0.0493 0.9619
224
cubic 0.2667 4.3136 0.0618 0.9522

$`Confidence intervals`
$`Confidence intervals`$linear
2.5 % 97.5 %
(Intercept) 10.8569 14.9431
linear -5.3054 -2.3212

$`Confidence intervals`$quadratic
2.5 % 97.5 %
(Intercept) 8.5059 17.7941
linear -12.7868 4.1601
quadratic -3.1364 3.5364

$`Confidence intervals`$cubic
2.5 % 97.5 %
(Intercept) -1.0571 26.6571
linear -45.5854 39.1854
quadratic -38.2511 36.6511
cubic -9.6806 10.2139

$`R-squared`
Models R_squared Adjusted_R_squared
1 linear 0.9993 0.9992
2 quadratic 0.9999 0.9998
3 cubic 1.0000 1.0000
Para esta análise utilizamos a função er2 também pertencente ao pacote easyreg. A
função retorna a anova em modelo linear, quadrático e cúbido, além dos modelos, testes t para
coeficientes e coeficientes de determinação dos modelos.

Regressão com álgebra de matrizes

225
A solução para encontrarmos e testarmos parâmetros de um modelo de regressão é muito
mais fácil utilizando álgebra de matrizes e soluções de sistemas lineares.
Assim, o modelo Yi = β o + β1X i + e i pode ser escrito na forma espandida, com n
observações, nos sequintes sistemas lineares:
Y1 = β o + β1X1 + e1
Y2 = β o + β1X 2 + e 2
Y3 = β o + β1X 3 + e 3
M
Yn = β o + β1X n + e n

Estas equações podem ser escritas em forma matricial Y = Xβ + ε (modelo linear de


Gauss Markov) em que:

Y1  1 X1  ε1 
Y  1 X2   ε 
 2  β 0   2
Y = Y3 ; X = 1 X 3 ; β =  ; ε = ε 3 
    β1   
 M M M  M
Yn  1 X n  ε n 

A solução do sistema para encontrarmos os parâmetros é:

β̂ = (X' X) -1 X' Y sendo X' a matriz transposta de X e (X' X) -1 a inversa de X' X .

Vamos considerar o seguinte exemplo:

Ganho de peso de aves de corte (machos de 1 a 21 dias de idade) em função de níveis de proteína
bruta (%) na ração.
Níveis de Proteína (%) Ganho de Peso (grama)
19 631
20 642
21 653
22 667
23 670
24 669

Modelo Linear

226
y = a + bx (modelo matemático)
y i = β 0 + β1x i + e i (modelo estatístico)
Y1  1 X1  ε1 
Y  1 X2   ε 
 2  β 0   2
Y = Y3 ; X = 1 X 3 ; β =  ; ε = ε 3 
    β1   
 M M M  M
Yn  1 X n  ε n 

Estimativa dos Parâmetros (vetor β)

227
631 1 19 
642 1 20
  
653 1 21 β 0 
Y =  ; X =  ; β =  ;
667  1 22 β1 
670 1 23
   
669 1 24
1 19 
1 20

 1 1 1 1 1 1 1 21  6 129 
X' X =   = 
19 20 21 22 23 241 22 129 2791
1 23
 
1 24
26,58 − 1,23
(X' X) -1 =  
− 1,23 0,06 
631
642
 
 1 1 1 1 1 1 653  3932 
X' Y =    =  
19 20 21 22 23 24667 84682
670
 
669
26,58 − 1,23 3932  478,42
β̂ = (X' X) -1 X' Y =   =  ; β̂ 0 = 478,42; β̂1 = 8,23
− 1,23 0,06 84682  8,23 

228
Erros e Variâncias

631  634,76  - 3,76


642  642,99  - 0,99
     
653  651,22   1,78 
Y =  ; Ŷ =  ; ε̂ = Y − Ŷ =  
667   659,45   7,55 
670  667,68   2,32 
     
669  675,91  - 6,91
Y = valores observados; Y = valores estimados com o modelo ajustado; ε̂ = estimativa dos erros
ε' ε = SQerro = 128,419
SQerro 128,419
QMerro = Se2 = = = 32,10
n −1 − p 6 −1 −1
Desvios padrões dos parâmetros (raiz quadrada da diagonal da matriz)
( X' X) -1 * Se2 = matriz de variâncias e covariâncias

26,58 − 1,23 853,24 − 39,44


( X' X) -1 * Se2 =  * 32,10 = 
− 1,23 0,06  − 39,44 1,83 
S(β0 ) = 853,24 = 29,21; S(β1 ) = 1,83 = 1,35

2
 n 
n
 ∑ y i 
SQtotal = ∑ y i −  i =1
2  = 1313,33
i =1 n
2
 n 
 ∑ y i 
SQregressão = β̂' X' Y −  i =1
n
[ ]
 = 478,42 8,23  3932  − 2576771 = 2577956 - 2576771
84682
 
SQregressão = 1185

Modelo Quadrático

229
y = a + bx + cx 2 (modelo matemático)
2
y i = β 0 + β1x i + β 2 x i + e i (modelo estatístico)
1 X1 X12  ε1 
 2 ε 
1 X2 X2  β 0   2
X = 1 X3 2  
X 3 ; β = 1 ; ε = ε 3 
β
     
M M M β 2   M
1 Xn 2
Xn  ε n 

Estimativa dos Parâmetros (vetor β)

230
631 1 19 361
642 1 20 400
   β 0 
653 1 21 441  
Y =  ; X =  ; β = β1 ;
667  1 22 484
670 1 β 2 
23 529 
   
669 1 24 576 
1 19 361
1 20 400
 1 1 1 1 1 1   6 129 2791 
1 21 441 
X' X =  19 20 21 22 23 24 

 =  129 2791 60759 
1 22 484
361 400 441 484 529 576 2791 60759 1330675
1 23 529  
 
1 24 576 
5678,021 - 530,28 12,30 
(X' X) =  - 530,28 49,584 - 1,15 
-1

 12,30 - 1,15 0,027 

631
642
1 1 1 1 1 1    3932 
653
X' Y =  19 20 21 22 23 24   =  84682 
667
361 400 441 484 529 576  1835166
670
 
669
5678,021 - 530,28 12,30  3932  β̂ 0 = -276,20
 
β̂ = (X' X) X' Y =  - 530,28 49,584 - 1,15  84682  =  β̂1 = 78,87 
-1

 12,30 - 1,15 0,027 1835166  β̂ 2 = -1,64 

Erros e Variâncias

231
631  629,29   1,71 
642  644,09  - 2,09
     
653  655,60   2,60 
Y =  ; Ŷ =  ; ε̂ = Y − Ŷ =  
667
   663,83   3,17 
670  668,77   1,23 
     
669  670,43  - 1,43 
Y = valores observados; Y = valores estimados com o modelo ajustado; ε̂ = estimativa dos erros
ε' ε = SQerro = 27,66
SQerro 27,66
QMerro = Se2 = = = 9,22
n −1 − p 6 −1 − 2
Desvios padrões dos parâmetros (raiz quadrada da diagonal da matriz)
( X' X) -1 * Se2 = matriz de variâncias e covariâncias

52351,357 − 4889,201 113,439 


26,58 − 1,23
( X' X) * S =  * 9,22 =  − 10,619
-1 2
e  − 457,164
− 1,23 0,06   − − 0,247 
S(β0 ) = 52351,357 = 228,8; S(β1 ) = 457,164 = 21,38; S(β 2 ) = 0,247 = 0,497

2
 n 
n
 ∑ y i 
SQtotal = ∑ y i −  i =1
2  = 1313,33
i =1 n
2
 n
 ∑ y i
 5678,021 - 530,28 12,30 
SQregressão = β̂' X' Y −  i =1
n
[  ]
 = − 276,2 78,87 − 1,643  - 530,28 49,584 - 1,15  − 2576771

 12,30 - 1,15 0,027 
SQregressão = 2578056 - 2576771 = 1285

Seleção de Modelos
Estimados os modelos de interesse deve-se selecionar qual será utilizado. Algumas informações
devem ser analisadas. São elas:
1. O modelo deve ser significativo. Excluindo β0, os demais coeficentes devem ser significativos.
2. O modelo deve ter boa explicação biológica.
3. Se todos os modelos atenderem os itens 1 e 2 observa-se o coeficente de determinação
ajustado. O modelo de maior valor pode ser selecionado.
4. Se ainda houver um empate seleciona-se o modelo mais simples (com menos parâmetros).

232
A seguir um quadro resumido da análise feira anteriormente como modelo linear e quadrático.
Modelo Parâmetros p (teste t) p (teste F do modelo) R2 ajustado
478,42 0,0000
linear 0,0037 0,8777
8,23 0,0037

-276,20 0,3139
quadrático 78,87 0,0345 0,0031 0,9649
-1,64 0,0455

Ambos os modelos tem coeficientes associados a x com significância e modelos


significativos. Se ambos tem boa explicação biológica opta-se pelo modelo quadrático devido ao
maior coeficiente de determinação.
Modelos polinomiais de grau 3 ou superior geralmente não são avaliados por não terem
boa explicação biológica e ajuste adequado aos dados. Modelos com mais de uma variável
explicativa podem ser obtidos pelo processo matrixial aqui descrito. Também, pelo mesmo
processo, podem-se incluir outros efeitos como um efeito de bloco de um delinemaento de
blocos casualizados.
Modelo não lineares nos parâmetros, como os da família exponencial são ditos não
lineares e tem solução mais complicada. A seguir resolveremos este exemplo, incluindo um
modelo bisegmentados, utilizando o software R.

# solução em R

x y
19 631
20 642
21 653
22 667
23 670
24 669
require(easyreg)
regplot(dados, model= 1) # linear
regplot(dados, model= 2) # quadrático
bl(dados, model= 2) # linear com platô (modelo bisegmentado)

regplot(dados, model= 1) # linear

233
$y
$y$`Linear model`
estimates
coefficient a 478.419048
coefficient b 8.228571
p-value t.test for a 0.000081
p-value t.test for b 0.003709
r-squared 0.902219
adjusted r-squared 0.877774
AIC 41.408498
BIC 40.783776
p.value Shapiro-Wilk test 0.974562
coefficient of variation (%) 0.864614
first value most discrepant 4.000000
second value most discrepant 6.000000
third value most discrepant 1.000000

$y$`Whole model test`


df sum of squares mean squares Fcal p-value
regression 1 1184.914 1184.9143 36.9077 0.0037
residuals 4 128.419 32.1048 - -
total 5 1313.333 262.6667 - -

$y$`Parameters, standard errors and confidence intervals`


parameter estimate standard error IC 2.5% IC 97.5%
1 a 478.419048 29.212585 397.311908 559.52619
2 b 8.228571 1.354458 4.467992 11.98915

$y$`Residuals of linear model`


[1] -3.7619048 -0.9904762 1.7809524 7.5523810 2.3238095 -6.9047619

$y$`Residuals standardized of linear model`


234
1 2 3 4 5 6
-0.7422976 -0.1954404 0.3514169 1.4902330 0.4585332 -1.3624450

regplot(dados, model= 2) # quadrático


$y
$y$`Quadratic model`
estimates
coefficient a -276.200000
coefficient b 78.871429
coefficient c -1.642857
p-value t.test for a 0.313852
p-value t.test for b 0.034541
p-value t.test for c 0.045528
r-squared 0.978941
adjusted r-squared 0.964902
AIC 34.196010
BIC 33.363048
maximum or minimum value for y 670.428602
critical point in x 24.004348
p.value Shapiro-Wilk test 0.425274
coefficient of variation (%) 0.463320
first value most discrepant 4.000000
second value most discrepant 3.000000
third value most discrepant 2.000000

$y$`Whole model test`


df sum of squares mean squares Fcal p-value
regression 2 1285.6762 642.8381 69.7293 0.0031
residuals 3 27.6571 9.2190 - -
total 5 1313.3333 262.6667 - -

$y$`Parameters, standard errors and confidence intervals`


235
parameter estimate standard error IC 2.5% IC 97.5%
1 a -276.200000 228.792373 -1004.319442 451.919442
2 b 78.871429 21.380285 10.829819 146.913038
3 c -1.642857 0.496929 -3.224308 -0.061406

$y$`Residuals of quadratic model`


[1] 1.714286 -2.085714 -2.600000 3.171429 1.228571 -1.428571

$y$`Residuals standardized of quadratic model`


1 2 3 4 5 6
0.7288943 -0.8868214 -1.1054897 1.3484544 0.5223742 -0.6074119

bl(dados, model= 2) # linear com platô (modelo bisegmentado)


$Coefficients
a b plateau
404.3 11.9 669.5

$`p values for coefficients`


a b plateau
0.000028 0.000128 0.000000

$`x plateau`
[1] 22.28571

$`y plateau`
[1] 669.5

$`Whole model test`


df sum of squares mean squares Fcal p-value
regression 2 1310.133 655.0667 614.125 <0.001
residuals 3 3.200 1.0667 - -
236
total 5 1313.333 262.6667 - -

$`Parameters, standard error and confidence intervals`


Parameters estimate standard.error inf.2.5 sup.97.5
1 a 404.3 9.482616 374.12209 434.47791
2 b 11.9 0.461880 10.43009 13.36991
3 c 669.5 0.730297 667.17587 671.82413

$`R-squared`
[1] 0.997563

$`Adjusted R-squared`
[1] 0.995939

$AIC
[1] 21.25561

$BIC
[1] 20.42265

$Residuals
[1] 0.6 -0.3 -1.2 0.9 0.5 -0.5

$`Standartized residuals`
[1] 0.750 -0.375 -1.500 1.125 0.625 -0.625

$`P value (Shapiro-Wilk test for residuals)`


[1] 0.618248

237
Figura 2. Dispersão dos dados com modelo linear, quadrático e linear com platô.

O resultado aqui é acrescentado com a análise do modelo bisegmentado com platô a


partir de x=22,28. Então, segundo este modelo, a partir de 22% de proteína não ocorre acréscimo
no ganho de peso (ocorre um platô). O modelo com platô teve o maior coeficiente de
deterimação ajustado e seria o escolhido pelos critérios anteriormente descritos.
Também temos uma visualização gráfica, a qual ajuda muito a observar a dispersão dos
dados junatamente com o ajuste do modelo.

238
Exercícios
1. Para verificar se existe relação linear de grau um entre a quantidade de determinado nutriente
fornecido na ração com a produção de leite de cabras, um pesquisador realizou um experimento
cujos dados se encontram no quadro abaixo:

Níveis do nutriente (g) 5,0 7,5 10,0 12,5 15,0


Produção de leite (L/dia) 1,2 1,7 2,0 2,1 2,5

a) Obtenha uma medida de associação entre as variáveis.


b) Obtenha a equação ajustada.
c) Faça a análise de variância da regressão e conclua se a variação na produção de leite de cabras
é influenciada significativamente pela variação do nutriente analisado.
d) Qual porcentagem da variação na produção de leite é explicada pela variação dos níveis do
nutriente analisado?
e) Qual a produtividade de leite esperada quando, nas mesmas condições experimentais, uma
cabra for alimentada com uma ração contendo 20 g do nutriente em questão?

2. Considere um experimento em DIC com 3 repetições, para comparar o efeito de 5 dosagens de


um sonífero (X), em mg, sobre o tempo de sono (Y), em horas, de ratos de laboratório. Os dados
encontram-se no quadro abaixo:
Dose (MG)
Repetições
1 2 3 4 5
1 3 5 8 9 12
2 4 9 10 13 11
3 8 13 12 17 16
a) Faça um teste F para a falta de ajustamento e conclua se o modelo de regressão linear é
apropriado para descrever o tempo de sono em função da dosagem de sonífero.
b) O valor estimado de β1 (b) é estatisticamente diferente de zero? Justifique a sua resposta.
c) De acordo com a equação de regressão estimada, qual seria o tempo de sono dos ratos caso
uma dosagem de 9 mg fosse usada?

239
3) Considere um experimento instalado em DIC para verificar se existe efeito significativo do
fator quantitativo C sobre uma variável dependente Y. Suponha que foram utilizadas 4 repetições
e que foram fornecidas as seguintes informações:
FV GL SQ QM F
Regressão 76
Falta de Ajustamento
(Tratamentos) (4) 102
Resíduo
Total 126
Obs.: Utilizou-se um modelo linear
Pede-se:

a) O valor de F calculado para a regressão.


b) O valor de F calculado para a falta de ajustamento.

240
Tabelas Estatísticas

241
Tabela 1. Distribuição de frequência normal acumulada de z (área sob a curva normal de 0 a z)
Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,00000 0,00399 0,00798 0,01197 0,01595 0,01994 0,02392 0,02790 0,03188 0,03586
0,1 0,03983 0,04380 0,04776 0,05172 0,05567 0,05962 0,06356 0,06749 0,07142 0,07535
0,2 0,07926 0,08317 0,08706 0,09095 0,09483 0,09871 0,10257 0,10642 0,11026 0,11409
0,3 0,11791 0,12172 0,12552 0,12930 0,13307 0,13683 0,14058 0,14431 0,14803 0,15173
0,4 0,15542 0,15910 0,16276 0,16640 0,17003 0,17364 0,17724 0,18082 0,18439 0,18793
0,5 0,19146 0,19497 0,19847 0,20194 0,20540 0,20884 0,21226 0,21566 0,21904 0,22240
0,6 0,22575 0,22907 0,23237 0,23565 0,23891 0,24215 0,24537 0,24857 0,25175 0,25490
0,7 0,25804 0,26115 0,26424 0,26730 0,27035 0,27337 0,27637 0,27935 0,28230 0,28524
0,8 0,28814 0,29103 0,29389 0,29673 0,29955 0,30234 0,30511 0,30785 0,31057 0,31327
0,9 0,31594 0,31859 0,32121 0,32381 0,32639 0,32894 0,33147 0,33398 0,33646 0,33891
1,0 0,34134 0,34375 0,34614 0,34849 0,35083 0,35314 0,35543 0,35769 0,35993 0,36214
1,1 0,36433 0,36650 0,36864 0,37076 0,37286 0,37493 0,37698 0,37900 0,38100 0,38298
1,2 0,38493 0,38686 0,38877 0,39065 0,39251 0,39435 0,39617 0,39796 0,39973 0,40147
1,3 0,40320 0,40490 0,40658 0,40824 0,40988 0,41149 0,41308 0,41466 0,41621 0,41774
1,4 0,41924 0,42073 0,42220 0,42364 0,42507 0,42647 0,42785 0,42922 0,43056 0,43189
1,5 0,43319 0,43448 0,43574 0,43699 0,43822 0,43943 0,44062 0,44179 0,44295 0,44408
1,6 0,44520 0,44630 0,44738 0,44845 0,44950 0,45053 0,45154 0,45254 0,45352 0,45449
1,7 0,45543 0,45637 0,45728 0,45818 0,45907 0,45994 0,46080 0,46164 0,46246 0,46327
1,8 0,46407 0,46485 0,46562 0,46638 0,46712 0,46784 0,46856 0,46926 0,46995 0,47062
1,9 0,47128 0,47193 0,47257 0,47320 0,47381 0,47441 0,47500 0,47558 0,47615 0,47670
2,0 0,47725 0,47778 0,47831 0,47882 0,47932 0,47982 0,48030 0,48077 0,48124 0,48169
2,1 0,48214 0,48257 0,48300 0,48341 0,48382 0,48422 0,48461 0,48500 0,48537 0,48574
2,2 0,48610 0,48645 0,48679 0,48713 0,48745 0,48778 0,48809 0,48840 0,48870 0,48899
2,3 0,48928 0,48956 0,48983 0,49010 0,49036 0,49061 0,49086 0,49111 0,49134 0,49158
2,4 0,49180 0,49202 0,49224 0,49245 0,49266 0,49286 0,49305 0,49324 0,49343 0,49361
2,5 0,49379 0,49396 0,49413 0,49430 0,49446 0,49461 0,49477 0,49492 0,49506 0,49520
2,6 0,49534 0,49547 0,49560 0,49573 0,49585 0,49598 0,49609 0,49621 0,49632 0,49643
2,7 0,49653 0,49664 0,49674 0,49683 0,49693 0,49702 0,49711 0,49720 0,49728 0,49736
2,8 0,49744 0,49752 0,49760 0,49767 0,49774 0,49781 0,49788 0,49795 0,49801 0,49807
2,9 0,49813 0,49819 0,49825 0,49831 0,49836 0,49841 0,49846 0,49851 0,49856 0,49861
3,0 0,49865 0,49869 0,49874 0,49878 0,49882 0,49886 0,49889 0,49893 0,49896 0,49900
3,1 0,49903 0,49906 0,49910 0,49913 0,49916 0,49918 0,49921 0,49924 0,49926 0,49929
3,2 0,49931 0,49934 0,49936 0,49938 0,49940 0,49942 0,49944 0,49946 0,49948 0,49950
3,3 0,49952 0,49953 0,49955 0,49957 0,49958 0,49960 0,49961 0,49962 0,49964 0,49965
3,4 0,49966 0,49968 0,49969 0,49970 0,49971 0,49972 0,49973 0,49974 0,49975 0,49976
3,5 0,49977 0,49978 0,49978 0,49979 0,49980 0,49981 0,49981 0,49982 0,49983 0,49983
3,6 0,49984 0,49985 0,49985 0,49986 0,49986 0,49987 0,49987 0,49988 0,49988 0,49989
3,7 0,49989 0,49990 0,49990 0,49990 0,49991 0,49991 0,49992 0,49992 0,49992 0,49992
3,8 0,49993 0,49993 0,49993 0,49994 0,49994 0,49994 0,49994 0,49995 0,49995 0,49995
3,9 >0,49995 etc ...

242
243

Você também pode gostar