Incerteza e Estatística
Incerteza e Estatística
Incerteza e Estatística
Fı́sica Experimental 1
Resumo
Sumário
1 Acurácia e precisão 2
3.1 Média . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.3 Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
4 Distribuição Gaussiana 10
1 Acurácia e precisão
A fı́sica clássica pressupõe a existência de um valor verdadeiro para toda grandeza fı́sica, inde-
pendente de observação. A medida é uma forma de extrair essa informação disponı́vel no objeto.
O objetivo da medida é ser o mais fiel possı́vel na determinação desse valor. No entanto, di-
versas fontes de incerteza inexoravelmente afetam o resultado de medida. Fazemos aqui um estudo
sistemático das formas como isso pode ocorrer.
A figura 1 ilustra o que se busca obter com uma medida. Imagine, seguindo a figura, um alvo
simbolizando o valor verdadeiro da grandeza que se quer determinar, e medidas, representadas pelos
cı́rculos vermelhos da figura, como dardos a mirar o centro do alvo.
Figura 1: Ilustração de diversos cenários de medidas com incerteza. (A) Baixas precisão e acurácia.
(B) Baixa precisão e alta acurácia. (C) Alta precisão e baixa acurácia. (D) Altas precisão e acurácia.
É possı́vel descrever cada conjunto de medidas dos quadros acima segundo dois critérios.
• A precisão da medida diz respeito à dispersão do conjunto. Alta precisão significa que medidas
independentes retornam valores similares se repetidas várias vezes.
Em (A), o conjunto de medidas retorna valores bem diferentes (baixa precisão) e, quando consi-
derada sua média (cı́rculo mais escuro), obtemos como resultado algo que ainda se desvia substanci-
almente do valor verdadeiro (baixa acurácia). No outro extremo, o cenário (D) mostra uma série de
medidas que concordam bem entre si (alta precisão) e com o valor verdadeiro (alta acurácia).
Dois outros cenários podem ocorrer ainda. Em (C), as medidas concordam bem entre si (alta
precisão), mas divergem consideravelmente do valor verdadeiro (baixa acurácia). Em (B), o oposto
2
Apostila 2: Incerteza e estatı́stica
ocorre, i.e. medidas com dispersão maior (baixa precisão), porém em média bem próximas do valor
verdadeiro buscado (alta acurácia).
A precisão de uma medida é, portanto, algo relativamente simples de ser verificado, bastando
repetir a medida várias vezes. A acurácia, pelo contrário, não é simples de se determinar, pois o
valor verdadeiro da grandeza é em geral desconhecido.
Erros experimentais podem ser classificados em três categorias gerais: grosseiros, sistemáticos
e aleatórios.
Erros grosseiros são decorrentes de falhas humanas, como leitura errada de um instrumento de
medida, erros de cálculo, utilização de equipamento desligado (muito comum!) e até mesmo total
falta de noção sobre o experimento.
Esse tipo de erro vem muitas vezes acompanhado de vergonha e embaraço por parte do experimen-
tador, sendo por isso facilmente reconhecı́vel! É aceitável que ocorra no inı́cio do experimento, mas
se ocorrer também em outras etapas pode representar um péssimo sinal acerca de sua compreensão
das coisas.
Os erros grosseiros podem ser corrigidos repetindo-se o experimento com modificações adequa-
das (como ligar o equipamento na tomada...). Em casos recalcitrantes, é recomendada a troca do
experimentador. Bazinga.
Erros sistemáticos são os mais freqüentes e requerem um estudo cuidadoso das condições ex-
perimentais, para que possam ser caracterizados e corrigidos.
Eles têm esse nome porque estão sistematicamente associados a um determinado instrumento ou
técnica de medida, ou seja, ficam embutidos no próprio procedimento de medida, de forma que não
podem ser reconhecidos pela simples repetição do experimento.
Erros sistemáticos causam inacurácia, erodindo a confiança nos resultados de medida. Por isso,
erros sistemáticos podem afetar de forma grave as conclusões do experimento. Alguns erros sis-
3
Fı́sica Experimental 1
temáticos são muito comuns, sendo praxe adotarem-se alguns procedimentos anteriores ao inı́cio do
experimento para evitá-los.
Por exemplo, um erro na calibração da marcação do zero do instrumento levará a erro sistemático,
algo comum de se ocorrer no uso do micrômetro: nesse caso, todas as medidas subestimarão ou
superestimarão por um mesmo valor constante as grandezas medidas. Para evitá-lo, basta checar o
aparato antes da medida, recalibrando a marcação do zero do instrumento.
Outro erro sistemático comum ocorre pela má calibração da escala do instrumento de medida,
tal como um termômetro que indicasse as temperaturas 0o C na transição de fases sólida-lı́quida
para água, e 110o C na transição lı́quida-gasosa (supondo CNTP). Se utilizado para medir outras
temperaturas, esse termômetro apresentaria valores que variariam sistematicamente de uma forma
linear com a temperatura em Celsius (em primeira aproximação). A única maneira de eliminar esse
erro é recalibrar o instrumento.
Erros aleatórios são produzidos por variações imprevisı́veis na situação experimental, regidas
pelo acaso. Essas podem ser causadas pelo próprio experimentador, e.g. ao introduzir erro variável na
leitura ou manipulação do instrumento de medida, ou por causas externas, como vibrações mecânicas,
variações da tensão da rede elétrica etc.
Contrariamente ao que ocorre com os erros sistemáticos, os erros aleatórios não são reprodutı́veis,
apresentando por definição igual probabilidade de aumentar ou reduzir o valor da grandeza fı́sica
medida1 . Erros aleatórios tendem a modificar a dispersão das medidas como conjunto e, com isso,
afetar a precisão da medida.
Se perfeitamente aleatórios, observa-se que esses erros se distribuem segundo uma função univer-
sal, a distribuição gaussiana, tornando-se desse modo possı́vel o uso de métodos estatı́sticos para
tratá-los e minimizar sua influência sobre os resultados de medida.
Um exemplo simples de erro aleatório pode decorrer do tempo humano de reflexo. Considere
um experimentador que busque medir o perı́odo de oscilação de um pêndulo simples observando seu
movimento periódico. O experimentador aciona o cronômetro a cada vez que o pêndulo atinge um
determinado ponto da oscilação. Se o movimento do pêndulo for muito rápido (quanto comparado
ao tempo tı́pico de reação do ser humano), o experimentador irá ora subestimar, ora superestimar,
o instante de acionamento do cronômetro, introduzindo fonte de erro aleatório na medida.
Erros aleatórios não alteram de forma sistemática o valor médio do conjunto de medidas. Com
isso, obtemos uma forma estatı́stica de reduzir seus efeitos tanto quanto queiramos: observando
propriedades de um conjunto de medidas e associando-as às grandezas de interesse.
1
Caso não seja assim, e o erro possua portanto viés num sentido, ele também possui componente sistemática.
4
Apostila 2: Incerteza e estatı́stica
A análise estatı́stica de dados se torna interessante quando o valor medido sofre erro
aleatório. Nesse caso, uma única medida passa a ter um grau de confiança claramente menor que
apenas instrumental. Imagine você tentando medir o comprimento de uma mesa com uma trena ao
mesmo tempo em que alguém a chacoalha! Como aumentar o grau de confiança dessa medida?
A resposta é buscar diminuir a influência de fontes de erros aleatórios pela repetição de medidas.
Em vez de confiarmos no resultado de uma única medida, passamos a pensar diferente e a querer
entender se existe algum comportamento geral em um conjunto de medidas.
Portanto, em vez de buscar medir o valor mais confiável diretamente, vamos tentar levantar a
distribuição estatı́stica a que medidas repetitivas obedecem. Se a fonte de incerteza for verdadeira-
mente aleatória, esses valores seguem uma distribuição de probabilidade universal com caracterı́sticas
bem amigáveis: a distribuição gaussiana.
Nesse caso, a missão do(a) experimentador(a) passa a ser determinar com maior precisão possı́vel
essa distribuição. Claro que nunca conseguiremos determiná-la perfeitamente: essa distribuição
contı́nua só existe como um limite para um número infinito de medidas. Mas podemos chegar tão
próximos da distribuição verdadeira quanto necessário, aumentando o número de medidas.
O passo final e crucial é associar quantidades dessa função aos objetos que queremos determinar:
valor mais confiável e incerteza. O valor mais confiável da grandeza passa a ser fornecido por alguma
propriedade da distribuição estatı́stica, tal como a média do conjunto ou o valor mais provável da
distribuição. Sua incerteza está associada à dispersão do conjunto das medidas, conforme veremos
de forma mais rigorosa a seguir.
O tratamento estatı́stico traz uma nova forma de interpretar resultados de medida em geral, que
passam a ser entendidos em termos de distribuições de probabilidade.
3.1 Média
em que a notação hmi denota a média das medidas mk . Também é comum utilizar a notação
m = hmi.
5
Fı́sica Experimental 1
A dispersão do conjunto de medidas está relacionada ao desvio δmk de cada ponto com relação
à média, dado por
δmk = mk − hmi. (2)
Definir a dispersão como a média dos desvios não funcionaria, pois hδmk i = 0 por construção, uma
vez que
N N N
1 X 1 X 1 X 1
hδmi = (mk − hmi) = mk − hmi 1 = hmi − hmi · N = 0, (3)
N k=1 N k=1 N k=1 N
PN
em que tiramos constantes como hmi de dentro do somatório e usamos tanto a igualdade k=1 1=N
quanto a Eq. (1) para definição da média.
Uma forma de evitar esse problema é tomar os quadrados dos desvios, obtendo apenas números
positivos, e somente após esse passo tomar a média. Com isso, obtemos a variância σ 2 do conjunto
como um quantificador da dispersão,
N
1 X
2 2
σ = hδm i = (mk − hmi)2 . (4)
N k=1
A fim de comparar esse quantificador com a média, devemos tomar sua raiz quadrada, até mesmo
por motivos de compatibilizar unidades de medida. Definimos assim o desvio quadrático médio
ou desvio padrão σ do conjunto de valores mk .
A expressão para a variância pode ainda ser escrita de outra forma. Calculando explicitamente
o quadrado que aparece no segundo membro da Eq. (4), obtemos
N
1 X 2
σ2 = mk − 2hmimk + hmi2
N k=1
N N N
1 X 2 1 X 2 1
X
= m − 2hmi mk + hmi 1
N k=1 k N k=1 N k=1
= hm2 i − 2hmihmi + hmi2 , (5)
Obtemos finalmente
σ 2 = hm2 i − hmi2 . (6)
Essa forma de expressar a variância mostra que ela pode ser calculada como a diferença entre a
média dos quadrados das medidas individuais e o quadrado da média. Para conjuntos com média nula,
como é o caso dos desvios δmk , a variância é simplesmente a média dos quadrados, σ 2 = h(δm)2 i,
conforme dado pela Eq. (4).
6
Apostila 2: Incerteza e estatı́stica
Para conjuntos de medidas compostos por alguns poucos valores, portanto muito distantes da
idealização estatı́stica do limite N → ∞, é conveniente estimar a dispersão pelo desvio padrão
amostral σA , definido através da variância amostral σA2 como
N
1 X
σA2 = (mk − hmi)2 . (7)
N − 1 k=1
3.3 Histograma
O gráfico em histograma é uma forma de representar a frequência de medidas com valores simi-
lares a fim de extrair significado estatı́stico do conjunto. O histograma é uma ferramenta de
visualização. Seu objetivo é desvendar o perfil da distribuição aleatória de valores medidos.
Nesse tipo de gráfico, representamos no eixo x intervalos compatı́veis com valores do conjunto
de medidas, e no eixo y a frequência com que aparecem. O procedimento para a confecção de um
histograma segue os seguintes passos:
• O número n é tipicamente escolhido como ‘algumas vezes menor’ que o número N de medidas
no conjunto. A ideia é que cada caixa contenha um número apreciável de medidas, evitando a
ocorrência de caixas vazias no meio do intervalo.
Assim, o histograma é um gráfico composto por retângulos justapostos em que a base de cada
um corresponde à caixa e a altura, à frequência (Fig. 2). O histograma é um importante indicador
da distribuição de dados.
7
Fı́sica Experimental 1
Suponhamos que muitas variáveis fora de nosso controle afetem o desempenho dessa turma to-
talmente hipotética, e que portanto o medidor de compreensão da classe possua grande dispersão.
Ao final da prova, o conjunto de notas da Tab. 1 é obtido.
2,65 2,55 1,70 1,70 1,75 1,45 0,45 2,30 1,08 1,39 2,30
1,70 1,38 2,13 1,73 1,23 2,00 2,13 1,53 1,40 1,70
Podemos esperar uma distribuição de notas com vários estudantes concentrados em torno de
uma nota tı́pica e alguns poucos sobressaindo-se (tanto no sentido negativo quanto positivo). Para
representar essa distribuição em forma de histograma, buscamos discretizar intervalos com o obje-
tivo de tornar bem evidente o formato global da distribuição. Isso certamente não será verdade se
escolhermos caixas muito pequenas, caso em que haverá apenas uma nota por caixa; o mesmo vale
para caixas muito grandes, pois então todos os estudantes pertencerão à mesma caixa.
Para encontrar o melhor tamanho de caixa, consideremos primeiramente tanto a maior quanto a
menor nota do conjunto, e escolhamos valores nessas proximidades. Por exemplo, tomemos xmin =
0,45 e xmax = 2,85 como intervalo total de existência do histograma.
O passo mais delicado consiste na escolha do tamanho de cada caixa ou, equivalentemente, do
número n de caixas. Tomemos como base o número total de dados N = 21, que nos fornece
grosseiramente um limite superior para o número de caixas, para escolher o número médio de entradas
por caixa em torno da unidade. Escolhendo o número de caixas como n = 8, de forma a termos algo
como 2 entradas por caixa em média. Nesse caso, o intervalo ∆x ocupado por cada caixa deve ser
∆x = (xmax − xmin )/n = 0,4.
8
Apostila 2: Incerteza e estatı́stica
A tabela 2 mostra em sua primeira coluna os intervalos resultantes dessas escolhas. O primeiro
intervalo, por exemplo, é [0,05; 0,45[, em que a notação indica ser o intervalo fechado à esquerda e
aberto à direita (i.e. medida com valor no extremo inferior é contada dentro do intervalo, enquanto
no valor extremo superior, não).
A contagem do número de entradas da tabela 1 dentro de cada intervalo nos fornece as frequências
absolutas fj (j = 1, 2, . . . , n) denotadas na Tab. 2. O histograma resultante é mostrado na figura 2.
Vemos que o intervalo de notas com maior frequência, entre 1,65 e 2,05, contém 7 estudantes. Além
disso, apenas 2 estudantes obtiveram nota entre 2,45 e 2,85, e nenhum obteve nota superior a 2,85
(sim, de fato uma situação vergonhosa para a turma).
Podemos utilizar os valores do histograma também para facilitar cálculos de média e variância
de forma ponderada. Definimos para isso a fração de medidas que recai em cada intervalo, i.e. a
frequência relativa ou probabilidade pj = fj /N . Note que 0 ≤ pj ≤ 1.
P
Os valores pj do exemplo acima aparecem na última coluna da Tab. 2. Note que j pj = 1 dentro
da precisão permitida pelo número de pontos.
Para representar o valor aproximado de cada intervalo em cálculos estatı́sticos, utilizamos o valor
mediano xj , representado na segunda coluna da tabela. Realizamos por fim os cálculos utilizando pj
como pesos para ponderação.
9
Fı́sica Experimental 1
O cálculo da variância segue a mesma lógica. Utilizando a Eq. (9), porém com x2j no lugar de xj ,
uma vez que queremos determinar hx2 i, obtemos
n n n
2 1 X 2
X fj 2 X
hx i = f j · xj = · xj = pj · x2j . (10)
N j=1 j=1
N j=1
p
O desvio padrão, dado pela Eq. (6), é calculado como σ = hx2 i − hxi2 .
Para o cálculo de hxi, tomamos f (x) = x; para o cálculo de σ 2 , f (x) = (x − hxi)2 , e assim por diante.
Para o exemplo da tabela 2, obtemos hxi = 1,73 e σ = 0, 53. Esses valores são denotados
graficamente no histograma da Fig. 2. A posição do valor médio no histograma, demarcada pela
linha vertical, fornece seu ‘centro de gravidade’.
A região denotada por setas e delimitada por linhas verticais representa a fração das notas que
distam menos de 1 desvio padrão da média, i.e. notas xj tais que hxi − σ < xj < hxi + σ. Aproxi-
madamente 70% dos estudantes da turma se encontram nessa região. Vejamos o porquê.
4 Distribuição Gaussiana
A tática de repetir medidas para diminuir a influência de erros aleatórios pode ser levada ao
extremo. Consideramos agora o que ocorreria se o número de medidas aumentasse enormemente,
tendendo ao limite matemático do infinito.
Nesse limite, o tamanho da caixa do histograma pode tender a zero sem o risco de ficar vazia,
tornando-se contı́nua a distribuição de frequências. A função assim obtida recebe o nome de den-
sidade de probabilidade, e fornece a fração de medidas dentro de um intervalo infinitesimal de
valores.
10
Apostila 2: Incerteza e estatı́stica
O objetivo de tomar um conjunto de medidas é obter uma boa aproximação discreta (histograma)
dessa função contı́nua, para dela extrair informação sobre as grandezas fı́sicas de interesse. Feliz-
mente, essa função não possui um formato qualquer; se assim fosse, a possibilidade de determiná-la
com um número finito de medidas seria bem baixa.
Um importante teorema matemático, chamado ‘teorema central do limite’, nos garante que, para
processos totalmente aleatórios e independentes, a função densidade de probabilidade do processo
tenderá sempre a uma distribuição gaussiana para N → ∞.
Figura 3: Distribuição gaussiana G(x), com áreas abarcadas por múltiplos de σ realçadas.
Você talvez já tenha visto a função gaussiana aparecer em outros contextos da fı́sica ou da
matemática. No contexto de uma distribuição de probabilidade, sua expressão é
(x − hxi)2
1
G(x) = √ exp − . (12)
2πσ 2 2σ 2
Nesse caso, G(x)dx fornece a probabilidade de se obter como resultado de uma medida um valor
entre x e x + dx.
O nome ‘densidade de probabilidade’ advém do fato de que essa função precisa ser multiplicada
por dx para fornecer uma probabilidade legı́tima. Assim, a probabilidade infinitesimal dP (x) de se
obter um valor entre x e x + dx se escreve como dP (x) = G(x)dx. Para intervalos não infinitesimais,
a probabilidade P (x1 , x2 ) de se obter um valor entre x1 e x2 se calcula somando os dP (x) a partir
da integral, Z x2 Z x2
P (x1 , x2 ) = dP (x) = G(x) dx, (13)
x1 x1
expressão que na maioria das vezes só pode ser resolvida numericamente.
11
Fı́sica Experimental 1
Além da normalização correta, a forma da Eq. (12) contém também a média e a variância da
distribuição denotadas explicitamente.
Para ver isso, generalizamos primeiro o cálculo de médias, dado pela Eq. (11), para distribuições
contı́nuas. No lugar dos pesos pj do caso discreto, utilizamos agora as probabilidades dP (x) como
peso para cada valor x possı́vel de medida. Por exemplo, a média de x ponderada pelo ‘peso’ dP (x)
fica Z ∞ Z ∞
hf (x)i = x dP (x) = x G(x) dx. (15)
−∞ −∞
Os parâmetros hxi e σ são, na verdade, os únicos necessários para determinar a distribuição gaussiana.
Momentos de mais alta ordem (e.g. hx4 i), são funções destes (demonstre!).
Para o intervalo de 2σ em torno da média, a probabilidade aumenta para 95%. Já para 3σ,
a chance de estar no interior da região é de 99,7%. Assim, para conjuntos pequenos (N ≤ 100)
espera-se a totalidade das medidas dentro de 3σ.
Outro contexto em que ela é utilizada é no controle de qualidade de componentes industriais. Por
exemplo, chips eletrônicos vitais para a segurança de um automóvel precisam ser confiáveis dentro de
6σ, i.e. funcionar perfeitamente em mais do que 99,9999998% das vezes; assim, a tolerância máxima
de falha é de 1 em 500 milhões de componentes.
A função gaussiana é portanto bem localizada em torno de seu valor médio. O motivo disso é seu
decréscimo de forma exponencial a partir desse valor. Outra caracterı́stica importante da gaussiana
é o fato de que seu valor médio coincide com seu valor mais provável, i.e. o máximo de G(x) ocorre
no ponto xmax = hxi (demonstre!).
12
Apostila 2: Incerteza e estatı́stica
Vimos que na presença de erros aleatórios, a tática do bom experimentador muda: em vez de
acreditar que cada medida lhe forneça o valor mais confiável da grandeza de interesse, ele passa a
buscar determinar a forma da curva que lhe dá a probabilidade de obter certo valor de medida.
Determinar a gaussiana significa obter seus parâmetros (média e desvio padrão) a partir do
conjunto de valores medidos. Vamos agora atribuir interpretação fı́sica a esses parâmetros para
relacioná-los à grandeza fı́sica de interesse e sua incerteza.
Lembremos: o valor mais confiável de uma grandeza é aquele com maior probabilidade de ser igual
ao valor verdadeiro. Existem várias formas de se estimar o valor mais confiável a partir de medidas
apresentando erro aleatório. Vejamos duas formas mais comuns.
Se a ideia é utilizar toda a informação do conjunto de dados, podemos interpretar suas propriedades
estatı́sticas, em especial a média e o desvio padrão, como estimadores da gaussiana ideal subjacente
ao processo aleatório, e dela estimar a grandeza de interesse e sua incerteza.
Por serem propriedades do conjunto, e não de medidas individuais, essas quantidades devem
atingir maior grau de precisão. Daı́ a vantagem em utilizar a análise estatı́stica.
Para distribuições gaussianas, existe a simplificação de que o valor mais provável da distribuição
é igual a seu valor médio. Por isso, podemos diretamente adotar a média dos valores medidos
como o valor mais confiável da grandeza de interesse. Nesse caso, a incerteza da grandeza
será igual à incerteza do próprio valor médio. Escrevemos:
em que X = hxi é o valor mais confiável da grandeza x e σhxi , a incerteza da média do conjunto.
Lembremos que a distribuição gaussiana associada a um conjunto de medidas com erros aleatórios
pode ser determinada de forma perfeita no limite ideal de infinitas medidas. Isso significa que a
incerteza em seus parâmetros (média e desvio padrão) deve depender do número N de medidas no
conjunto, e tender a zero para N → ∞.
13
Fı́sica Experimental 1
Para estimar a incerteza do valor médio hxi, utilizamos o mesmo tipo de raciocı́nio estatı́stico.
Consideramos um conjunto de distribuições gaussianas obtidas pela repetição de conjuntos indepen-
dentes de medidas e buscamos determinar a dispersão de seus parâmetros (média e desvio padrão).
A resposta encontrada após cálculos formais é que os próprios parâmetros da gaussiana obedecem
a distribuições gaussianas (consequência do ‘teorema central do limite’). A dispersão tı́pica σhxi
dessas distribuições depende do número N de medidas de cada conjunto da seguinte forma:
σ
σhxi = √ , (20)
N
ou seja, a dispersão da média dos
√ valores no conjunto é menor que a dispersão σ esperada
para cada valor por um fator N .
Vemos que a dispersão na média tende a zero no limite N → ∞, conforme esperávamos. Além
disso, ela depende diretamente da dispersão σ do conjunto de valores medidos. Quanto menor a
dispersão da distribuição, proporcionalmente menor a dispersão σhxi em sua média.
Existe outra forma de se estimar o valor mais confiável da grandeza de interesse, utilizando uma
única medida.
Como vimos, a ideia de incerteza de uma medida individual xi é apontar a magnitude do desvio
tı́pico entre o valor obtido e o valor verdadeiro. Para um conjunto de medidas, esse desvio já é o
próprio desvio padrão σ, pois nos fornece o valor tı́pico de dispersão de cada medida. Escrevemos
nesse caso:
x = xi ± σ. (21)
em que X = xi é o valor mais confiável obtido a partir de uma única medida e σ, o desvio padrão
do conjunto.
Pode parecer um contra-senso se dar ao trabalho de medir todo um conjunto de medidas para,
ao final, utilizar apenas 1 delas para estimar o valor mais confiável da grandeza. Na verdade, essa
situação pode ocorrer quando queremos estudar a dependência da grandeza com algum parâmetro
controlável que não influencie o erro estatı́stico.
Por exemplo, suponha que uma experimentadora queira estudar a relação entre o perı́odo de um
pêndulo e seu comprimento. Se o erro estatı́stico depende simplesmente de seu tempo de reação no
momento de ligar e desligar o cronômetro, é de se esperar que ele não dependa do perı́odo em si.
A experimentadora separa então o problema em duas partes: na primeira, ela repete várias
medidas de perı́odo (para um comprimento qualquer do pêndulo) a fim de determinar a dispersão
tı́pica do conjunto, e com isso o valor de σ. Na segunda parte, ela varia o comprimento do pêndulo
14
Apostila 2: Incerteza e estatı́stica
e realiza apenas 1 medida de perı́odo por valor de comprimento, e lhe atribui incerteza σ. Com isso,
a experimentadora evita a repetição de um grande conjunto de medidas para cada comprimento do
pêndulo, simplificando o processo de medida.
Tomar o desvio padrão como exatamente igual ao erro é, no fundo, mera convenção. Devemos
sempre nos ater ao sentido do que se quer comunicar. Ao se escolher σ como igual ao erro estatı́stico,
estamos implicitamente sugerindo um processo gaussiano com as propriedades discutidas.
É possı́vel ainda escolher critério diferente para quantificar o erro estatı́stico, se igual a 2σ, 3σ
etc. Em certas aplicações, pode ser conveniente adotar margem de confiança altamente conservadora,
aumentando a definição de erro para 5σ ou mesmo 6σ. O mais comum na literatura é tomá-la como
1σ ou 3σ.
Devemos lembrar, no entanto, que sempre haverá alguma chance de erro, ainda que infinitesimal.
De fato, argumentos estatı́sticos podem ser invocados para defender que um macaco-prego batendo
teclas ao acaso poderia ser o verdadeiro autor de grandes obras da literatura brasileira como “Dom
Casmurro” ou “Brejal dos Guajas”. Você saberia estimar essas probabilidades? Você verá que são
quase sempre desprezı́veis, embora não-nulas. No final, fica a critério do leitor decidir.
O histograma é construı́do com número finito de medidas, e, por isso, esperamos que as próprias
frequências de cada caixa apresentem flutuações aleatórias. Em outras palavras, repetir o conjunto
de medidas deve fornecer novo histograma ligeiramente diferente do primeiro.
Por exemplo, vimos que para N → ∞ esperamos que um número ≈ 0,68N de pontos se encontre
dentro do intervalo 1σ no entorno da média. O número ≈ 68% representa o valor mais provável da
fração de medidas que deve pertencer a esse intervalo caso construamos muitos histogramas a partir
de vários conjuntos independentes de medidas.
√
Para apenas 1 histograma, podemos esperar um desvio tı́pico de ≈ 0,68N desse valor. Ou seja,
√
para N medidas, teremos tipicamente ≈ 0,68N ± 0,68N valores nesse intervalo. Para N = 100,
isso daria 68 medidas tipicamente, sendo facilmente tolerável que algo entre 60 e 74 medidas tenham
√
na verdade sido aı́ observadas, pois 68 ≈ 8.
Esse raciocı́nio vale para qualquer intervalo. Portanto, o número de medidas Ni observadas em
√
uma caixa do histograma deve ser entendido como algo do tipo ≈ Ni ± Ni . Por exemplo, se apenas
15
Fı́sica Experimental 1
Ni = 10 medidas são observadas numa caixa, isso significa que esse valor poderia ser facilmente algo
√
entre 7 e 13 se repetı́ssemos o conjunto de medidas, pois 10 ≈ 3.
Note
√ que a incerteza
√ relativa no número de medidas em determinado intervalo decresce com N ,
pois N /N = 1/ N . Para N → ∞, cada caixa do histograma (quando normalizado), tornada cada
vez mais estreita, deve tender ao valor prescrito pela gaussiana.
Na maioria das situações experimentais, fontes aleatórias de erro se combinam ao erro instrumental
para formar a incerteza total da medida. Veremos nessa seção como compor essas duas fontes de
incerteza.
Analisemos primeiramente o que esperar de casos extremos. Quando uma fonte de erro for muito
mais importante em magnitude que a outra, vimos anteriormente que a incerteza total deve provir
essencialmente da primeira, seja ela instrumental ou estatı́stica.
A diferença principal entre esses tipos de erro é que o erro estatı́stico pode ser tornado tão
pequeno quanto se queira. O mesmo não vale para o erro instrumental, por conta de seu significado:
o instrumento é incapaz de medir com maior precisão do que sua construção permite. Seu erro é
herdado por toda medida tomada com ele.
Tomemos um exemplo. Queremos medir a espessura de uma placa usando uma régua milimetrada,
com incerteza instrumental σinstr = 0,5 mm. A medida é tomada por N = 5 vezes em pontos
diferentes, e a cada vez encontra-se o mesmo √ valor L√= 12,7 ± 0, 5 mm. Podemos dizer que a
incerteza na média do conjunto é σ = σinstr / N = 0,5/ 5?
Não! Essa regra só vale para incertezas de origem estatı́stica! Como podemos ver, o
conjunto de medidas possui desvio padrão nulo, ou seja, incerteza de origem estatı́stica igual a zero.
Como o erro aleatório de medida não está presente, não é possı́vel diminuir a incerteza experimen-
tal por repetição da medida. Cada medida possui incerteza dada apenas pela precisão do instrumento,
assim como o conjunto como um todo.
A forma correta de interpretar o conjunto de medidas acima é notar que o erro instrumental é
tão grande que não permite verificar a existência de qualquer fonte de erro estatı́stico σest . Se ela
existir, seu desvio padrão deve ser muito menor que a precisão instrumental, e por isso aparece como
nulo a esse instrumento grosseiro.
A incerteza total da medida deve ser nesse caso igual à instrumental, sendo o erro estatı́stico
desprovido de contribuição para a incerteza total: a espessura da placa parece perfeitamente uniforme
(dentro da precisão do instrumento!) se medida com uma régua.
Utilizemos agora um paquı́metro na medida, com incerteza instrumental σinstr = 0,05 mm. Nesse
16
Apostila 2: Incerteza e estatı́stica
caso, variações entre medidas diferentes passam a ser observadas. Após 5 medidas, chega-se a um
conjunto com média L = 12,75 mm e desvio padrão σ = 0,16 mm. A incerteza na média estatı́stica
√
é nesse caso σL = σ/ 5 = 0,07 cm.
Devemos então incluir a incerteza instrumental a essa fonte aleatória de incerteza, pois afeta todos
os dados. Para tanto, podemos escrever o resultado de medida como L = 12,75 ± 0,05 ± 0,07 mm,
em que as fontes independentes de erro são colocadas de forma explı́cita.
A Eq. (22) implica que o erro total não pode ser menor do que o erro instrumental, uma vez que
apenas a parte aleatória do erro pode ser anulada pela repetição de medidas.
O motivo para a impossibilidade de eliminação do erro instrumental é o fato de que esse tipo de
incerteza afeta a distribuição estatı́stica encontrada como um todo com erro de origem desconhecida,
podendo ser inclusive sistemática: a precisão e a acurácia do instrumento limitam em última instância
a confiança em qualquer parâmetro obtido numa medida ou em seu conjunto.
O objetivo do gráfico é transmitir informação de forma simples e direta, também para outras
pessoas, auxiliando a análise do conjunto de dados. Seguem abaixo algumas regras básicas para
aumentar a clareza de gráficos experimentais.
• Escreva o nome ou letra a denotar a grandeza em cada eixo. Coloque entre parênteses a
unidade correspondente.
• Deve-se tentar distribuir bem os pontos experimentais dentro do espaço disponı́vel para
o gráfico, mediante escolha de uma escala adequada. Evite amontoar todos os pontos num
espaço pequeno de difı́cil leitura.
• A escala deve ser simples e de fácil leitura. Procure adotar múltiplos de números inteiros
que sejam bons divisores. Exemplos de escalas desejáveis são 0,1; 0,2; 0,5; 1; 2; 5; 10 ; 20 ; 50
etc. Evite a utilização de números primos como 3, 7, 11 etc.
• Ao trabalhar com números muito grandes ou pequenos, use notação cientı́fica. Denote
potências de 10 juntamente com as unidades entre parênteses.
17
Fı́sica Experimental 1
• O intervalo dos eixos pode ser escolhido também por razões teóricas. Por exemplo, se os
dados experimentais precisam ser comparados com um modelo que prevê um valor de grande
importância (por exemplo, o ponto triplo da água), o gráfico deve apresentar esse ponto mesmo
que os dados experimentais não cubram essa região.
• Os pontos experimentais devem ser marcados no gráfico usando sı́mbolos de fácil visua-
lização. Nada de coraçõezinhos ou smileys.
• Após a colocação dos pontos no gráfico, não escreva nos eixos os valores relativos a cada
ponto. Isso afeta a clareza do gráfico ao tumultuar sua leitura.
• Para ajustar visualmente uma curva aos pontos experimentais, tente fazê-la de forma suave e
contı́nua. A curva de ajuste não precisa tocar nenhum ponto experimental especı́fico, bastando
ajustar bem o conjunto inteiro.
• Não una pontos do gráfico por linhas sem significado! Cada detalhe do que se apresenta
num gráfico deve possuir significado claro ao leitor.
• Geralmente, uma folha de papel milimetrado tem tamanho de 280 mm por 180 mm, sendo que
podemos usá-la na posição ‘retrato’ ou ‘paisagem’. A escolha deve ter como objetivo otimizar
a visualização do gráfico.
• Para quaisquer dúvidas que possam surgir na apresentação do gráfico, lembre-se do objetivo
do gráfico: servir como sı́ntese visual dos resultados experimentais.
Questões sobre o material didático devem ser endereçadas no momento ao Prof. Alessandro S.
Villar, no e-mail villar@df.ufpe.br.
18