i Apostila
ECONOMETRIA
MAT02208
Marcio Valk
Guilherme Guilherme Pumi
Porto Alegre 2015
ii
Sum´ ario
1 Revis evis˜ ˜ ao ao
1
1.1 1.1
Intr Introdu odu¸c˜ c¸aao ˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2 1.2
Vari´ ari´ avel avel Aleat´ oria oria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2.1 1.2.1
Dist Distri ribu bui¸ i¸ c˜ cao ˜ao de Probabilidade Probabilidade . . . . . . . . . . . . . . . . . . . . . . . .
5
1.2.2 1.2.2
A Dist Distri ribu bui¸ i¸ c˜ cao ˜ao Normal e Distribui¸c˜ coes ˜oes Relacionadas . . . . . . . . . . .
7
1.3 1.3
Parˆ arametros, aˆmetros, Estimadores e Valores Estimados Estimados . . . . . . . . . . . . . . . . . . . 10
1.4 Propri Proprieda edades des de Vari´ ariaveis a´veis Aleat´ orias orias . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 1.5
1.6
1.4.1
M´edia, edia, Valor Valor Esperado ou Esperan¸ca ca Matem´ atica atica . . . . . . . . . . . . . 13
1.4. 1.4.22
Variˆ ariˆ ancia ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3 1.4.3
Cov Covariˆ ariˆ ancia ancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.4 1.4.4
Corr Correl ela¸ a¸ c˜ c˜aaoo
1.4.5 1.4 .5
Propri Proprieda edades des da Variˆ ariancia, aˆncia, Covariˆ ancia ancia e Correla¸c˜ caao ˜o . . . . . . . . . . . 16
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Estim Estimad ador ores es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.5.1 1.5 .1
Propri Proprieda edades des dos Estimad Estimadore oress . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5. 1. 5.22
V´ıcio ıc io/Vi /Vi´´es es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.3
Consistˆencia encia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.4
Eficiˆ encia encia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.5 1.5.5
Erro Erro Quad Quadr´ r´ atico ati co M´edio edi o (EQM) (EQ M) . . . . . . . . . . . . . . . . . . . . . . . 19
1.5.6
V´ıcio versus versus Variˆ ancia anc ia M´ınim ın imaa . . . . . . . . . . . . . . . . . . . . . . . 20
M´etodo eto do de M´ M´ınimos ınimo s Quadrados Quadrado s (MQO) . . . . . . . . . . . . . . . . . . . . . . 20 1.6.1 1.6.1
Regr Regres ess˜ s˜ ao ao Liner M´ ultipla ultipla (RML) . . . . . . . . . . . . . . . . . . . . . . 21
1.6. 1.6.22
Hip´ ipoteses o´teses do modelo de regress˜aao o . . . . . . . . . . . . . . . . . . . . . . 22 iii
´ SUM ARIO
iv 1.6.3 1.6 .3
O Coefic Coeficien iente te de Determ Determina ina¸c˜ c¸˜aaoo . . . . . . . . . . . . . . . . . . . . . . . 25
1.6.4 1.6.4
Teste estess de Hip´ Hip´ oteses oteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7
Formas Funcionais Funcionais Logar´ Logar´ıtmicas . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8
Exerc´ Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2 S´ eries eries Temp Temporais orais 2.1
S´ eries eries Temporais: Defini¸c˜ cao ˜ao Formal . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.1.1 2.1 .1
2.2
33
Process Processos os Estoc´ Estoc´ asticos asticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
M´ edias edias e Covariˆ Covariˆ ancias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Estacio Estacionar naried iedade ade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 2.3.1 2.3 .1
Estaci Estaciona onarie riedad dadee forte forte ou estr estrita ita . . . . . . . . . . . . . . . . . . . . . . 36
2.3.2 2.3 .2
Estaci Estaciona onarie riedad dadee fraca fraca ou de segund segunda a ordem ordem . . . . . . . . . . . . . . . 38
2.3.3 2.3 .3
Teste este para para signifi significˆ cˆ ancia ancia das autocorrela¸c˜ c˜oes oes . . . . . . . . . . . . . . . . 38
2.3. 2.3.44
Fun¸ unc˜ c¸ao ˜ao de autocorrela¸c˜ cao ˜ao parcial (FACP) . . . . . . . . . . . . . . . . . 39
2.3.5 2.3 .5
Operado Operadorr de defasa defasagem gem ou ou operad operador or lag . . . . . . . . . . . . . . . . . . 40
2.3.6
Ru´ Ru´ıdo Branco Branco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 Metodologia Metodologia de de Box-Je Box-Jenkins nkins - Modelagem Modelagem ARMA . . . . . . . . . . . . . . . . . 43 2.4.1 2.4 .1
Modelo Modelo Autorr Autorregr egress essiv ivo o de Ordem Ordem 1 AR(1) AR(1) . . . . . . . . . . . . . . . . 44
2.4.2 2.4 .2
Passe Passeio io Aleat´ Aleat´ orio orio (Random Walk) . . . . . . . . . . . . . . . . . . . . . 46
2.4.3
Modelos Autorregre Autorregressiv ssivos os de Ordem Ordem p, p , AR( p AR( p)) . . . . . . . . . . . . . . . 47
2.4.4
Modelo de M´edias-M´ edias-M´ oveis oveis (MA(q (MA(q )) )) . . . . . . . . . . . . . . . . . . . . . 51
2.4. 2.4.55
O mo mode delo lo MA MA(1 (1)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.4.6 2.4 .6
Propri Proprieda edades des do modelo modelo MA(q MA(q ) . . . . . . . . . . . . . . . . . . . . . . 52
2.4.7 2.4.7
Model Modeloo AR ARMA MA(( p, p,q ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.8
Causalidade, Causalidade, Invertibi Invertibilidade lidade e Estacion Estacionarieda ariedade de . . . . . . . . . . . . . . 58
2.4.9 2.4 .9
Inve Inverti rtibili bilidad dadee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4.10 2.4 .10 Polin Polinˆ oˆmi o Caract omio Car acter´ er´ıstico ıst ico . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.4.11 Estacionarie Estacionariedade dade e causalidade causalidade de um processo processo ARMA . . . . . . . . . . 60 2.5
Exerc´ Exerc´ıcios sobre s´eries eries temporais temp orais estacion´ estac ion´ arias arias . . . . . . . . . . . . . . . . . . . 61
´ SUM ARIO 2.6
v
S´ eries eries temporais n˜ ao estacion´ ao estacion´ arias arias . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.6.1
Como lidar com tentˆencia encia determin determ in´´ıstica . . . . . . . . . . . . . . . . . . 68
2.6.2
Testes de ra´ ra´ız unit´ aria aria - Identificando Ide ntificando tendˆencia encia estoc´ esto c´ astica astica . . . . . . . 72
2.6.3
Teste de Dickey Dickey Fuller (DF) (DF) . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.6.4
Dickey Dickey-F -Fuller uller Aumentado Aumentado . . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.6.5
Eliminando tendˆ encia encia estoc´ astica astica - Diferen¸cas cas sucessivas . . . . . . . . . 75
2.7 2.7
Modela Modelage gem m AR ARIM IMA A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.8 2.8
Prev Previs is˜ aao ˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.8.1 2.8.1
2.9 2.9
Erro Erro de prev previs is˜ aao ˜o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Regr Regres ess˜ s˜ ao ao Esp´ uria uria - Cointegra¸c˜ caao ˜o . . . . . . . . . . . . . . . . . . . . . . . . . . 82 2.9.1
Quando ´e poss p oss´´ıvel regredir reg redir duas s´eries eries I(d) . . . . . . . . . . . . . . . . 83
2.10 Exerc´ Exerc´ıcios para s´eries eries temporais temp orais n˜ ao estacion´ ao estacion´ arias arias . . . . . . . . . . . . . . . . . 84
vi
´ SUM ARIO
Cap´ıtulo 1
Revis˜ ao 1.1
Introdu¸c˜ ao
Para iniciar qualquer curso em que s˜ao utilizadas t´ecnicas estat´ısticas, ´e necess´ ario esclarecer/fundamentar bem o conceito de aleatoriedade.
oria antiga, os conceitos de chance e de aleatoriedade eram interligados ao con“Na hist´ ceito que era atribu´ıdo a destino. V´ arias pessoas da antig¨ uidade jogavam dados para determinarem o destino, e posteriormente isso se desenvolveu em jogos de azar. A maioria das culturas usaram v´ arios m´etodos de adivinha¸ coes ˜ para tentarem contornar a aleatoriedade e o destino, ou mesmo a dita sorte. A palavra aleatoriedade ´e utilizada para exprimir quebra de ordem, prop´ osito, causa, ou imprevisibilidade em uma terminologia n˜ ao cient´ıfica. Um processo aleat´ orio ´e o processo repetitivo cujo resultado n˜ ao descreve um padr˜ ao determin´ıstico, mas segue uma distribui¸cao ˜ de probabilidade. ” (Wikipedia).
Figura 1.1
As t´ecnicas estat´ısticas surgem para encontrar algum padr˜ ao de varia¸cao ˜ . Para tal tarefa ´e necess´ario formalizar e definir alguns conceitos, como s˜ ao os casos de vari´avel aleat´ oria e 1
˜ CAP ´ITULO 1. REVIS AO
2 distribui¸ca˜o de probabilidade.
1.2
Vari´ avel Aleat´oria
Denomina-se vari´ avel uma propriedade (caracter´ıstica) qualquer das unidades da popula¸c˜ao para a qual foi definida uma unidade de medida, que pode ser quantitativa ou qualitativa. Observe que essa caracter´ıstica ´e comum a todos os indiv´ıduos e portanto ´e uma caracter´ıstica da popula¸c˜ao. Em geral, queremos fazer afirma¸co˜es sobre caracter´ısticas e temos apenas informa¸co˜es de alguns indiv´ıduos (amostra). Assim, toda afirma¸ c˜ a o feita a partir de uma amostra ´e pass´ıvel de erros, ou seja, ´e uma aproxima¸ c˜ao. Al´ em disso, em alguns casos n˜ ao ´e poss´ıvel “medir” toda a popula¸c˜ao e devemos pensar nessa caracter´ıstica como uma quantidade aleat´ oria. Para isso, ´e necess´ario introduzirmos o conceito de vari´ avel aleat´ oria . Defini¸ c˜ ao 1.2.1. Espa¸co amostral de um experimento aleat´ orio (fenˆ omeno que, mesmo repetidos v´ arias vezes sob condi¸coes ˜ semelhantes, apresentam resultados imprevis´ıveis) ´e qualquer conjunto contendo todos os poss´ıveis resultados do experimento. Aqui, sempre que n˜ ao houver perigo de confus˜ ao, o espa¸co amostral de um experimento em quest˜ ao ser´ a denotado por Ω,
car uma moeda e verificar a face voltada para Exemplo 1.1. No seguinte experimento: lan¸ cima, o espa¸co amostral ´e o conjunto cara, coroa .
{
}
Exemplo 1.2. Se o experimento ´e lan¸car um dado de seis faces, o espa¸ co amostral ´e 1, 2, 3, 4, 5, 6 .
{
}
Exemplo 1.3. Poder´ a perfeitamente existir mais de um espa¸ co amostral adequado para um determinado experimento. No Exemplo 1.2 , o conjunto 1, 2, 3, 4, 5, 6, 7 cont´em todos os poss´ıveis resultados do experimento em quest˜ ao (lan¸car um dado de seis faces). Assim, pela defini¸cao 1.2.1, ˜ este conjunto ´e t˜ ao adequado como espa¸ co amostral quanto o conjunto mais intuitivo 1, 2, 3, 4, 5, 6 . At´e mesmo o conjunto dos n´ umeros reais R ´e adequado. Obviamente, sempre que poss´ıvel ´e recomend´ avel utilizar o conjunto mais “natural” como espa¸ co
{
{
}
}
amostral, por´ em, do ponto de vista te´ orico, desde que o conjunto escolhido efetivamente contenha todos os poss´ıveis resultados do experimento, n˜ ao faz diferen¸ca alguma qual conjunto se est´ a utilizando. Exemplo 1.4. Nos exemplos anteriores, ´e poss´ıvel (e muito f´ acil) determinar exatamente quais s˜ ao todos os poss´ıveis resultados dos experimentos em quest˜ ao. Por´em nem sempre este ´e o caso. Considere o experimento em que uma pessoa ´e escolhida ao acaso e sua altura (em metros) medida. Neste caso ´e dif´ıcil determinar exatamente o conjunto contendo exatamente todos os poss´ıveis resultados do experimento. Com certeza o conjunto [0, 10] cont´em todas as poss´ıveis alturas a serem registradas. O conjunto [0, 3] tamb´em. Por outro lado, ser´ a que o conjunto [0, 2.7] ´e apropriado? E (0.3, 2.7)?
´ ´ 1.2. VARI AVEL ALEAT ORIA
3
Todo subconjunto de um espa¸co amostral ´e chamado evento. Os subconjuntos de um espa¸co amostral contendo apenas um elemento s˜ ao chamados de eventos elementares . Por exemplo, no lan¸camento de um dado de seis faces, 5 ´e um evento elementar. Outro evento poss´ıvel ´e: a face superior ´e ´ımpar , o que ´e equivalente ao subconjunto 1, 3, 5 Ω. Outra possibilidade poderia ser verificar se a face obtida ´e superior a 3.
{
{ }
}
{
}⊂
Existem ainda experimentos que podem ser vistos como “compostos” por natureza, como por exemplo o lan¸camento independente de um dado de seis faces e de uma moeda honesta, no qual anotamos a face superior do dado e a face da moeda. Neste caso, ´e f´ acil determinar um espa¸co amostral associado ao experimento que contenha exatamente todos os resultados poss´ıveis. Este constituir´a de pares contendo um n´umero inteiro de 0 `a 6, correspondente ao lan¸camento do dado e um elemento do conjunto cara, coroa , correspondente ao lan¸camento da moeda, ou seja, Ω = (1, cara), (1, coroa), , (6, cara), (6, coroa) . Uma outra maneira
{ ···
{
{
}
}
de representar isto ´e a partir do produto cartesiano dos espa¸ cos amostrais de cada um dos experimentos individuais, neste caso Ω = 1, 2, 3, 4, 5, 6 cara, coroa .
{
}×{
}
Espa¸cos amostrais s˜ ao importantes na defini¸c˜ao de um espa¸co de probabilidade . Um espa¸co de probabilidade (Ω, , ) onde Ω denota um espa¸co amostral qualquer, ´e um conjunto de eventos associado a` Ω satisfazendo certas propriedades (σ-algebra de eventos), e : [0, 1] uma medida de probabilidade atribuindo valores em [0, 1] para cada evento de interesse em (a probabilidade dos eventos).
F P
F
P F →
F
avel aleat´ oria ´e uma fun¸c˜ao do espa¸co amostral Ω nos reais, para a qual ´e poss´ıvel Uma vari´ calcular a probabilidade de ocorrˆencia de seus valores. Em geral, as vari´ aveis aleat´ orias s˜ ao representadas por letras mai´ usculas do fim do alfabeto. Temos, para cada elemento ω Ω, um n´ umero real X (ω) conforme a Figura 1.2.
∈
Figura 1.2: Vari´ avel aleat´ oria
˜ CAP ´ITULO 1. REVIS AO
4
Garantimos o c´ alculo de probabilidades com vari´aveis aleat´ orias ao exigir que, para qualR, o conjunto X −1 (I ) seja um evento. Em outras palavras, o conjunto X −1 (I ) quer I ´e um elemento de , ou seja, X −1 (I ) . Lembremos que apenas os elementos de tˆem atribui¸c˜ao de probabilidade. Em linguagem mais matem´ atica, dizemos que uma vari´ avel aleat´ oria ´e qualquer fun¸c˜ao mensur´ avel em (Ω, ). Isto justifica dizer que a vari´ avel X ´e mensuravel . Com frequˆencia, faz-se men¸c˜ao ao espa¸co de probabilidade (Ω, , ), para deixar claro o espa¸co amostral, a σ-´algebra e a probabilidade envolvidas. Formalmente, definimos
⊂
F
∈ F
F
F
F
F P
Defini¸ c˜ ao 1.2.2. Seja (Ω, , ) um espa¸ co de probabilidade. Denominamos de vari´ avel aleat´ oria, qualquer fun¸cao ˜ X : Ω R tal que
F P →
X −1 (I ) = ω
{ ∈ Ω : X (ω) ∈ I } ∈ F ,
para todo intervalo I R. Em palavras, X ´e tal que sua imagem inversa de intervalos I pertencem a σ -´ algebra .
⊂ F
⊂ R
No que segue precisamos do conceito de cardinalidade de um conjunto. Em palavras simples, a cardinalidade de um conjunto ´e uma maneira de expressar a “quantidade” de elementos que este cont´em. Um conjunto ordenado A ´e dito finito se cont´em um n´umero finito de elementos. A cardinalidade de um conjunto finito nada mais ´e que o n´ umero de elementos que este cont´ em. Por exemplo o conjunto A = 1, 2, 9, 15 ´e finito e tem cardinalidade 4.
{
}
Por outro lado, a defini¸ca˜o de cardinalidade para conjuntos infinitos ´e matematicamente muito mais complexa pois, no final das contas, a id´eia ´e impor uma hierarquia, uma “ordem”, no “tamanho” de conjuntos infinitos. Obviamente a cardinalidade de um conjunto infinito n˜ao pode ser expressa em n´ umeros. Estamos interessados apenas em distinguir entre dois “tamanhos” de conjuntos infinitos: enumer´ avel e n˜ao-enumer´ avel. Por sorte, na maioria das vezes ´e poss´ıvel utilizar apenas a intui¸ c˜ao para resolver o problema. Intuitivamente, um avel ) se dado um elemento conjunto ordenado A ´e dito ser infinito enumer´ avel (ou ainda, cont´ qualquer de A, podemos determinar quem ´e o pr´ oximo elemento do conjunto. Caso contr´ ario, o conjunto ´e dito ser n˜ umeros naturais N ´e ao-enumer´ avel . Por exemplo, o conjunto dos n´ infinito enumer´ avel. De fato, dado qualquer n´ umero natural x, o pr´ oximo ´e x +1, obviamente. J´ a o conjunto [0, 1] ´e infinito n˜ ao-enumer´ avel. Por exemplo, dado o n´ umero 0.5 [0, 1], qual ´e pr´oximo elemento de [0, 1]? Poder´ıamos dizer 0.6, mas e 0.51? Este ainda est´ a mais longe
∈
de 0.5 que 0.501. De fato 0, 5001, 0.50001 etc. ´e uma sequˆencia infinita de n´ umeros em [0, 1] cada vez mais pr´ oxima de 0.5 de forma que n˜ ao ´e poss´ıvel determinar o pr´oximo elemento na ordena¸c˜ao do conjunto. Os conjuntos enumer´ aveis mais conhecidos s˜ao N, Z e Q, sendo que este u ´ ltimo ´e um pouco mais dif´ıcil de aplicar a regra intuitiva acima. Os conjuntos n˜ ao enumer´aveis mais conhecidos s˜ao R, R Q, C.
\
´ ´ 1.2. VARI AVEL ALEAT ORIA
5
Defini¸ c˜ ao 1.2.3. Vari´ avel Aleat´ oria Discreta. Se o conjunto dos poss´ıveis valores da vari´ avel aleat´ oria ´e finito ou infinito enumer´ avel. Defini¸ c˜ ao 1.2.4. Vari´ avel Aleat´ oria Cont´ınua Se o conjunto dos poss´ıveis valores da vari´ avel aleat´ oria ´e infinito n˜ ao-enumer´ avel. Na pr´atica, ´e comum a utiliza¸ca˜o de vari´ aveis aleat´ orias cont´ınuas pois estas s˜ ao matematicamente mais simples de se tratar. Quando, por exemplo, falamos que a renda ´e uma v.a. cont´ınua (na verdade ela ´e discreta) ´e pela conveniˆencia da aproxima¸ c˜ao. 1.2.1
Distribui¸ c˜ ao de Probabilidade
A fun¸c˜ao que descreve as probabilidades da vari´avel aleat´ oria discreta X assumir os diferentes valores do espa¸co amostral ´e chamada de fun¸ c˜ao massa de probabilidade. No caso de uma vari´ avel cont´ınua, a probabilidade de uma vari´ avel aleat´ oria assumir qualquer valor espec´ıfico ´e 0. Neste caso o an´ alogo da fun¸c˜ao massa de probabilidade ´e a fun¸ ca˜o de densidade de probabilidade (abreviado f.d.p. ou ainda, do inglˆes, p.d.f.) que, em poucas palavras, descreve a varia¸c˜ao instantˆ anea da probabilidade no ponto. Para que uma fun¸c˜ao qualquer f seja uma densidade de probabilidade ´e necess´ ario que f (x)
0
para todo x
≥
∞
f (x)dx =
∈ R,
f (x)dx = 1.
(1.1)
−∞
R
Como a probabilidade de ocorrˆencia de um valor em particular de uma vari´ avela aleat´ oria cont´ınua ´e sempre 0, probabilidades s˜ ao discutidas em termos de intervalos, ou mesmo outros tipos de conjuntos. Essas probabilidades s˜ao obtidas por meio de integra¸c˜ao da fun¸c˜ao densidade no intervalo especificado. Por exemplo, seja X uma vari´avela aleat´ oria com densidade f (x). Ent˜ ao P (a
≤ X ≤ b) ´e dada por
b
P (a Analogamente, para um conjunto A
≤ X ≤ b) =
f (x)dx.
a
⊆ R qualquer,
P (X
∈ A) =
f (x)dx.
A
A probabilidade de que a vari´avel aleat´ oria X assuma valores inferiores ou igual a um n´umero x x), possui importancia intr´ınsica pois representa a probabilidade R, P (X
∈
≤
˜ CAP ´ITULO 1. REVIS AO
6 acumulada at´e o ponto x. Por isso, para cada x
∈ R fixo, denotamos esta probabilidade por
F (x) = P (X
≤ x)
e a fun¸c˜ao assim definida F : R [0, 1] ´e chamada de fun¸c˜ao de distribui¸c˜ao acumulada (denotada por f.d.a.), ou somente fun¸c˜ao de distribui¸c˜a o. Note que se X ´e uma vari´avel aleat´ oria cont´ınua com densidade f ,
→
x
F (x) = P (X
≤ x) =
f (t)dt.
−∞
Distribui¸ co ˜es conjunta, marginal e condicional Geralmente estamos interessados n˜ ao apenas numa vari´avel aleat´ oria mas na rela¸c˜ao entre algumas vari´ aveis aleat´ orias. Suponha que temos duas vari´ aveis aleat´ orias, X e Y . Agora al´em do comportamento probabil´ıstico individual de X e Y , caracterizado por suas fun¸c˜oes de distribui¸c˜oes, digamos F X e F Y , respectivamente, precisamos alguma forma de descrever o comportamento probabil´ıstico conjunto de X e Y . Para isso definimos a fun¸ c˜ao de distribui¸ca˜o acumulada de X e Y , denotada por F X,Y , por F X,Y (x, y) = P (X
≤ x, Y ≤ y).
Se X e Y s˜ao ambas cont´ınuas, podemos definir a densidade conjunta de X e Y denotada por f X,Y , como sendo a fun¸ca˜o que satisfaz F X,Y (x, y) =
x
y
−∞
−∞
f X,Y (z, w)dzdw.
A fun¸c˜ao de distribui¸ca˜o conjunta de um par de vari´aveis aleat´ orias X e Y caracteriza tamb´em os comportamentos probabilisticos de X e Y individualmente. De fato F X (x) = lim F X,Y (x, y) y →∞
e tamb´em f X (x) =
R
f X,Y (x, y)dy
e
e
F Y (y) = lim F X,Y (x, y) x→∞
f Y (y) =
f X,Y (x, y)dx.
R
Quando temos a fun¸c˜ao de distribui¸c˜ao conjunta de um par X e Y de vari´aveis aleat´ orias, dizemos que as densidades/distribui¸c˜oes individuais de X e Y s˜ao as densidades/distribui¸c˜oes marginais de X e Y .
´ ´ 1.2. VARI AVEL ALEAT ORIA
7
A fun¸c˜ao de distribui¸ca˜o condicional de X dado Y = y ´e descrita por
F X |Y (x y) = P (X
|
≤ x|Y = y) =
P (X ≤x,Y =y ) P (Y =y )
x
−∞
,
f X,Y ( t,y)dt f y (y )
se X ´e discreta e P (Y = y) = 0
,
se X ´e cont´ınua e f Y (y) = 0
1. As densidades condicionais s˜ ao:
(a) f X |Y (x y), que ´e a densidade de X dado Y = y.
| (b) f Y |X (y|x), que ´e a densidade de Y dado X = x. Formalmente, temos a rela¸c˜ao
x
F X |Y (x y) =
|
y
−∞
f X |Y (t y)dt e F Y |x (y x) =
|
|
−∞
f Y |X (t x)dt,
|
no caso em que X e Y s˜ ao cont´ınuas. Rela¸c˜oes parecidas valem no caso em que X e Y s˜ ao discretas, trocando-se integrais por somas e densidades por fun¸c˜ao massa de probabilidade. A densidade conjunta pode ser escrita como o produto das densidades marginal e condicional da seguinte forma: f X,Y (x, y) = f X (x)f Y |X (y x) =
| f Y (y)f X |Y (x|y).
Se f X,Y (x, y) = f X (x)f Y (y) para todo x e y, ent˜ ao X e Y s˜ao chamadas de vari´aveis independentes . Note que, se eles s˜ao independentes, f X |Y (x y) = f X (x) e f Y |X (y x) = f Y (y),
|
|
isto ´e, as distribui¸c˜oes condicionais s˜ ao as mesmas que as marginais. Intuitivamente, quando X e Y s˜ao independentes X n˜ao carrega nenhuma informa¸c˜ao u ´ til a respeito de Y , assim o fato de Y ser ou n˜ao conhecido ´e irrelevante para a determina¸ c˜ao de X . 1.2.2
A Distribui¸ c˜ ao Normal e Distribui¸ co ˜es Relacionadas
Existem algumas distribui¸c˜oes de probabilidade cujas probabilidades que, devido a` sua utiliza¸c˜ao em diversas aplica¸ c˜oes, valores de suas fun¸c˜oes de distribui¸c˜ao s˜ ao tabuladas. Dentre estas distribui¸c˜oes not´ aveis, podemos citar distribui¸c˜ao normal e as distribui¸co˜es χ2 , t e F , as quais discutiremos juntamente com as distribui¸c˜oes lognormal e normal bivariada. Existem diversas outras distribui¸c˜oes para as quais tabelas extensivas est˜ ao dispon´ıveis. Como exemplos citamos as distribui¸c˜oes gama e beta. Na verdade, a distribui¸ c˜ao χ2 ´e um caso
˜ CAP ´ITULO 1. REVIS AO
8
particular da distribui¸c˜ao gama, e as distribui¸co˜es t e F s˜ao casos particulares da distribui¸ca˜o beta. Trataremos aqui apenas das citadas. Existe um grande criticismo sobre a adequa¸c˜ao da distribui¸c˜ao normal para descrever vari´ aveis econˆ omicas. Muitas vezes a distribui¸c˜ao normal de fato n˜ao ´e apropriada. Contudo, dois fatos tornam o estudo da distribui¸c˜ao normal importantes: primeiramente, embora existam problemas em que o uso da distribui¸c˜ao normal ´e question´ avel, existe um n´ umero muito maior de problemas em que o uso desta ´e totalmente apropriado. Segundo, mesmo que as vari´ aveis n˜ao sejam normalmente distribu´ıdas, pode-se considerar transforma¸ c˜oes de vari´aveis que fa¸cam com que as vari´ aveis transformadas se tornem normalmente distribu´ıdas. A Distribui¸ c˜ ao Normal A distribui¸ca˜o normal, cuja densidade possui um formato que lembra um sino, ´e a distribui¸c˜ao mais amplamente utilizada em aplica¸c˜oes estat´ısticas numa grande variedade de a´reas. R e variˆ Dizemos que X tem distribui¸c˜ao normal com m´edia µ ancia σ 2 > 0, denotado compactamente por X N (µ, σ 2 ), se sua fun¸c˜ao de densidade de probabilidade for dada por
∈
∼
1 f (x) = exp σ 2π
√
−
1 (x 2σ 2
− µ)2
, para x
∈ R.
Os parˆametros µ e σ 2 s˜ao tamb´em chamados de parˆ ametros de loca¸c˜ao e escala, respectivamente. Figura 1.3: Fun¸c˜ao densidade Normal com diferentes parˆametros de loca¸c˜ao e escala.
Locação
Escala
0.4
0.4
µ=−3
µ=3
µ=0
0.35
0.35
0.3
0.3
0.25
0.25
0.2
0.2
0.15
0.15
0.1
0.1
0.05
0.05
2 =1
σ
2
σ
=2.25
2
0 −6
−4
−2
0
2
4
6
0 −10
σ
−5
0
=4
5
Se µ = 0 e σ = 1, a distribui¸c˜ao ´e chamada de “distribui¸c˜ao normal padr˜ a o” e a fun¸ca˜o
´ ´ 1.2. VARI AVEL ALEAT ORIA
9
de densidade de probabilidade reduz-se a, f (x) =
√ 12π e−
x2
2
.
Uma propriedade importante propriedade da distribui¸c˜ao normal ´e que qualquer combina¸c˜ao linear de vari´aveis normalmente distribu´ıdas tamb´em ´e normalmente distribu´ıda. De fato, pode-se mostrar que, se
∼ N (µ1, σ12)
X 1
e X 2
∼ N (µ2, σ22)
e a correla¸c˜ao entre X 1 e X 2 ´e ρ, ent˜ ao
∼ N (a1µ1 + a2µ2, a21σ12 + a22σ22 + 2ρa1a2σ1σ2).
a1 X 1 + a2 X 2 Em particular,
∼ N (µ1 + µ2, σ12 + σ22 + 2ρσ1σ2)
X 1 + X 2 e X 1
− X 2 ∼ N (µ1 − µ2, σ12 + σ22 − 2ρσ1σ2).
Distribui¸ co ˜es Relacionadas Al´em da distribui¸ca˜o normal, h´ a outras distribui¸c˜oes de probabilidade que usaremos com frequˆencia. S˜ao elas as distribui¸c˜oes χ 2 , t e F , tabuladas no apˆendice. Estas distribui¸ c˜oes s˜ ao derivadas da distribui¸c˜ao normal e definidas como descrito a seguir.
Distribui¸ ca ˜o χ2 A distribui¸c˜ao χ2 ´e bastante importante em aplica¸c˜oes e ´e definida a partir da soma dos quadrados de vari´ aveis normais. Mais especificamente, se X 1 , X 2 , , X n s˜ao vari´ aveis aleat´ orias independentes com distribui¸ca˜o normal padr˜ ao ent˜ ao
···
n
Q =
X i2
i=1
tem distribui¸c˜ao χ2 com n graus de liberdade (g.l.), e escrevemos isso compactamente como Q χ2n .
∼
∼ N (µ, σ2), ent˜ao Q deve ser definido por
Se X i
˜ CAP ´ITULO 1. REVIS AO
10
n
Q =
i=1
(X i
− µ)2 .
σ2
A distribui¸c˜ao χ2 tamb´ em satisfaz uma determinada “propriedade de adi¸ c˜ao”, no seguinte sentido: se Z 1 χ2n e Z 2 χ2m e Z 1 e Z 2 s˜ao independentes, ent˜ao Z 1 + Z 2 χ2n+m . Note que esta propriedade de adi¸ca˜o ´e bem mais restritiva que aquela da distribui¸ c˜ao normal, j´ a que exige independˆ encia para que a simples soma das vari´ aveis satisfa¸cam a` propriedade (para normal, a propriedade vale para combina¸c˜oes lineares quaisquer), mas ainda assim ´e muito u ´ til na pr´atica.
∼
∼
∼
Distribui¸ ca ˜o t
∼ N (0, 1), Y ∼ χ2n, e X e Y s˜ao independentes, a vari´avel √ nX X T = = √ Y Y/n
Se X
possui distribui¸c˜ao t com n g.l. Escrevemos isso como T tn . O subscrito n novamente denota os g.l. Assim como a distribui¸ c˜ao normal, a distribui¸ca˜o t ´e uma distribui¸c˜a o de probabilidade sim´etrica, com forma lembrando um sino, sendo por´em mais achatada e com caudas mais “pesadas” que a normal. Quando o n´ umero de graus de liberdade n de uma vari´ avel tn tende ao infinito, obtemos a distribui¸c˜ao normal. Em outras palavras, quando os graus de liberdade de uma vari´avel aleat´ oria com distribui¸c˜ao tn for grande, esta tem comportamento probabil´ıstico muito similar ao de uma normal.
∼
Distribui¸ ca ˜o F
∼ χ2n1, Y 2 ∼ χ2n2 e Y 1 e Y 2 s˜ao independentes, a vari´avel
Se Y 1
F =
Y 1 /n1 n2 Y 1 = Y 2 /n2 n1 Y 2
´e dita possuir distribui¸c˜ao F com n 1 e n2 g.l. Escrevemos isso como F F n1 ,n2 . O primeiro subscrito n1 , refere-se aos g.l. do numerador, e o segundo subscrito, n2 , refere-se aos g.l. do denominador.
∼
1.3
Parˆ ametros, Estimadores e Valores Estimados
Considere o deslocamento de uma part´ıcula no v´ acuo, em superf´ıcie sem atrito. Aprendemos cedo que a velocidade da part´ıcula num instante de tempo t, v t , ´e dada por v t = v 0 + at,
ˆ 1.3. PAR AMETROS, ESTIMADORES E VALORES ESTIMADOS
11
Figura 1.4: Fun¸ca˜o densidade χ2 , t-Student e F-Snedecor. Em parˆenteses os graus de liberdade.
0.25
0.4
1
0.9 0.35
0.2
0.8 0.3 0.7
0.25 0.15
0.6
0.2
0.5
0.1
0.4 0.15
0.3 0.1 0.05
0.2
0.05 0.1
0 0
5
10
15
0 −5
0 0
5
0
2
4
6
onde v0 ´e a velocidade inicial da part´ıcula, a > 0 ´e a acelera¸ca˜o aplicada na part´ıcula, neste caso assumida constante. Neste modelo idealizado, a velocidade de uma part´ıcula ´e uma fun¸c˜ao linear do tempo, cujo gr´ afico ´e apresentado na Figura 1.5(a). Um grupo de pesquisadores realizou o seguinte experimento: numa superf´ıcie lisa, por´em n˜ao absolutamente sem atrito, ao ar livre (isto ´e, na presen¸ ca de vento, part´ıculas de poeira, etc.) uma part´ıcula foi acelerada a` uma determinada acelera¸c˜ao desconhecida, mas constante em cada repeti¸ca˜o do experimento, a` partir de uma velocidade inicial desconhecida, mas tamb´ em constante em cada repeti¸c˜a o do experimento. Ap´ os um determinado tempo t a velocidade da part´ıcula foi medida. Como resultados obtemos pares (vi , ti ) representando a i-´esima observa¸c˜ao da velocidade da part´ıcula, medida no tempo ti . Os resultados est˜ ao apresentados na Figura 1.5(b). Nosso interesse ´e determinar a velocidade inicial da part´ıcula e a acelera¸c˜ao, que s˜ ao chamados de parˆ ametros populacionais. Note que devido a`s condi¸c˜oes n˜ao serem ideais, os dados n˜ ao est˜ ao perfeitamente alinhados em uma reta como o estipulado na teoria, mas est˜ ao aproximadamente alinhados. Os desvios da reta “esperada” podem ser interpretados como sendo aleat´ orios, e s˜ao devidos aos v´ arios fatores que est˜ao fora de nosso controle, como atrito, vento, part´ıculas em suspens˜ ao no ar, etc, fatores que est˜ ao em desalinho com a teoria. Para estimar os parˆ ametros a e v0 , que denotaremos por a ˆ e vˆ0 , podemos utilizar os estimadores de M´ınimos Quadr´aticos Ordin´ arios que conhecemos, neste caso, dados por (mais
˜ CAP ´ITULO 1. REVIS AO
12 detalhes ser˜ao fornecidos adiante) ˆ = a
n v¯)(ti i=1 (vi n t¯)2 i=1 (ti
−
−
− t¯)
e
vˆ0 = v¯
− aˆt¯,
onde v¯ denota a m´edia das velocidades e ¯t denota a m´edia dos tempos observados. Note que, fornecidos os dados para o estimador, ele retorna dois valores sendo eles a estimativa dos parˆametros a e v0 baseados nos dados. Note que mudando os dados, o estimador continua ` partir dessas sendo o mesmo, mas os valores retornados por ele, as estimativas, mudar˜ ao. A estimativas obtemos a reta apresentada na Figura 1.5(c) Na resolu¸c˜ao do problema aparecem 3 objetos eminentemente diferentes, cada um deles fundamental na solu¸c˜ao do problema e que devem ser entendidos com clareza. Primeiramente temos os parˆ ametros populacionais, que s˜ ao os valores de interesse, mas que nos s˜ao desconhecidos. Baseado numa amostra, gostar´ıamos, de alguma forma identificar, esses parˆ ametros. Segundo temos um estimador, que ´e uma fun¸ c˜ao dos dados. Quando alimentado de dados estes estimadores retornam valores. Os valores retornados pelo estimador compreendem o terceiro objeto mencionado: s˜ ao os valores estimados dos parˆ ametros populacionais. Esta distin¸ca˜o entre parˆ ametro, estimador e valor estimado ´e essencial e est´ a no cora¸ca˜o das aplica¸c˜oes de estat´ıstica a` dados reais.
(a)
(b)
(c)
Figura 1.5
´ ´ 1.4. PROPRIEDADES DE VARI AVEIS ALEAT ORIAS
1.4 1.4.1
13
Propriedades de Vari´ aveis Aleat´ orias M´ edia, Valor Esperado ou Esperan¸ ca Matem´ atica
A M´edia ou valor esperado, ou ainda a esperan¸ca matem´ atica de uma vari´ avel aleat´ oria representa o valor m´edio assumido pela vari´ avel em quest˜ao. Esta pode ser interpretada como a m´edia ponderada de cada valor assumido pela vari´ avel ponderado pela sua probabilidade de ocorrˆencia. Defini¸ c˜ ao 1.4.1. M´ edia, valor esperado ou esperan¸ ca matem´ atica de vari´ aveis
avel aleat´ oria discreta assumindo n aleat´ orias discretas. Suponha que X seja uma vari´ valores diferentes x1 , xn com probabilidades p1 , ao a m´edia, , pn , respectivamente. Ent˜ ou valor esperado ou anda a esperan¸ ca da vari´ avel X ´e definida por
· ··
···
n
E(X ) = x 1 p1 + x2 p2 +
· · · + xn pn =
xi pi .
i=1
Observe que, no caso discreto, a esperan¸ca de uma vari´ avel X nada mais ´e do que a m´edia ponderada de cada valor assumido pela vari´ avel pela sua probabilidade de ocorrˆencia. Exemplo 1.5. Seja X o valor da face superior obtida no lan¸ camento de um dado equilibrado. Neste caso temos P (X = 1) = P (X = 2) = P (X = 3) = P (X = 4) = P (X = 5) = P (X = 6) = 16 , ou seja p1 = p2 = p 3 = p4 = p 5 = p6 = 16 . Segue que 6
E(X ) =
pi xi =
i=1
= =
1 1 1 1 1 1 .1 + .2 + .3 + .4 + .5 + .6 6 6 6 6 6 6
1 1 6(6 + 1) (1 + 2 + 3 + 4 + 5 + 6) = . 6 6 2 21 7 = = 3, 5. 6 2
O valor 3,5 obtido no resultado deve ser interpretado da seguinte forma: se jogarmos um dado equilibrado um n´ umero grande de vezes e calcularmos a m´ edia dos valores obtidos, ele ser´ a pr´ oximo a` 3,5. De fato, se fosse poss´ıvel repertir o experimento um n´ umero infinito de vezes, a m´edia dos resultados convergiria para 3,5. Defini¸ c˜ ao 1.4.2. Valor Esperado de g(X ). Seja X uma vari´ avel aleat´ oria discreta assumindo n valores diferentes x1 , xn com probabilidades p1 , , pn , respectivamente. Seja g uma fun¸cao ˜ definida na imagem da vari´ avel aleat´ oria de X . Ent˜ ao E(g(X )) ´e dado por
·· ·
·· ·
E(g(X )) = g(x1 ) p1 +
n
· · · + g(xn) pn =
i=1
g(xi ) pi .
˜ CAP ´ITULO 1. REVIS AO
14 Exemplo 1.6. Para o Exemplo considere g(X ) = X 2 . Obtemos 6
2
E(X ) =
i=1
= =
1 1 1 1 1 1 pi x2i = .1 + .4 + .9 + .16 + .25 + .36 6 6 6 6 6 6
1 1 6(6 + 1)(12 + 1) (1 + 4 + 9 + 16 + 25 + 36) = . 6 6 6 91 = 15, 16666. 6
Note que E (X 2 ) = E (X )2 .
Defini¸ c˜ ao 1.4.3. Esperan¸ ca de vari´ aveis aleat´ orias cont´ınuas.
Supondo que X seja uma vari´ avel aleat´ oria cont´ınua com fun¸cao ˜ de densidade de probabilidade f , definimos a esperan¸ca de X por
∞
E(X ) =
xf (x)dx.
−∞
O valor esperado de uma fun¸cao ˜ integr´ avel qualquer de X , digamos g(X ) ´e definido por
∞
E(g(X )) =
g(x)f (x)dx.
−∞
∼ N (µ, σ2), ent˜ ao E(X ) = µ, como pode ser facilmente computado.
Exemplo 1.7. Se X
Propriedades da Esperan¸ ca No que segue, assumimos que X, Y s˜ao vari´ aveis aleat´ orias e a, b, c s˜ao constantes reais. E1)
E(a) = a;
E2)
E(a + X ) = a + E(X );
E3)
E(bX ) = b E(X );
E4)
E(a + bX ) = a + bE(X );
E5)
E(X + Y ) = E(X ) + E(Y );
E6)
E(a + bX + cY ) = a + bE(X ) + cE(Y );
Estas propriedades podem ser generalizadas para qualquer n´ umero de vari´aveis aleat´ orias. Em particular, segue a esperan¸ca de uma combina¸c˜ao linear de vari´ aveis aleat´ orias ´e a combina¸c˜ao linear das suas esperan¸ca, isto ´e, se X 1 , , X n s˜ao vari´ aveis aleat´ orias e a1 , , an s˜ao constantes reais,
· ··
···
´ ´ 1.4. PROPRIEDADES DE VARI AVEIS ALEAT ORIAS
n
E7)
E
15
n
ai X i =
i=1
ai E(X i ).
i=1
Por esse motivo, a fun¸c˜ao E( ) que associa a cada vari´ avel aleat´ oria o seu valor esperado ca . ´e um operador linear , chamado de operador esperan¸
·
Em geral, temos que E (XY ) = E(X )E(Y ). Por´ em, no caso particular em que X e Y s˜ ao vari´ aveis aleat´ orias independentes, a igualdade ´e v´ alida, isto ´e,
E(XY ) = E(X )E(Y )
1.4.2
se, e somente se, X e Y s˜ ao independentes.
Variˆ ancia
Seja X uma vari´ avel aleat´ oria (cont´ınua ou discreta)e defina µ = E(X ). Ent˜ ao a variˆ ancia de X ´e definida por Var(X ) = E[(X
− µ)2)] = E(X 2) − [E(X )]2.
(1.2)
Podemos interpretar a variˆancia como sendo o valor esperado do quadrado do desvio de X da sua pr´opria m´edia. Em linguagem comum isto po de ser expresso como A m´edia do ´ assim a m´ quadrado da distˆ ancia de cada ponto at´e a m´edia . E edia do quadrado dos desvios . 2 , ou simplesmente A variˆancia da vari´ avel aleat´ oria X ´e geralmente designada por Var(X ), σ X σ 2 . A variˆ ancia ´e uma medida de dispers˜ ao dos dados e sua unidade ´e a unidade dos dados elevada ao quadrado. Lembramos que a raiz quadrada positiva da variˆ ancia determina o chamado desvio padr˜ ao de X . 1.4.3
Covariˆ ancia
A covariˆancia entre duas vari´aveis aleat´ orias X e Y com E(X ) = µX e E(Y ) = µY ´e definida por Cov(X, Y ) = E[(X µX )(Y µY )].
−
−
Desenvolvendo a express˜ao para a covariˆ ancia, temos:
Cov(X, Y ) = E (X
− µX )(Y − µY ) = E (X − E(X ))(Y − E(Y )) = E XY − X E(Y ) − Y E(X ) + E(X )E(Y ) .
Usando a propriedade de que a esperan¸ca da soma entre duas vari´ aveis aleat´ orias ´e igual a soma das esperan¸cas, segue que
˜ CAP ´ITULO 1. REVIS AO
16
Cov(X, Y ) = E(XY )
− E X E(Y ) − E Y E(X ) + E E(X )E(Y ) = E(XY ) − E(Y )E(X ) − E(X )E(Y ) + E(X )E(Y ) = E(XY ) − E(X )E(Y )
(1.3)
Note que quando X e Y s˜ ao independentes, temos que E(XY ) = E(X )E(Y ) de onde segue que Cov(X, Y ) = 0. A rec´ıproca, por´em, n˜ ao ´e verdadeira pois existem exemplos de vari´ aveis dependentes que possuem covariˆancia nula. Observe ainda que da express˜ ao (1.3) podemos concluir que a covariˆancia ´e uma forma de medir o qu˜ ao “distante” X e Y est˜ a o de ser independentes. 1.4.4
Correla¸ c˜ ao
A correla¸c˜ao, tamb´ em chamada de coeficiente de correla¸ ca˜o, indica a for¸ca e a dire¸ca˜o do relacionamento linear entre duas vari´aveis aleat´ orias, se existir. A correla¸ c˜ao entre duas vari´ aveis X e Y com 0 < Var(X ) < e 0 < Var(Y ) < , denotado por Cor(X, Y ) ou ρX,Y , ´e definida como
∞
Cor(X, Y ) = ρ X,Y =
Cov(X, Y ) = Var(X )Var(Y )
∞
− E(X )E(Y ) . E(X 2 ) − E2 (X ) E(Y 2 ) − E2 (Y )
E(XY )
Note que a correla¸c˜ao entre X e Y nada mais ´e do que a covariˆ ancia entre X e Y normalizada por seus desvios padr˜oes. Esta normaliza¸ca˜o acaba dando a` correla¸ca˜o uma interpretabilidade ausente na covariˆancia como veremos a seguir. Observe ainda que, quando Cov(X, Y ) = 0, temos Cor(X, Y ) = 0 tamb´em e X e Y s˜ ao ditos ser vari´ aveis n˜ao-correlacionadas. 1.4.5
Propriedades da Variˆ ancia, Covariˆ ancia e Correla¸ ca ˜o
Se a e b forem constantes reais e X uma vari´ avel aleat´ oria cuja variˆancia est´ a definida, ent˜ao: V1) Var(aX + b) = a 2 Var(X ); V2) Var(X + Y ) = Var(X ) + Var(Y ) + 2Cov(X, Y ). Da propriedade V1 segue que a variˆancia de uma constante ´e zero. Al´ em disso, se a variˆ ancia de uma vari´ avel aleat´ oria ´e zero, ent˜ ao esta vari´ avel assume um u ´nico valor com probabilidade 1. Da propriedade V2 segue que se X e Y s˜a o n˜ ao-correlacionados, ent˜ ao a variˆ ancia da soma ´e a soma das variˆ ancias.
17
1.5. ESTIMADORES
Suponha agora que X e Y s˜ao vari´ aveis aleat´ orias e a, b, c e d s˜ao constantes reais. Ent˜ ao Cv1) Cov(X, X ) = Var(X ); Cv2) Cov(X, Y ) = Cov(Y, X ); Cv3) Cov(aX + b,cY + d) = acCov(X, Y );
n
Cv4)
Cov
m
X i ,
i=1
n
m
Y j =
j =1
Cov(X i , Y j ).
i=1 j =1
Como mencionado anteriormente, se X e Y s˜ ao independentes, ent˜ao Cov(X, Y ) = 0. A correla¸c˜ao, por sua vez, possui as seguintes propriedades: Cr1)
≤
Cor(X, Y )
1;
Cr2) Cor(X, Y ) = 1 se, e somente se, X ´e diretamente proporcional a Y no sentido de que X = a + bY para a R e b > 0;
∈
Cr3) Cor(X, Y ) = 1 se, e somente se, X ´e inversamente proporcional a Y no sentido de que X = a + bY para a R e b < 0;
−
∈
Cr4) Cor(X, Y ) = Cor(Y, X ); Cr5) Cor(aX + b,cY + d) = sign(ac)Cor(X, Y ), onde a fun¸ca˜o sign(x) ´e a fun¸c˜ao sinal de x, sendo igual a 1, se x < 0, 1 se x > 0 e 0 se x = 0;
−
Cr6)
1.5
Se X e Y s˜ao independentes, ent˜ao Cor(X, Y ) = 0. A reciproca, por´em, n˜ ao ´e verdadeira.
Estimadores
Dada uma amostra x1 , x2 , , xn de uma vari´avel aleat´ oria X , o estimador de E(X ) ´e simplesmente a m´edia aritm´etica dos dados:
· ··
1 X = n
n
xi .
i=1
Com rela¸c˜ao a` variˆ ancia de X , existem dois estimadores muito utilizados na pr´ a tica. O estimador da variˆ ancia de X obtido pelo m´etodo de m´axima verossimilhan¸ca ´e dado por 1 2 σ ˆX = n
n
(xi
i=1
−
1 x)2 = n
− n
x2i
i=1
nx2 .
˜ CAP ´ITULO 1. REVIS AO
18
Pode-se mostrar que, embora consistente, este estimador ´e viesado em amostras finitas. Um estimador consistente e n˜ao-viesado em amostras finitas ´e dado por 2
S X =
n
− 1
n
1
i=1
(xi
2
− x)
=
n
− n
1
−1
x2i
nx2 .
i=1
Observe que para n grandes, a diferen¸ca entre os estimadores σ ˆ 2 e S 2 ´e irrelevante. Em amostras pequenas, por´em, o estimador S 2 apresenta uma performance melhor. Seja x1 , x2 , , xn e y1 , y2 , , yn amostras aleat´ orias das vari´aveis aleat´ orias X e Y . Ent˜ao um estimador para a covariˆ ancia entre X e Y ´e dado por
···
γˆ X,Y =
·· ·
n
− 1
n
1
(xi
i=1
1
− x)(yi − y) = n − 1
n
i=1
xi yi
− nxy
.
Um estimador para a correla¸c˜ao entre X e Y ´e dado por ρˆX,Y =
1.5.1
γˆ X,Y . S X S Y
Propriedades dos Estimadores
Dado que temos alguns estimadores definidos acima, ´e interessante estudar algumas das propriedades qualitativas dos estimadores que nos permitam determinar qual estimador ´e ´ tamb´em importante definir crit´erios para compar diversos estimadores. “bom” e qual n˜ ao ´e. E 1.5.2
V´ıcio/Vi´es
ˆ Seja θ um estimador do parˆ ametro θ. o v´ıcio/vi´es (bias, em inglˆes) ´e definido como ˆ = E(θ) ˆ b(θ) ˆ = 0 segue que E (θ) ˆ Se b(θ) para o parˆametro θ. 1.5.3
− θ.
(1.4)
ˆ e n˜ ao-viciado ou n˜ ao-viesado − θ e, neste caso, dizemos que θ ´
Consistˆencia
Em estat´ıstica, uma seq¨ uˆencia de estimadores para o parˆ ametro θ ´e dito ser consistente (ou assintoticamente consistente) se esta sequˆ encia converge em probabilidade para θ. Isso significa que as distribui¸c˜oes dos estimadores tornar-se mais e mais concentrados perto do verdadeiro valor do parˆ ametro a ser estimado, de modo que a probabilidade do estimador ser
19
1.5. ESTIMADORES arbitrariamente perto θ converge para um. 1.5.4
Eficiˆ encia
Um estimador de θ ´e dito ser eficiente se for n˜ ao viesado e sua variˆancia for menor ou ˆ ou seja, igual a variˆ ancia de qualquer outro estimador θ, Var(θˆ0 )
ˆ ≤ Var(θ),
para qualquer outro estimador θˆ de θ.
Na figura abaixo podemos observar a diferen¸ca entre v´ıcio e eficiˆencia. Estes conceitos est˜ ao relacionados a` m´edia e a` variˆ ancia, respectivamente.
Figura 1.6: Diferen¸ca entre v´ıcio e eficiˆencia
1.5.5
Erro Quadr´ atico M´edio (EQM)
O erro quadr´atico m´edio de um estimador θˆ de θ ´e definido como ˆ = E(θˆ EQM (θ)
− θ)2.
(1.5)
Podemos reescrever esta ultima express˜ao como ˆ = Var(θ) + [ E(θ) EQM (θ)
ˆ − θ]2 = Var(θ)ˆ + b(θ).
Assim, o erro quadr´atico m´edio ´e definido como a variˆ ancia do estimador mais o quadrado
˜ CAP ´ITULO 1. REVIS AO
20
do seu vi´es. Podemos entender o EQM como sendo uma medida da performance de um estimador em rela¸c˜ao ao seu v´ıcio e variˆ a ncia. Note que EQM(θ) = Var(θ) sempre que o estimador for n˜ao-viciado. 1.5.6
V´ıcio versus Variˆ ancia M´ınima
O erro quadr´atico m´edio utilizado na compara¸c˜ao entre um ou mais estimadores para um mesmo parˆ ametro θ. Podemos observar de (1.5) que, no c´alculo do EQM, existe um balan¸co entre v´ıcio e variˆancia. Naturalmente, estimadores eficientes apresentar˜ ao um EQM m´ınimo dentre os estimadores n˜ ao-viciados de θ. Muitas vezes, por´ em, pode ser mais vantajoso do ponto de vista pr´ atico a utiliza¸c˜ao de um estimador viciado mas com variˆ ancia pequena em detrimento a um estimador de maior variˆ ancia, mas que seja n˜ao-viciado. Isto ocorre por que se a variˆancia de um estimador ´e muito grande, ´e grande a chance de uma estimativa esteja longe do verdadeiro valor do parˆametro, mesmo que o estimador seja n˜ao-viciado. Este ´e um ponto importante a ser observado quando da escolha de um estimador para um determinado problema.
1.6
M´ etodo de M´ınimos Quadrados (MQO)
Considere o modelo Y = α + βX + U onde Y ´e a vari´avel dependente, X ´e a vai´avel independente e U denota o termo de erro do modelo. Suponhamos que temos uma amostra (x1 , y1 ), , (xn , yn ) provindo deste modelo.
···
Qual crit´ erio devo utilizar para obter os estimadores dos parˆ ametros α e β ? Podemos minimizar: 1. Soma dos erros: n˜ ao ´e um bom crit´erio pois pode anular positivos e negativos. 2. Soma Absoluta dos Res´ıduos: ´e um crit´erio v´ alido e intuitivo, por´em seu estudo ´e de alta complexidade. Devido a isso, o estimador obtido por este crit´erio, denominado LAD (Least Absolute Deviations), ´e pouco utilizado na pr´ atica. 3. Soma dos Quadrados dos Erros: possui propriedades estat´ısticas de simples utiliza¸ c˜ ao ´ este o crit´erio que d´ e interpreta¸c˜ao o que o tornam bastante atrativo. E a origem ao estimador de m´ınimos quadr´ aticos ordin´ arios (MQO).
´ 1.6. M ETODO DE M ´INIMOS QUADRADOS (MQO)
21
Utilizando a soma dos quadrados dos erros como crit´erio, devemos resolver o seguinte problema de optimiza¸c˜ao:
n
min
{α,β}
n
u2i = min
{ α, β}
i=1
(yi
i=1
− α − βx i)2
.
(1.6)
As condi¸coes ao obtidas difereciando-se o argumento do lado ˜ de primeira ordem (CPO’s) s˜ direito de (1.6) em rela¸c˜ao a` α e β . Em α, a solu¸ca˜o do problema de optimiza¸c˜ao ser´ a o valor α ˆ
∈ R que satisfaz n
n
− − − 2
(yi
α
⇒
βx i ) = 0 =
i=1
ui = 0.
i=1
Esta CPO nos mostra que a escolha do intercepto o´timo implica que a soma dos res´ıduos ser´ a zero. Continuando com essa CPO n
− − (yi
α
βx i ) = 0
i=1
⇐⇒
ny
⇐⇒
αMQO = y
− nα − βnx = 0
− βx.
Assim, o estimador de MQO do intercepto α ´e dado por (1.7).
(1.7)
Difereciando-se o argumento do lado direito de (1.6) em rela¸c˜ao a` β obtemos que a solu¸ca˜o ˆ R que satisfaz do problema de optimiza¸c˜ao ser´ a o valor β
∈
n
n
− − ⇐⇒ − − ⇐⇒ (yi
α
βx i ) = 0
yi xi
i=1
n
n
yi xi = (y
i=1 n
βx)
i=1
n
yi xi = y
i=1
x2i
n
α
xi
β
i=1
n
2
xi
i=1
x
xi ,
i=1
onde a u ´ ltima gualdade obt´em-se dividindo-se o numerador e denominador por n 1.6.1
i=1
i=1
n
xi + β
i=1
i=1
n
xi + β
n
− − ⇐⇒
2
Regress˜ ao Liner M´ ultipla (RML)
Considere o modelo de regress˜ao linear m´ ultipla yi = β 0 + β 1 x1i + β 2 x2i +
·· · + β k xki + ui
− 1.
x2i = 0
˜ CAP ´ITULO 1. REVIS AO
22 em que temos k vari´aveis explicativas x1 ,
Y =
e
y1 y2 .. . yn
,
X =
β =
β 0 β 1 .. . β k
· · · , xk. Definindo
1 x11 x21 1 x12 x22 .. ... ... . 1 x1n x2n
U =
xk1 xk2 ...
·· · ·· · ..
.
·· · u1 u2 .. . un
xkn
,
obtemos o modelo de regress˜ ao em forma matricial Y = X β + U . A matriz X ´e chamada de matriz de design do modelo. Pode-se mostrar que o estimador de MQO para β ´e dado por: ˆ = (X X )−1 X Y. β 1.6.2
Hip´ oteses do modelo de regress˜ ao
Hip´ otese 1 (Linearidade dos Parˆ ametros): A rela¸c˜ao entre a vari´ avel dependente Y e as explicativas X 1 ,
· ·· , X k ´e linear Y = β 0 + β 1 X 1 +
· · · + β k X k + U.
ao ´e linear nos parˆ ametros se as CPOs associadas Defini¸ c˜ ao 1.6.1. Um modelo de regress˜ ao problema de obten¸ cao ˜ dos EMQ (Estimadores de MQO) gerarem um sistema linear nos parˆ ametros. Exemplo 1.8. Seja o seguinte modelo Y = α + βX + U.
e (xi , yi ), para i = 1, , n, uma amostra do modelo. De acordo com o que foi visto anteriormente, o problema de optimiza¸cao ˜ a ser resolvido para a obten¸ cao ˜ dos estimadores de MQO para α e β ser´ a
· ··
n
min
{α,β }
(yi
i=1
− α − βxi)2
.
´ 1.6. M ETODO DE M ´INIMOS QUADRADOS (MQO)
23
As CPOs ser˜ ao n
n
n
− − − ⇒ − − − ⇒ α :
2
(yi
α
βx i ) = 0
=
yi = n α + β
i=1
i=1
n
β :
2
i=1
n
(yi
α
βx i )xi = 0
=
n
yi xi = α
i=1
i=1
n i=1 xi n 2 i=1 xi
n
n i=1
xi
xi
α = β
n
xi + β
i=1
n i=1 yi n i=1 yi xi
x2i
i=1
.
Logo ´e o sistema linear e o modelo ´e linear nos parˆ ametros. Exemplo 1.9. Seja o seguinte modelo Y = α + βX γ + U
e seja (xi , yi ), para i = 1, caso resume-se a
· · · , n, uma amostra do modelo. O problema de minimiza¸cao ˜ neste
− − −− − n
min
{α,β,γ }
A CPO em α ´e dada por α :
(yi
α
2 βx γ . i )
i=1
2
(yi
α
βx γ i ) = 0,
i
que n˜ ao ´e linear por causa do γ . Exemplo 1.10. Seja o seguinte modelo Y = αX 1β1 X 2β2 eU .
Este modelo ´e claramente n˜ ao-linear, por´ em, ao tomarmos o logaritmo obtemos ln(Y ) = ln(α) + β 1 ln(X 1 ) + β 2 ln(X 2 ) + U,
que ´e linear nos parˆ ametros.
Hip´ otese 2 (Amostragem Aleat´ oria): Podemos extrair uma amostra aleat´ oria
{(x1i, · · · , xki , yi), i = 1, · · · , n} da popula¸c˜ao.
˜ CAP ´ITULO 1. REVIS AO
24
Observa¸c˜ ao 1.6.1. Nos livros-texto esta hip´ otese ´e geralmente substitu´ıda por uma hip´ otese de que X ´e determin´ıstico (n˜ ao aleat´ orio) e seus valores podem ser escolhido de antem˜ ao.
Hip´ otese 3 (M´ edia Condicional Zero): E(U X ) = 0
|
Hip´ otese 4 (N˜ ao h´ a Multicolinearidade Perfeita): As vari´aveis explicativas X 1 , , X k s˜ao linearmente independentes. Logo, X j , j = 1, , k n˜ao podem ser constantes. Lembrando que o posto de uma matriz X ´e a dimens˜ao do subspa¸co gerado pelas colunas da matriz, esta
···
···
hip´ otese implica que a matriz de design associada ao modelo,
X =
1 x11 x21 1 x12 x22 .. ... ... . 1 x1n x2n
··· ··· ..
.
···
tem posto m´ aximo, isto ´e, posto(X ) = k + 1, pois n ´algebra matricial que
xk1 xk2 ... xkn
n×(k+1)
≥ k + 1. Relembre das propriedades de
posto(X X ) = posto(X ) = k + 1, e assim, (X X ) ´e uma matriz invert´ıvel. Hip´ otese 5 (Homocedasticidade): Se U 1 , , U n ´e a sequˆencia de erros relativa ao modelo linear Y = X β + U baseado numa amostra de tamanho n do modelo. Ent˜ ao Var(U i X ) = σ 2 , para todo i, ou seja, a variˆ ancia do erro ´e constante.
···
|
Hip´ otese 6 (Ausˆ encia de (Auto)Correla¸ ca ˜o (Serial) Condicional): Cov(U i , U j X ) = 0, para todo i e j com i = j.
Hip´ otese 7 (Normalidade): U i inferˆencia.
|
∼ N (0, σ2) para todo i. Tal hip´otese ser´a necess´aria para
Teorema 1.6.1. (de Gauss-Markov) Dentro da classe dos estimadores lineares e n˜ ao-viesados, e dadas as hip´ oteses do MCRL, os EMQs s˜ ao estimadores que possuem a menor variˆ ancia (BLUE - Best Linear Unbiased Estimator).
´ 1.6. M ETODO DE M ´INIMOS QUADRADOS (MQO) 1.6.3
25
O Coeficiente de Determina¸ c˜ ao
Existe alguma medida que mostre que um determinado modelo apresenta um bom poder preditivo? Ou seja, se o regressor (X ) que eu inclui no meu modelo explica bem a vari´avel dependente (Y )? Para construirmos tal medida, primeiramente definimos n
(yi∗ )2 = Soma dos Quadrados Totais (SQT )
i=1 n
(yi∗ )2 = Soma dos Quadrados Explicados (SQE )
i=1
n
u2i = Soma dos Quadrados dos Res´ıduos (SQR)
i=1
Pode-se mostrar facilmente que SQT = SQE + SQR. Dividindo a express˜ao por S QT , teremos 1=
SQE SQR + . SQT SQT
R2
O R2 mede o quanto (em porcentagem) da varia¸c˜ao da vari´ avel dependente pode ser explicado pela introdu¸c˜ao do regressor no modelo. Pode-se mostrar que R2 [0, 1]. Express˜oes alterntivas para R 2 s˜ ao as que segue:
∈
SQE R = =1 SQT 2
−
SQR = SQT
− − ∗ 2
i (yi )
∗ 2
i (yi )
=
n i=1 (yi n i=1 (yi
y)2 =1 y)2
− − i
u2i
n i=1 (yi
y)2
,
Uma deficiˆencia do R2 ´e que este nunca diminui quando adicionamos regressores, o que implica que o R 2 favorece modelos mais complexos. Para minimizar esta deficiˆencia, uma alternativa ´e penalizar, em certo grau, a inclus˜ ao de regressores. Um coeficiente muito utilizado na pr´atica e que faz exatamente isso ´e o chamado R 2 ajustado definido por
R
2
= 1 = 1
− k − 1)] − [SQR/(n [SQT/(n − 1)] −
σ2 [SQT/(n
− 1)] ,
SQR σ = . n k 1 2
− −
˜ CAP ´ITULO 1. REVIS AO
26
O R 2 ajustado tamb´ em recebe o nome de R 2 corrigido ou, em inglˆes, de R -bar squared Pode-se mostrar que SQR/(n k 1) ´e um estimador n˜ ao-viesado de σ 2 , a variˆ ancia 2 , a variˆ populacional do erro, e SQT/(n 1) ´e um estimador n˜ ao-viesado de σY ancia de Y .
−
− −
2
ao, ent˜ ao R aumenta e a Proposi¸c˜ ao 1.6.1. Se adicionamos um novo regressor a` regress˜ estat´ıstica t deste novo regressor ´e maior que 1, em m´ odulo. 2
Proposi¸c˜ ao 1.6.2. Adicionando um grupo de vari´ aveis a` regress˜ ao, ent˜ ao R aumenta e a estat´ıstica F deste novo grupo de regressores ´e maior que 1. 2
Uma f´ ormula alternativa para o R ´e 2
2
R =1
− (1 (n− R− k)(n− −1) 1) . 2
Al´em de permitir a compara¸c˜ao entre modelos ao se incluir/excluir regressores, o R serve tamb´em para a escolha dentre modelos nonnested (n˜ ao encaixantes). Por exemplo, o modelo 1 que tem X 1 , X 2 e X 3 como vari´ aveis exlicativas e um outro modelo 2 que tem X 1 , X 2 e X 4 . 2 Mas o R n˜ao serve para escolher dentre formas funcionais diferentes da vari´avel dependente. Propriedade de N˜ ao-Vi´ es dos Estimadores MQO Assumindo X n˜ao estoc´ astico, tomando a esperan¸ca dos estimadores MQO em vers˜ao matricial, obtemos: ˆ) E(β
= E[(X X )−1 X y] = E[(X X )−1 X (X β + U )] = E[(X X )−1 X X β ] + E[(X X )−1 X U ] = β + (X X )−1 E[X U ] = β ,
pois E[X U ] = 0 por hip´otese. Ou seja, se as vari´ aveis regressoras s˜a o n˜ ao-correlacionadas com U , o estimador MQO ser´a n˜ ao-viesado. Variˆ ancia dos Estimadores MQO Para um modelo de regress˜ ao linear m´ ultipla, a variˆ ancia do estimador de cada β j ´e dado por
ˆ j ) = Var(β
2 σu
Var(X j ) , 1 n−1
n yi −y )2 i=1 (ˆ
Var(X j )
2 ´ se a variˆ ancia de U , σ U e conhecida; 2 ´ , se σ U e desconhecida.
1.7. FORMAS FUNCIONAIS LOGAR ´ITMICAS 1.6.4
27
Testes de Hip´ oteses
Teste t Se queremos testar individualmente a significˆ ancia (H 0 : β j = 0) do modelo yi = β 0 + β 1 x1i +
· · · + β kxki + ui
, a estat´ısticade teste ´e dada por t =
ˆ j β
−
β j
ˆ j Varβ
∼ tn−k−1
Observa¸c˜ ao 1.6.2. Se houver problema de multicolineariedade, R j2 ser´ a alto, a variˆ ancia ser´ a alta, e a estat´ıstica de teste t ser´ a baixa, e os estimadores ser˜ ao pouco significativos (neste caso assumindo β j = 0). Teste F A estat´ıstica F para um modelo com intercepto, que serve para testar se o modelo ´e significante, ou seja se todos os regressores s˜ao conjuntamente significantes, i.e. H 0 : β 0 = β 1 = = β k = 0 vs. H 1 : pelo menos um β j = 0, ´e dada por
·· ·
F =
(1
−
R2 /k R2 )/n k
− − 1 ∼ F k,n−k−1.
Observa¸c˜ ao 1.6.3. Se temos um problema de multicolineariedade, ainda assim a estat´ıstica c˜ ao entre os regressores(apenas do F e R2 do modelo de y contra x n˜ao depende da correla¸ SQR e SQT, ou seja, da soma dos quadrados dos res´ıduos e da vari´ avel dependente) e, assim,
se tivermos regressores relevantes para explicar y , ent˜ ao F e R 2 indicar˜ ao que o modelo como um todo ter´ a um alto poder explicativo.
1.7
Formas Funcionais Logar´ıtmicas
Considere o seguinte modelo: ˆ0 + β ˆ1 log x1 + β ˆ2 x2 . log y = β
Ele ´e log-log de y em rela¸c˜ao a x1 e ´e log-linear em rela¸ca˜o a x2 . β 1 mede a elasticidade de y em rela¸c˜ao a x 1 , fixado x 2 . ˆ1 ´e que para o aumento de 1% em x1 temos um aumento de β 1 % em y . A interpreta¸c˜ao de β
˜ CAP ´ITULO 1. REVIS AO
28
ˆ2 pode ser interpretado como: um aumento de uma unidade em x 2 d´a um aumento exato de β 100[exp β 2 1]% em y.
−
ˆ2 %. Este coeficiente Uma medida aproximada, para uma mudan¸ca pequena em x 2 seria 100β ´e denominado muitas vezes como semi-elasticidade.
1.8. EXERC ´ICIOS
1.8
29
Exerc´ıcios
Exerc´ıcio 1.1. O custo de produ¸cao ˜ de certo bem ´e uma vari´ avel aleat´ oria com fun¸cao ˜ densidade de probabilidade: f (x) = kx2 , 1 x 4.
≤ ≤
(a) Calcule o valor de k; (b) Calcule o custo m´edio do produto; (c) Calcule a probabilidade do custo ser menor do que 2; (d) Calcule a variˆ ancia do custo do produto; (e) Calcule a probabilidade do custo ser maior do que 3;
Exerc´ıcio 1.2. Sejam X e Y duas vari´ aveis aleat´ orias independentes com m´edia µX = E(X ) = 4, 2 = Var (X ) = 1 e σ 2 = Var (Y ) = 2. µY = E(Y ) = 5, σX Y (a) Calcule E(X 2 ) e E(Y 2 ); (b) Calcule Var (4X
− 2Y );
(c) Calcule Cov (X, Y ); (d) Calcule Cov (X, 2X
− 3Y ) (e) Suponha que X 1 , X 2 , · · · , X n s˜ ao vari´ aveis aleat´ orias independentes entre si e independentes de X , mas com a mesma distribui¸cao ˜ de probabilidade de X , ou seja, X 1 , X 2 , · · · , X n
e X s˜ ao vari´ aveis aleat´ orias independentes e identicamente distribu´ıdas (i.i.d) com m´edia ancia σ 2 = 1. Calcule: µ = 4 e variˆ
• E(X ) = E n1 • Var (X ); • Cov (X, X ).
n i=1 X i
;
Exerc´ıcio 1.3. Suponha o seguinte modelo linear: y = Xβ + ε , em que y e ε s˜ ao vetores n 1, X < ´e uma matriz n k e β ´e um vetor k 1.
×
∞
×
×
(a) Determine a(s) hip´ otese(s) necess´ aria(s) para estimar esse modelo por MQO.
˜ CAP ´ITULO 1. REVIS AO
30
ˆ, exista e seja ´ (b) Determine a(s) hip´ otese(s) necess´ aria(s) para que o β estimado, β unico. ˆ seja n˜ otese(s) necess´ aria(s) para que β ao viesado. (c) Determine a(s) hip´ ˆ seja eficiente. (d) Determine a(s) hip´ otese(s) necess´ aria(s) para que β (e) Determine a(s) hip´ otese(s) necess´ aria(s) para que se possa fazer inferˆencia estat´ıstica. Exerc´ıcio 1.4. Os dados da tabela relacionam o peso de plantas, Y (em gramas) com o percentual de mat´eria orgˆ anica na terra, X 1 e os Kilogramas de nitrogˆenio suplementares agregados a terra por 1000m2 , X 2 :
Soma: m´edia:
y
x1
x2
78.5 74.3 104.3 87.6 95.9 109.2 102.7
7 1 11 11 7 11 3
2.6 2.9 5.6 3.1 5.2 5.5 7.1
652.5 93.21
51 7.29
32.0 4.57
(a) Defina a equa¸cao ˜ de regress˜ ao com intercepto em que y ´e a vari´ avel dependente e x 1 e x 2 s˜ ao vari´ aveis explicativas. N˜ ao esque¸ca da suposi¸cao ˜ para o termo de erro do modelo. (b) Se
(X T X )−1 =
−−
1.80 0.07 0.25
ˆ via MQO. determine β
−0.07 −0.25 0.01 −0.00 −0.00 0.06
, e X T Y =
652.50 4915.30 3103.66
,
ˆ = (51.56, 1.49, 6.72). Resposta: β (c) Se SQ res = 27.58 e SQ total = 28.30, calcule o coeficiente de determina¸ cao. ˜
Resposta:R2 = 0.9745, (d) Teste β 0 = β 1 = β 2 = 0, ou seja, a significˆ ancia do modelo. ˆ1 ) = 0.2636, (dp=desvio padr˜ ao), teste se a vari´ avel X 1 ´e relevante para o modelo. (e) Se dp(β
1.8. EXERC ´ICIOS
31
ˆ2 ) = 0.6274, teste a hip´ (f ) Se dp(β otese H 0 : β 2 = 1.
Exerc´ıcio 1.5. Ad˜ ao Ismiti queria verificar se a produtividade aumentava com a divis˜ ao do p) de n trabalhadores trabalho. Para isso, fez a seguinte experiˆencia: regrediu a produtividade ( de f´ abricas de alfinetes contra o n´ umero de fun¸coes ˜ exercidas pelo trabalhador ( F ), os anos de escolaridade ( E ), o sal´ ario ( w) e o n´ umero de filhos (N ). Formalmente, a regress˜ ao foi: pi = β 1 + β 2 F i + β 3 E i + β 4 ωi + β 5 N i + ui
Usando o teste t-Student, Ismiti n˜ ao rejeitou a hip´ otese nula de parˆ ametro igual a zero para β 3 . Retirou a vari´ avel E da regress˜ ao e estimou o modelo restrito, observando que β ˆ5 se tornou tamb´em, estatisticamente n˜ ao significativo. Finalmente, retirou N da regress˜ ao e estimou o modelo novamente. ˆ3 para retirar E do modelo? (a) Por que n˜ ao foi preciso fazer o teste F em β
a correto ou equivocado, para ter eli(b) Justifique se o procedimento adotado por Ismiti est´ minado a vari´ avel N do modelo.
ˆ exista, seja n˜ Exerc´ıcio 1.6. Suponha um modelo de regress˜ ao linear m´ ultiplo em que β ao viesado e eficiente, pois u ´e homoced´ astico. Suponha que vocˆ e imponha falsas restri¸ c˜ oes sobre os parˆ ametros do modelo. (a) Mostre que as estimativas nesse caso s˜ ao viesadas. (b) Mostre que a variˆ ancia das estimativas do modelo com restri¸ coes ˜ ´e menor que a variˆ ancia das estimativas do modelo sem restri¸coes. ˜
˜ desse resultado em termos de previs˜ ao? Qual ´e a intui¸ cao ˜ desse (c) Qual ´e a implica¸cao resultado? Sugest˜ ao: Lembre o que ´e o EQM, ou seja, o erro quadr´ atico m´edio.
Exerc´ıcio 1.7. Responda: (a) Cite pelo menos dois testes para a hip´ otese de homocedasticidade. (b) Cite pelo menos um teste para a hip´ otese de autocorrela¸cao ˜ dos res´ıduos.
˜ CAP ´ITULO 1. REVIS AO
32
(c) Em caso de rejei¸cao ˜ da hip´ otese nula em (a), por qual m´etodo vocˆ e estimaria o modelo?
˜ da hip´ otese nula em (b), por qual m´etodo vocˆ e estimaria o modelo? (d) Em caso de rejei¸cao
Exerc´ıcio 1.8. Desafio: Fa¸ca os seguinte exerc´ıcios.
|xi| < ∞. Mostre que ∞i=0 x2i < ∞. ao) que limn→∞ nx=1 x1 = ∞. (b) Prove (ou n˜ ao) que limn→∞ nx=1 x1 = ∞. (c) Prove (ou n˜ 2 (d) Prove (ou n˜ ao) que, se ∞ ao ∞ i=0 xi < ∞, ent˜ i=0 |xi | < ∞. (a) Suponha que
∞ i=0
2
Cap´ıtulo 2
S´ eries Temporais O estudo de s´ eries temporais tem por objetivos principais definir o processo gerador de dados, fazer previs˜oes futuras da s´erie, identificar ciclos, tendˆ encias e/ou sazonalidades de forma que a decis˜ao que envolve as vari´aveis em quest˜ao seja a mais acurada poss´ıvel.
2.1
S´ eries Temporais: Defini¸ca ˜o Formal
Neste cap´ıtulo vamos descrever os conceitos b´ asicos utilizados dentro da teoria dos modelos de s´ eries temporais. Inicialmente vamos introduzir os conceitos de processos estoc´ asticos, m´edia e fun¸c˜ao de covariˆ ancia, processo estacion´ ario, e fun¸c˜ao de autocorrela¸c˜ao.
2.1.1
Processos Estoc´ asticos
Seja T um conjunto arbitr´ ario de ´ındices. Um processo estoc´astico ´e uma fam´ılia Z = Z t , t T tal que, para cada t T , Z t ´e uma vari´avel aleat´ oria (v.a.) definida num espa¸ co de probabilidades (Ω, A , P ). O conjunto T ´e normalmente tomado como o conjunto dos inteiros T , Z t e´ uma v.a. definida Z = 0, 1, 2, . . . ou o conjunto dos reais R. Como, para t sobre Ω, na realidade Z t ´e uma fun¸ca˜o de dois argumentos, Z (t, ω), t T , ω Ω.
{
∈ }
{ ± ±
∈
}
∈
∈
∈
Especifica¸c˜ ao de um Processo Estoc´ astico Sejam t1 , t2 , . . . , tn elementos quaisquer de T e consideremos
F (Z 1 , . . . , Zn ; t1 , . . . , tn ) = P Z (t1 )
≤ z1, . . . , Z(t n) ≤ zn
(2.1)
ent˜ao, o processo estoc´ astico Z = Z (t), t T estar´ a especificado se as distribui¸c˜oes finitodimensionais de (2.1), s˜ ao conhecidas para todo n 1. Contudo, em termos pr´ aticos, n˜ ao
{
∈ } 33
≥
´ CAP ´ITULO 2. S ERIES TEMPORAIS
34
conhecemos todas essas distribui¸c˜oes finito- dimensionais. Estudaremos ent˜ ao certas caracter´ısticas associadas a (2.1) e que sejam simples de calcular e interpretar. Uma maneira de especificar o processo Z seria determinar todos os produtos dos momentos, ou seja,
µ(r1 , . . . , rn ; t1 , . . . , tn ) = E Z r1 (t1) . . . Z r n (tn) ou
∞
µ(r, t) =
∞
...
−∞
−∞
(2.2)
Z 1r1 . . . Z1r n f (z1 , . . . , zn ; t1 , . . . , tn )dz1 . . . d zn
(2.3)
em que f (Z , t) ´e a fun¸ca˜o de densidade de F (Z , t). Por´em o que vai nos interessar s˜ ao os momentos de baixa ordem, ou seja, os chamados processos estacion´ arios de 2a ordem. Consideramos somente os momentos de primeira e segunda ordem, que ser˜ ao apresentados a seguir.
2.2
M´ edias e Covariˆ ancias Para um processo estoc´ astico Z t : t = 0, 1, 2, . . . a fun¸c˜ao m´edia (f.m.) ´e definida por
{
± ±
}
µt = E(Z t ), para t = 0, 1, 2, . . .
± ±
(2.4)
e a fun¸ca˜o de autocovariˆ ancia (FACV) como
γ (t, s) = Cov(Z t , Z s ) = E [(Z t
− µt)(Z s − µs)] = E(Z tZ s) − µtµs,
para t, s = 0, 1, 2, . . . (2.5)
± ±
A fun¸c˜ao de autocorrela¸c˜ao (FAC) ´e dada por ρ(t, s) = Cor(Z t , Z s ) =
Cov(Z t , Z s ) = Var(Z t )Var(Z s )
γ (t, s) . γ (t, t)γ (s, s)
(2.6)
Observe que, em princ´ıpio, as fun¸c˜oes γ (t, s) e ρ(s, t) dependem tanto de t quanto de s. Existem, por´ em, processos em que essas quantidades n˜ ao possuem dependˆencia temporal. Processos com estas caracter´ısticas s˜ao de grande importˆ ancia e ser˜ao estudados em detalhes mais adiante.
35
2.3. ESTACIONARIEDADE Propriedades Importantes As seguintes propriedades s˜ao an´ alogas a`s da da covariˆ ancia e correla¸c˜ao ordin´ arias: 1. γ (t, t) = Var(Z t ), ρ(t, t) = 1; 2. γ (t, s) = γ (s, t), ρ(t, s) = ρ(s, t). 3. γ (t, s)
|
|≤
γ (t, t)γ (s, s) e
−1 ≤ ρ(t, s) ≤ 1.
Como sabemos a correla¸c˜ao ´e uma medida da dependˆencia linear entre duas vari´ aveis. Se Cor(X, Y ) = 1, isto significa que existem constantes β 0 e β 1 tais que Y = β 0 + β 1 X . Valores pr´ oximos de 1 indicam forte dependˆencia (linear) e valores pr´ oximos de 0 indicam fraca dependˆencia (linear). Se ρ(t, s) = 0, Z t e Z s s˜ ao n˜ ao-correlacionadas, mas note que isso n˜ ao quer dizer que elas s˜ao necessariamentes independentes. Agora, se Z t e Z s s˜ ao independentes, ent˜ao ρ(t, s) = 0.
± ±
Para analisar as propriedades da covariˆ a ncia de v´arios modelos de s´ eries temporais, o seguinte resultado ser´a utilizado: se c1 , c2 , . . . , cm e d1 , d2 , . . . , dn s˜ao constantes e t 1 , t2 , . . . , tm e s1 , s2 , . . . , sn s˜ao pontos no tempo, ent˜ ao
m
Cov
n
m
ci Z (ti ),
i=1
n
d j Z (s j ) =
j =1
ci d j Cov Z (ti ), Z (s j )
i=1 j =1
(2.7)
podemos dizer que, a covariˆancia entre duas combina¸c˜oes lineares ´e a soma de todas as covariˆ ancias entre termos de suas combina¸c˜oes lineares. Esta express˜ ao pode ser verificada utilizando as propriedades de esperan¸ca e covariˆancia. Como caso especial, podemos obter o seguinte resultado
n
Var
2
ci Z (ti ) =
i=1
2.3
n n−1
n
ci Var Z (ti ) + 2
i=1
ci c j Cov Z (ti ), Z (t j ) .
i=2 j =1
(2.8)
Estacionariedade
Uma s´erie temporal ´e estacion´ aria quando ela se desenvolve aleatoriamente, no tempo, em torno de uma m´edia constante, refletindo alguma forma de equil´ıbrio est´ avel. A id´eia
´e de que uma s´erie temporal estacion´ aria Y tende a “flutuar” aleat´ oriamente ao redor de uma m´edia constante. Uma s´erie temporal ´e dita possuir uma tendˆencia determin´ıstica se a
´ CAP ´ITULO 2. S ERIES TEMPORAIS
36 s´erie “flutua” aleatoriamente em torno de uma fun¸c˜ao deterministica. Existe ainda o caso em que a s´erie temporal apresenta uma tendˆencia dita estoc´ atica. Esta se comporta como uma tendˆencia aleat´oria com o tempo e a s´erie tipicamente flutua ao redor desta. A Figura 2.3 apresenta uma s´erie temporal com tendˆencia determin´ıstica (linear, acima) e uma apresentando o comportamento t´ıpico de tendˆencia estoc´astica (abaixo). Mais detalhes ser˜ ao tratados adiante.
Entretanto, a maior parte das s´eries que encontramos na pr´ atica apresenta alguma forma de n˜ao estacionariedade. As s´eries econˆ omicas apresentam em geral tendˆ encias lineares positivas ou negativas. Podemos ter, tamb´em, uma forma de n˜ ao-estacionariedade explosiva, como o crescimento de uma colˆ onia de bact´erias.
2.3.1
Estacionariedade forte ou estrita
ario se a distriUm processo estoc´astico Z (t) ´e dito ser um processo estritamente estacion´ bui¸c˜ao conjunta de Z (t1 ), Z (t2 ), . . . , Z(t n ) ´e a mesma distribui¸c˜ao conjunta de Z (t1 k), Z (t2 k), . . . , Z(t n k), para todas as combina¸c˜oes de tempos t1 , t2 , . . . , tn e para todos os “lags” (posi¸co˜es) k (constante).
−
−
−
Quando n = 1, a distribui¸c˜a o de Z t ´e igual a distribui¸c˜a o de Z t−k para qualquer k, ou seja, se os Z s s˜ao identicamente distribu´ıdos, E (Z t ) = E(Z t−k ), para todo t e k, e as fun¸c˜oes
37
2.3. ESTACIONARIEDADE m´edia, µ t , e variˆ ancia Var(Z t ) = Var(Z t−k ) s˜ ao constantes para todo tempo t.
Quando n = 2, a distribui¸c˜a o de (Z t , Z s ) ´e a mesma de (Z t−k , Z s−k ), de onde segue que Cov(Z t , Z s ) = Cov(Z t−k , Z s−k ), para todo t, s e k. Fazendo k = s temos:
e se k = t,
γ (t, s) = Cov(Z t , Z s ) = Cov(Z t−k , Z s−k )
γ (t, s) = Cov(Z t−t , Z s−t ) = Cov(Z 0 , Z s−t )
= Cov(Z t−s , Z s−s ) = Cov(Z t−s , Z 0 )
= Cov(Z 0 , Z t−s )
= γ (t
= γ (0, s
− s, 0);
− t),
onde podemos concluir que
γ (t, s) = γ (0, t
| − s|), onde |t − s| =
− − t
s, para t > s;
s
t, para s > t.
A covariˆancia entre Z t e Z s depende somente da diferen¸ca temporal t
| − s| e n˜ao dos
tempos t e s. Al´ em disso, para um processo estacion´ ario podemos simplificar a nota¸ca˜o:
γ (k) = Cov(Z t , Z t−k )
ρ(k) = Cor(Z t , Z t−k ).
As propriedades gerais para um processo estacion´ ario s˜ ao: 1. γ 0 = Var(Z t ), ρ(0) = 1; 2. γ (k) = γ ( k), ρ(k) = ρ( k);
−
−
3. γ (k)
|
| ≤ γ (0), |ρ(k)| ≤ 1.
Se um processo ´e estritamente estacion´ario e tem variˆancia finita, ent˜ ao a FACV depende somente de um certo lag k.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
38 2.3.2
Estacionariedade fraca ou de segunda ordem
A estacionariedade forte ´e um conceito na maioria das vezes dif´ıcil de ser identificado na pr´ atica. Uma outra maneira de se definir a estacionariedade de uma s´erie, de forma a ser util ´ e matematicamente mais simples de se verificar na pr´atica do que a estacionariedade forte ´e a seguinte: um processo estoc´astico Z t ´e dito ser fracamente estacion´ ario ou estacion´ ario de segunda-ordem se:
1. a fun¸c˜ao m´edia ´e constante para todo tempo t; 2. γ (t, t
− k) = γ (0, k) = γ (k) para todo tempo t e de “lag” k.
A condi¸c˜ao γ (t, t k) = γ (k) para todo tempo t e “lag” k ´e equivalente a ρ(t, t k) = ρ(k). Como veremos adiante, em processos fracamente estacion´ arios as fun¸c˜oes de autocovariˆ ancia
−
−
e autocorrela¸c˜ao desempenham papel central.
2.3.3
Teste para significˆ ancia das autocorrela¸ co ˜es
Mais adiante quando estudarmos modelagem ARIMA, precisaremos de ferramentas para decidir se uma dada s´erie ´e n˜ ao-correlacionada. Para testar a hip´ otese conjunta de que ρ(1) = = ρ(m) = 0 contra a hip´otese de que algum ρ(k) = 0, pode-se usar a estat´ıstica QBP desenvolvida por Box e Pierce , ou a estat´ıstica QLB desenvolvida por Ljung-Box , definidas, respectivamente, por:
···
Box e Pierce
Ljung-Box m
QBP (m) = n
2
ρˆk (ˆ ε)
k=1
m
QLB (m) = n(n + 2)
− k=1
ρˆ2k (ˆ ε) n k
em que n ´e o tamanho da amostra (s´erie) e m ´e
a qual se distribui como uma qui-quadrado com
o maior lag considerado na hip´ otese. A estat´ıstica
m graus de liberdade em grandes amostras. A es-
QBP em grandes amostras tem distribui¸ca ˜o qui-
tat´ıstica QLB possui maior poder para amostras
quadrado com m graus de liberdade.
pequenas que a estat´ıstica Q BP .
39
2.3. ESTACIONARIEDADE 2.3.4
Fun¸ c˜ ao de autocorrela¸ c˜ ao parcial (FACP)
A fun¸ca˜o de autocorrela¸ca˜o parcial (FACP) ´e a correla¸ca˜o entre as vari´ aveis y t e y t+k dado que s˜ao conhecidos y t+1 , yt+2 , . . . , yt+k−1 . A FACP para um processo estacion´ ario com m´ edia zero pode ser obtida a partir da regress˜ ao yt+k = φ k1 yt+k−1 + φk2 yt+k−2 + + φkk yt + εt+k , (2.9)
···
da qual podem ser obtidas as equa¸c˜oes de Yule-Walker. Multiplicando ambos os lados por yt+k− j e calculando o valor dividindo pela variˆ ancia, tem-se ρ j = φ k1 ρ j −1 + φk2 ρ j −2 +
· · · + φkk ρk− j .
Ent˜ao para j = 1, 2, . . . , k, temos:
ρ1 = φk1 ρ0 + φk2 ρ1 + ρ2 = .. .
· ·· + φkk ρk−1; φk1 ρ1 + φk2 ρ0 + · ·· + φkk ρk−2 ;
ρk = φk1 ρk−1 + φk2 ρk−2 +
· ·· + φkk ρ0;
→ φˆ11 = ρ1. Para k = 2 → ρ1 = φ 21 + φ22 ρ1 e ρ 2 = φ 21 ρ1 + φ22 . Para k = 1
Ou podemos escrever a ultima equa¸ca˜o em nota¸c˜ao matricial:
ρ1 1 ρ1 = ρ2 ρ1 1
φ21 . φ22
cuja solu¸c˜ao para o estimador de φ22 ´e dada pela regra de Cramer:
φˆ22 =
1 ρ1 ρ1 ρ2 1 ρ1 ρ1 1
´ CAP ´ITULO 2. S ERIES TEMPORAIS
40 Para k = 3 temos as equa¸c˜oes:
ρ1 = φ31 + φ32 ρ1 + φ33 ρ2 ρ2 = φ31 ρ1 + φ32 + φ33 ρ1 ρ3 = φ31 + φ32 ρ1 + φ33 . Em nota¸c˜ao matricial temos:
ρ1 1 ρ1 ρ2 ρ2 = ρ1 1 ρ1 ρ3 ρ2 ρ1 1
cuja solu¸c˜ao para o estimador de φ33 ´e dada por:
φˆ33 =
e assim sucessivamente.
2.3.5
1 ρ1 ρ2
φ31 φ32 . φ33
ρ1 ρ1 1 ρ2 ρ1 ρ3
1 ρ1 ρ2 ρ1 1 ρ1 ρ2 ρ1
1
,
Operador de defasagem ou operador lag
Em s´eries temporais ´e usual trabalhar com operadores que defasam a vari´ avel. Definimos ent˜ao o operador de defasagem L como um operador linear tal que: Operador defasagem L j Y t = Y t− j S˜ao v´ alidas as seguintes propriedades do operador L: 1. O lag de uma constante ´e a pr´ opria constante Lc = c; 2. O operador lag segue a propriedade distributiva em rela¸ c˜ao a` soma (Li + L j )Y t = L i Y t + L j Y t = Y t−i + Y t− j ;
41
2.3. ESTACIONARIEDADE ´ v´ 3. E alida a propriedade associativa da multiplica¸ c˜ao Li L j Y t = L i (L j Y t ) = L i (Y t− j ) = Y t−i− j . Ou ainda L i L j Y t = L i+ j Y t = Y t−i− j ;
4. Potˆencias negativas de L significam um operador de avan¸co, L−i Y t = L j Y t , fazendo j = i. Ent˜ ao L −i Y t = L j Y t = Y t− j = Y t+i ;
− 5. Se |a| < 1 a soma infinita (1 + aL + a2 L2 +
2.3.6
6. Se a > 1 a soma infinita
| |
· ·· )Y t = 1 −Y taL
(1+(aL)−1 +(aL)−2 +
·· · )Y t = − 1 −aLaL Y t
Ru´ıdo Branco
Um importante exemplo de processo estacion´ ario ´e o ru´ıdo branco, o qual ´e definido como uma sequˆencia de vari´aveis aleat´ orias εt ∞ t=−∞ com as seguintes propriedades:
{ }
Ru´ıdo Branco 1. E(εt ) = 0, para todo t
∈ R; 2. E(ε2t ) = σ 2 para todo t ∈ R; s, com t, s ∈ R. 3. E(εt as ) = 0, para todo t = Denotaremos um processo ru´ıdo branco por RB( 0, σ 2 ). Muitos processos podem ser constru´ıdos a partir do ru´ıdo branco. Pode-se verificar facilmente que se εt ´e um RB(0, σε2 ), ent˜ ao ´e estritamente estacion´ aria, pois
{ }
≤
P εt1
x1 , εt2
≤ x2, · · · , εt ≤ xn = = P εt ≤ x1 P εt ≤ x2 × · · · × P εt ≤ xn = P εt −k ≤ x1 P εt −k ≤ x2 · ·· P εt −k ≤ xn = P εt −k ≤ x1 , εt −k ≤ x − 2, · · · , εt −k ≤ xn , n
1
2
1 1
n
2
2
n
n
onde a primeira igualdade ´e devido a independˆencia das vari´ aveis e a segunda por serem identicamente distribu´ıdas. Temos tamb´em que µt = E(εt ) ´e constante com FACV dada por
´ CAP ´ITULO 2. S ERIES TEMPORAIS
42
γ (k) =
σε2 , 0,
se k = 0; se k = 0.
ρ(k) =
1, 0,
se k = 0; se k = 0.
O termo ru´ıdo branco resulta do fato que em uma an´ alise de frequˆ encia do modelo, podemos mostrar que todas as frequˆ encias s˜ ao iguais. As caracte´ıristicas de um processo ru´ıdo branco ficam expl´ıcitas quando analisamos o seguinte gr´ afico
Figura 2.1: Ru´ıdo branco gaussiano simulado,FAC amostral e FACP amostral
Exemplo 2.1. ( M´edia-M´ o vel de ordem 1) Esse ´e um exemplo de um processo estacion´ ario. Suponha que
Processo MA(1) Y t = ε t
em que εt ´e um RB (0, σε2 ).
− 0.5εt−1,
43
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
M´edia do MA(1)
Variˆ ancia do MA(1)
Var (Y t ) = Var (εt
µt = E(Y t ) = E(εt )
− 0.5εt−1)
= σε2 + 0.5σε2 = 1.25σε2 .
− 0.5E(εt−1) = 0
Tamb´em Cov (Y t , Y t−1 ) = Cov (εt ou γ (t, t
− 1) = −0.5σε2. Al´em disso Cov (Y t, Y t−k) = 0, para k ≥ 2. Concluimos que γ (k) =
2.4
− 0.5εt−1, εt−1 − 0.5εt−2) = −0.5Cov (εt−1, εt−1),
−
0.5σ 2 ,
0,
ε
se k = 1;
| | se |k| > 1.
e ρ(k) =
−
0.4,
0,
se k = 1;
| | se |k| > 1.
Metodologia de Box-Jenkins - Modelagem ARMA
Na an´ alise de s´ eries temporais, a metodologia de Box-Jenkins, em homenagem ao estat´ısticos George Box e Jenkins Gwilym, aplica-se os modelos autorregressivo de m´edia m´ ovel ARMA ou ARIMA para encontrar o melhor a juste dos valores passados de uma s´ erie temporal, para ent˜ ao fazer previs˜oes. O procedimento pode ser resumido em trˆes etapas: 1. Identifica¸ c˜a o e sele¸c˜ao do modelo. Nesta etapa verificamos se as vari´ aveis s˜ao estacion´ arias, identificando poss´ıveis tendˆencias e/ou sazonalidades na s´erie, removendo-as quando detectadas. Fazemos o uso das fun¸co˜es de autocorrela¸c˜ao e autocorrela¸ca˜o parcial para decidir qual modelo da classe ARIMA ´e adequado para uma primeira tentativa de modelagem. 2. Estima¸c˜ao dos parˆ ametros usando algoritmos computacionais para chegar a coeficientes que melhor se adaptam ao modelo ARIMA selecionado. Os m´ etodos mais comuns s˜ ao a m´ axima verossimilhan¸ca e os m´ınimos quadrados n˜ ao-lineares. 3. Verifica¸c˜ao do ajuste do modelo por meio de testes. Nesta fase, verificamos se o modelo estimado est´ a em conformidade com as especifica¸co˜es do modelo te´ orico proposto. De suma importˆ ancia ´e a an´alise residual na qual o objetivo ´e verificar se os res´ıduos
´ CAP ´ITULO 2. S ERIES TEMPORAIS
44
satisfazem a hip´ otese de serem n˜ao-correlacionados. De grande utilidade s˜ ao os teste Ljung-Box. Se o modelo proposto ´e inadequado, temos que voltar para a primeira etapa e tentar encontrar um modelo melhor. Um dos modelos mais simples e bastante u´til ´e o modelo autorregressivo. Consideremos o caso mais simples.
2.4.1
Modelo Autorregressivo de Ordem 1 AR(1)
Processo AR(1) Y t = c + φY t−1 + εt , em que ε t ´e um RB(0, σε2 ). Por simplicidade, assumimos que os momentos incondicionais seja iguais, o que implica que EY t = EY t−1 .
A m´edia do processo AR(1) ´e
Observe que µ = 0, quando c = 0. A variˆancia do AR(1) ´e
µ = EY t = Ec + φEY t−1 + Eεt Assim, µ = c + φµ + 0, o que implica em µ =
2
Var(Y t ) = E(Y t )
c
1
− φ.
−
σ2 µ = . 1 φ2 2
−
Observe que se φ > 1, a variˆ ancia ser´ a negativa, o que ´e um absurdo. Neste caso as equa¸c˜oes n˜ ao s˜ ao compat´ıveis com nenhum processo. Quando φ = 1, a variˆ ancia de Y t ser´a infinita, o que dificulta imensamente a inferˆencia estat´ıstica.
| |
| |
Deste exemplo, ´e poss´ıvel concluir que ´e necess´ario estabelecer algumas restri¸co˜es sobre a s´erie temporal para que se possa estim´ a-la. Em particular, uma condi¸ c˜ao necess´ aria para estimar a s´erie temporal ´e que φ < 1.
| |
Podemos encontrar o mesmo resultado sem a suposi¸c˜ao de que os momentos incondicionais sejam iguais. Para isso usamos o operador defasagem L para reescrever o AR(1) como um a definido a seguir ) MA( ) (processo que ser´
∞
45
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
Y t = c + φY t−1 + εt ; (1
− φL)Y t
= c + εt ;
Y t = em que µ = c/(1
∞
c
1
j
− φ + j=0 φ εt− j = µ + ψ(L)εt ,
− φ) e ψ(L) = (1
− φL)−1 = 1 + φL + φ2L2 + · ·· .
Pode-se ent˜ao calcular ∞
φ j E(εt− j ) = µ.
EY t = µ +
j =0
∞
Var(Y t ) = E(Y t
2
− µ)
=E
∞
2
j
φ εt− j
=
j =0
2 j
φ
E(ε2t− j )
j =0
σ2 = . 1 φ2
−
A fun¸c˜ao de autocovariˆ ancia de lag j ´e:
γ j = E[(Y t
µ)(Y t− j
µ)]
− − ∞
∞
φs εt−s
= E
s=0 j j +2
2
= σ (φ + φ φ j = σ2 , 2 1 φ
s=0 j +4
+φ
φs εt−s− j
+
·· · )
−
Como a m´edia e as covariˆ ancias n˜ ao s˜ ao fun¸c˜oes do tempo o processo ´e fracamente estacion´ ario, independente do valor de φ (com a restri¸c˜ao de que 0 < φ2 < 1). A fun¸c˜ao de autocorrela¸c˜ao de ordem j ´e dada por
ρ j =
φj σ2 1−φ2 σ2 1−φ2
= φ j .
´ CAP ´ITULO 2. S ERIES TEMPORAIS
46
Podemos ver que a fun¸ca˜o de autocorrela¸ca˜o decresce.
2.4.2
Passeio Aleat´ orio (Random Walk)
Quando φ = 1 no caso anterior, temos o processo chamado passeio aleat´ orio. Seja εt t∈N 2 um RB(0, σε ). A s´erie temporal, Z t , ´e constru´ıda da seguinte maneira: Z 1 = ε 1 , Z 2 = ε 1 + ε2 , . . . , Z t = ε1 + ε2 + . . . + εt , ou
{ }
Passeio Aleat´ orio Z t = Z t−1 + εt .
M´edia µt
Variˆancia =
E(Z t )
= =
= E(ε1 + ε2 + · · · + εt )
Var(Z t )
=
Var(ε1 + ε2 + · · · + εt )
E(ε1 ) + E(ε2 ) + · · · + E(εt )
=
Var(ε1 ) + · · · + Var(εt )
0 + 0 + · · · + 0 = 0,
=
σε + σε + · · · + σε = tσ ε .
2
2
2
2
Assim, Var(Z t ) = tσ ε2 .
como E(εt ) = 0, temos: µt = 0, para todo t .
Observe que a variˆancia do processo cresce linearmente com o tempo, sendo assim um processo n˜ao-estacion´ ario. Suponha agora que 1 t s, teremos ent˜ ao,
≤ ≤
γ (t, s) = Cov(Z t , Z s ) = Cov(ε1 + ε2 + = =
· ·· + εt , ε1 + ε2 + . . . + εs) Cov(ε1 , ε1 ) + Cov(ε2 , ε2 ) + · · · + Cov(εt , εt ) σε2 + σε2 + · ·· + σε2 = tσ ε2
em que Cov(εt , εs ) = 0 para t = s temos ent˜ ao que a FACV ´e dada por
FACV do passeio aleat´ orio 2
γ (t, s) = tσ ε , para 1 ≤ t ≤ s
FAC do passeio aleat´ orio ρ(t, s) =
t , para 1 ≤ t ≤ s. s
O passeio aleat´ orio ´e um exemplo simples que representa diversos fenˆ omenos como o movimento comum de pre¸cos e t´ıtulos e tamb´em a posi¸c˜ao de pequenas part´ıculas suspensas
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA dentro de um flu´ıdo, chamado movimento Browniano.
Figura 2.2: Passeio aleat´ orio simulado, FAC amostral e FACP amostral
2.4.3
Modelos Autorregressivos de Ordem p, AR( p)
O processo autorregressivo de ordem p ´e definido como AR( p) Defini¸c˜ao com o operador defasagem Y t = c + φ1 Y t−1 + p
= c+
·· · + φ pyt− p + εt
Φ p (L)Y t = εt ,
φ j yt− j + εt .
j =1
Φ p (L) = 1
Alguns processos simulados:
− φ1L − φ2L2 − . . . − φ pL p.
47
´ CAP ´ITULO 2. S ERIES TEMPORAIS
48
Figura 2.3: AR(1) simulado com coeficiente φ 1 = 0.5, FAC amostral e FACP amostral.
Figura 2.4: AR(1) simulado com coeficiente φ 1 =
−0.5, FAC amostral e FACP amostral.
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
49
Figura 2.5: AR(1) simulado com coeficiente φ 1 = 0.8, FAC amostral e FACP amostral.
Figura 2.6: AR(2) simulado com coeficientes φ1 = 0.5 e φ2 = amostral.
−0.7, FAC amostral e FACP
50
´ CAP ´ITULO 2. S ERIES TEMPORAIS
Figura 2.7: AR(2) simulado com coeficientes φ1 = 0.5, φ2 = e FACP amostral.
−0.7 e φ3 = 0.6, FAC amostral
51
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA 2.4.4
Modelo de M´ edias-M´ oveis (MA(q ))
Considere a s´erie Y t , chamamos de m´edias-m´ oveis de ordem q o modelo: MA(q ) Y t = ε t + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q em que ε t ´e um RB(0, σε2 ). Esta terminologia vem do fato que Y t ´e obtido aplicando-se os pesos 1, θ1 , θ2 , . . . , θq , a`s vari´ aveis εt εt−1 εt−2 . . . εt−q e ent˜ ao movendo os mesmos pesos 1 unidade do tempo a frente e aplicando-lhes a ε t+1 εt εt−1 . . . εt−q+1 para obter Y t+1 .
− −
−
−
−
− − − −
− −
Usando o operador L, podemos reescrever o modelo MA(q ) como MA(q ) Y t = Θq (L)εt ,
(2.10)
em que Θq (L) = 1 + θ1 L + θ2 L2 + . . . + θq Lq .
2.4.5
(2.11)
O modelo MA(1)
Para q = 1, obtemos o modelo: Y t = ε t
− θ1εt−1,
em que ε t ´e um RB(0, σε2 ). Segue que E(Y t ) = 0,
e a variˆancia ´e igual a: γ 0 = Var(Y t ) = Var(εt
− θ1εt−1)
= σε2 + θ12 σε2 = σ ε2 (1 + θ2 ).
(2.12)
´ CAP ´ITULO 2. S ERIES TEMPORAIS
52 temos ainda que a fun¸c˜ao de autocovariˆ ancia ´e: γ 1 = Cov(Y t , Y t−1 ) = Cov(εt = e para k
≥ 2 teremos
− θ1εt−1, εt−1 − θ1εt−2) −θ1Cov(εt−1, εt−1) = −θ1σε2
γ k = Cov(Y t , Y t−k ) = 0,
e a FAC ser´a dada por: ρk =
2.4.6
1
se
k = 0;
−θ 1+θ2
se
k = 1;
0
se
k
≥ 2.
Propriedades do modelo MA(q )
Considere o modelo de ordem q Y t = ε t + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q em que ε t ´e um RB(0, σε2 ). Segue que E(Y t ) = 0
e a variˆancia ´e
γ 0 = Var(Y t ) = Var(εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q ) = (1 + θ12 + . . . + θq2 )σε2 a fun¸c˜ao de autocovariˆ ancia ´e dada por
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
γ 1 = Cov(Y t , Y t−1 ) = Cov(εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q , εt + θ1 εt−1 + θ2 εt−2 + . . . + θq εt−q ) = θ1 σε2 + θ1 θ2 σε2 + = (θ1 + θ1 θ2 +
·· · + θq−1θq σε2
·· · + θq−1θq )σε2, para k = 1;
e γ 2 = (θ2 + θ1 θ3 + . . . + θq−2 θq )σε2 , para k = 2; e para k
≥ q + 1 vamos ter γ k = 0.
Enquanto que a FAC ser´a dada por ρk =
θk + θ1 θk+1 + . . . + θq−k θq , para k = 1, . . . , q . 1 + θ12 + . . . + θq2
Figura 2.8: MA(1) simulado com coeficiente θ 1 = 1, FAC amostral e FACP amostral.
53
´ CAP ´ITULO 2. S ERIES TEMPORAIS
54
Figura 2.9: MA(1) simulado com coeficiente θ1 =
−0.8, FAC amostral e FACP amostral.
Figura 2.10: MA(2) simulado com coeficientes θ1 = amostral.
−0.8 e θ2 = 0.4, FAC amostral e FACP
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
Figura 2.11: MA(2) simulado com coeficientes θ1 = e FACP amostral. 2.4.7
55
−0.8, θ2 = 0.4 e θ3 = 1.4, FAC amostral
Modelo ARMA( p,q )
Um modelo mais geral ´e dado pela representa¸ c˜ao AR e MA, chamada ARMA, ARMA( p,q ) Φ p (L)Y t = Θq (L)εt , em que εt ´e um RB(0, σε2 ), L ´e o operador “lag”, Φ p (L) e Θ p (L) s˜ ao polinˆ omios de graus p e q . O polinˆ omio Φ p (L) define a parte autorregressiva (AR) do modelo enquanto o polinˆ omio Θ p (L) define a parte m´edia m´ ovel (MA). Por exemplo, o modelo ARMA(2,3) ´e escrito como
Φ2 (L)Y t = Θ3 (L)εt (1
− φ1L − φ2L2)Y t
= (1 + θ1 L + θ2 L2 + θ3 L3 )εt
Y t = φ1 Y t−1 + φ2 Y t−2 + εt + θ1 εt−1 + θ2 εt−2 + θ3 εt−3 .
56
´ CAP ´ITULO 2. S ERIES TEMPORAIS
Exemplos de modelos ARMA simulados
Figura 2.12: ARMA(1,1) simulado com coeficientes φ1 = 0.5 e θ1 = FACP amostral.
Figura 2.13: ARMA(1,3) simulado com coeficientes φ1 = 0.5, θ1 = FAC amostral e FACP amostral.
−0.8, FAC amostral e
−0.8, θ2 = 0.4 e θ 3 = 1.4,
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA
Figura 2.14: ARMA(3,1) simulado com coeficientes φ1 = 0.5, φ2 = FAC amostral e FACP amostral.
57
−0.7, φ3 = 0.6 e θ1 = −0.8,
´ CAP ´ITULO 2. S ERIES TEMPORAIS
58 2.4.8
Causalidade, Invertibilidade e Estacionariedade
O conceito de causalidade consiste em escrever um processo AR(q ) como um MA( ).
∞
Um processo linear Y t ´e CAUSAL (estritamente, uma fun¸c˜ao causal de εt ) se existe
{ }
{ }
Ψ(L) = ψ 0 + ψ1 L + ψ2 L2 + com
∞
j =0
|ψ j | < ∞ e
···
Y t = Ψ(L)εt .
O modelo AR(1): Y t = φY t−1 + εt , pode ser escrito como Y t = ε t + φεt−1 + φ2 εt−2 +
· · · + φk−1εt−(k−1) + φk yt−k,
em que para k grande tem-se
Y t = εt + φεt−1 + φ2 εt−2 + . . . = ψ0 εt + ψ1 εt−1 + ψ2 εt−2 + . . . , em que φ < 1 e ψ j = φ j . O que acontece com a variˆ ancia de Y t ? Assim, essa representa¸ca˜o ∞ somente faz sentido se j=0 ψ j < , o que ocorre se, e somente se, φ < 1.
| |
2.4.9
∞
| |
Invertibilidade
Mostramos que um processo AR pode ser reescrito como um processo MA de ordem infinita atrav´es de pesos ψ j ’s. Al´em disso po demos escrever um processo MA como um autorregressivo.
59
2.4. METODOLOGIA DE BOX-JENKINS - MODELAGEM ARMA Um processo linear Y t ´e INVERT´IVEL (estritamennte, uma fun¸ca˜o invert´ıvel de εt ) se existe Φ(L) = φ 0 + φ1 L + φ2 L2 + ,
{ }
com
{ }
· ··
∞
j =0
|φ j | < ∞ e
εt = Φ(L)Y t .
Considere o modelo MA(1) Y t = ε t
− θεt−1,
em que ε t ´e um RB(0, σ2 ). Reescrevendo a equa¸c˜ao acima como εt = Y t + θεt−1 e substituindo t por t
− 1 e εt−1 na equa¸ca˜o modificada, temos: εt = Y t + θ(Y t−1 + θεt−2 ) = Y t + θY t−1 + θ2 Y t−2
Se θ < 1, podemos continuar a substitui¸c˜ao e obter:
| |
εt = Y t + θY t−1 + θ2 Y t−2 + . . . , ou seja, Y t =
−θY t−1 − θ2Y t−2 − . . . + εt.
Assim, da mesma forma como foi feito para o AR(1), mostramos acima que se θ < 1, o MA(1) pode ser invertido (transformado) para um AR( ). Neste caso dizemos que o modelo MA(1) ´e invert´ıvel.
∞
2.4.10
| |
Polinˆ omio Caracter´ıstico
Nos exemplos mostrados acima tratamos da causalidade e invertibilidade dos casos AR(1) e MA(1) em particular. Para os casos mais gerais AR( p) e MA(q ) utilizamos os chamados polinˆ omios caracter´ısticos para decidir se os processos s˜ao causais e/ou invert´ıveis.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
60
omio caracter´ıstico AR como Para um modelo geral AR( p), definimos o polinˆ Φ(z) = 1
− φ1z + φ2z2 + · ·· + φ pz p.
Teorema Uma (´ unica) solu¸c˜ao estacion´ aria para Φ(L)Y t = εt existe se, e somente, as ra´ızes de Φ(z) n˜ao pertence ao c´ırculo de raio um, ou seja,
|z| = 1 → Φ(z) = 1 − φ1z − · · · − φ pz p = 0. O processo AR( p) ´e causal se, e somente se as ra´ızes de Φ(z) est˜ ao fora do c´ırculo unit´ ario, ou seja,
|z| ≤ 1 → Φ(z) = 1 − φ1z − · · · − φ pz p = 0. omio caracter´ıstico MA como Para um modelo geral MA(q ), definimos o polinˆ Θ(z) = 1 + θ1 z + θ2 z 2 +
· · · + θq z q .
Teorema Um processo MA(q ) ´e invert´ıvel se, e somente se, as ra´ızes de Θ(z) est˜ ao fora do c´ırculo unit´ ario, isto ´e,
|z| ≤ 1 → Θ(z) = 1 + θ1z + θ2z2 + ·· · + θq zq = 0. Um processo ARMA ser´a invert´ıvel e estacion´ ario se a parte AR o for, e ser´ a invert´ıvel se a parte MA o for.
2.4.11
Estacionariedade e causalidade de um processo ARMA
Para um processo ARMA, as condi¸co˜es para causalidade, invertibilidade e estacionariedade s˜ao dadas no seguinte teorema.
Teorema 2.4.1. Se Φ( ) e Θ( ) n˜ ao possuem fatores em comum, existe (´ unica) solu¸cao ˜ esta-
·
·
´ ´ 2.5. EXERC ´ICIOS SOBRE S ERIES TEMPORAIS ESTACION ARIAS
61
cion´ aria Y t para Φ(L)Y t = Θ(L)εt se, e somente se,
{ }
|z| = 1 → Φ(z) = 1 − φ1z − · · · − φ pz p = 0. Esse processo ARMA( p, q ) ´e causal se, e somente se,
|z| ≤ 1 → Φ(z) = 1 − φ1z − · · · − φ pz p = 0. Ser´ a invert´ıvel se, e somente se
|z| ≤ 1 → Θ(z) = 1 + θ1z + θ2z2 + ·· · + θq zq = 0. 2.5
Exerc´ıcios sobre s´ eries temporais estacion´arias
Exerc´ıcio 2.1. Defina processo estoc´ astico e ilustre graficamente. Explique o que ´e a realiza¸cao ˜ de um processo estoc´ astico e por que s´eries econˆ omicas podem ser entendidas como geradas por um processo estoc´ asticos. Exerc´ıcio 2.2. Seja yt T erie temporal. Quais caracter´ısticas essa s´erie deve apret=1 uma s´ sentar para ser considerada uma s´erie de covariˆ ancia estacion´ aria?
{ }
Exerc´ıcio 2.3. Fa¸ca os seguintes items: (a) Defina o que ´e um processo ru´ıdo branco. (b) Defina o que ´e um processo independente e identicamente distribu´ıdo (i.i.d.). (c) Defina ru´ıdo branco Gaussiano. (d) Qual a rela¸cao ˜ entre ru´ıdo branco, ru´ıdo branco Gaussiano e processo i.i.d.? (e) Esses processos s˜ ao estacion´ arios?
Exerc´ıcio 2.4. Considere um processo MA(1): yt = e t + α1 et−1 ; onde et
edia e variˆ ancia de yt . (a) Calcule a m´ (b) Calcule as autocovariˆ ancias de lags 1 e 2 para a s´erie yt .
∼ RB(0, σe2).
´ CAP ´ITULO 2. S ERIES TEMPORAIS
62
(c) Esse processo ´e estacion´ ario? (Justifique sua resposta usando os valores encontrados nos itens anteriores juntamente com o conceito de estacionariedade definido na Quest˜ ao 1). (d) Comente a afirmativa: “Todo processo MA( q ), onde q <
∞, ´e estacion´ ario”.
(e) Suponha que α1 = 0.5. O processo ´e invert´ıvel? (f ) Calcule a autocorrela¸cao ˜ de ordem 1 para o processo do item anterior e fa¸ ca o gr´ afico da FAC com 5 lags.
∼ RB(0, σe2).
Exerc´ıcio 2.5. Considere um processo MA(2): yt = et +α1 et−1 +α2 et−2 ; onde et (a) Calcule a m´ edia e variˆ ancia de yt .
ancias de lags 1, 2 e 3 para a s´erie yt . (b) Calcule as autocovariˆ ario? (Justifique sua resposta usando os valores encontrados nos (c) Esse processo ´e estacion´ itens anteriores juntamente com o conceito de estacionariedade definido na Quest˜ ao 1). (d) Suponha que α1 = 0.65 e que α2 =
−0.20. O processo ´e invert´ıvel?
(e) Calcule a autocorrela¸cao ˜ de ordem 1 e 2 para o processo do item anterior e fa¸ca o gr´ afico da FAC com 5 lags.
Exerc´ıcio 2.6. Considere os seguintes processos 1 yt = et + θet−1 e yt = e t + et−1 , θ
∼ iid(0, σe2) e θ = 0.
onde et
(a) Os processos acima possuem as mesmas autocorrela¸ coes? ˜ Verifique. (b) Os processos acima s˜ ao invert´ıveis? Verifique.
Exerc´ıcio 2.7. Considere um processo AR(1): yt = 5 + 0.9yt−1 + et , onde et
∼ RB(0, σe2).
(a) Esse processo ´e estacion´ ario? Verifique. (b) Calcule as autocorrela¸ c˜ oes de ordem 1, 2 e 3 para esse processo. Fa¸ ca um esbo¸co do gr´ afico da FAC para esse processo com 5 lags.
´ ´ 2.5. EXERC ´ICIOS SOBRE S ERIES TEMPORAIS ESTACION ARIAS
63
(c) O que significa o coeficiente de yt−1 num processo AR(1)? (d) Fa¸ca um gr´ afico da FACP desse processo com 5 lags.
aficos da FAC e da FACP em processos Exerc´ıcio 2.8. (a) Explique como se comportam os gr´ AR( p) e em processos MA( q ). aficos da FAC e FACP para os seguintes processos: AR(1), AR(3), MA(2) (b) Esboce os gr´ e MA(3).
Exerc´ıcio 2.9. (a) Supondo que E (yt ) = µ e que yt = c 0 + β 1 yt−1 + et + α1 et−1 , calcule o valor de c0 em termos de µ e β 1 . (b) Explique como se comportam os gr´ aficos da FAC e da FACP em processos ARMA( p, q ).
aficos da FAC e FACP para um processos ARMA(1,1). (c) Esboce os gr´ Exerc´ıcio 2.10. Explique os passos que devem ser seguidos para a modelagem de uma s´erie temporal na metodologia ARMA.
Exerc´ıcio 2.11. (2014-5) Suponha que Y t seja representado pelo seguinte processo autoregressivo de primeira ordem: Y t = 10 + 0, 6Y t−1 + et ,
em que et ´e um ru´ıdo branco que satisfaz as condi¸ c˜ oes: E(et ) = 0, E(e2t ) = σ2 , E(et es ) = 0 para t = s . Suponha tamb´em que Y 0 = 0. Obtenha E(Y t ) para t = 2.
Exerc´ıcio 2.12. (2014-10) Considere o seguinte processo: Y t = ρY t−1 + et , t = 1, 2,
· ·· ,
em que Y 0 = 0 e et ´e um ru´ıdo branco que satisfaz as condi¸ c˜ oes: E(et ) = 0, E(e2t ) = σ 2 , ao corretas as afirmativas: E(et es ) = 0 para t = s . S˜
O) Se ρ = 1, E(Y t ) = 0 para todo t; 1) Se ρ = 1, Var (Y t ) = t para todo t; 2) Se ρ = 1, E(Y t+h /Y t ) > Y t para todo h
≥ 1;
´ CAP ´ITULO 2. S ERIES TEMPORAIS
64
3) Se ρ < 1 , Var (Y t ) = 1;
| | 4) Se |ρ| < 1 , E(Y t+h /Y t ) = ρ h Y t para todo h ≥ 1. Exerc´ıcio 2.13. (2013-13) Considere o seguinte processo xt = µ + e t + α 1 et−1 , para t = 1, 2, , no qual et ´e uma sequˆencia i.i.d com m´edia 0 e variˆ ancia σe2 . Julgue as seguintes afirmativas:
· ··
O) Var [xt ] = (1 + α21 )σe2 . 1) Cov (xt , xt+h ) = 0, h > 1 . 2) E[xt ] = µ + t. 3) O processo descrito acima ´e estacion´ ario em covariˆ ancia. 4) A fun¸cao ˜ de autocorrela¸cao ˜ deste processo ´e: ρ1 =
α1
1+α21
e ρ j = 0 para j > 1 .
Exerc´ıcio 2.14. (2012-08) Suponha que Y t seja descrito por um processo auto-regressivo de ordem 3, isto ´e, Y t = Y t−1 0, 50Y t−3 + εt
−
e que εt Y t− j
|
∼ N (0, σ2), ∀ j > 0.
Calcule a correla¸cao ˜ entre Y t e Y t−2 . Multiplique o resultado por 100.
Exerc´ıcio 2.15. (2011-11) Julgue as seguintes afirmativas:
O) O processo AR(2), yt = ρ1 yt−1 + ρ2 yt−2 + εt , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se e somente se as ra´ızes do polinˆ omio x2 ρ1 x + ρ2 est˜ ao fora do c´ırculo unit´ ario.
−
1) No processo MA(2), yt = ε t + θ1 εt−1 + θ2 εt−2 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , a covariˆ ancia entre yt e yt−3 ´e igual a zero. 2) No passeio aleat´ orio com drift, yt = c + yt−1 + εt , y0 = 0, em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ2 , a m´edia de yt varia com t. 3) No processo MA(1), yt = εt + θ 1 εt−1 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ2 , a correla¸cao ˜ entre yt e yt 1 ´e menor ou igual a 0,5 em valor absoluto.
−
´ ´ 2.5. EXERC ´ICIOS SOBRE S ERIES TEMPORAIS ESTACION ARIAS
65
4) O processo ARMA(1,1), yt = ρy t−1 + εt + θεt−1 , em que εt ´e um ru´ıdo branco com m´edia zero e variˆ ancia σ 2 , ´e estacion´ ario de segunda ordem se e somente se ρ < 1 e θ < 1 .
| |
| |
Exerc´ıcio 2.16. (2009-15)
´ correto afirmar que: E O) No processo AR(1), y t = φ 0 + φ1 yt−1 + et , em que φ 1 < 1 e e t ´e um ru´ıdo branco de m´edia nula e variˆ ancia σ 2 , a m´edia de yt ser´ a igual a φ0 . 1) O processo MA(1), y t = e t + θet−1 , em que e t ´e um ru´ıdo branco de m´edia nula e variˆ ancia constante, ser´ a estacion´ ario mesmo que θ > 1 . ´ 2) Seja a fun¸cao ˜ de autocorrela¸cao ˜ do processo AR(1) definido no item (0) dada por ρ j . E correto afirmar que ρ j = φ j1 . 3) O processo AR(2), yt = φ 0 + φ1 yt−1 + φ2 yt−2 + et , em que et ´e um ru´ıdo branco de m´edia nula e variˆ ancia σ 2 , ser´ a estacion´ ario de segunda ordem se, e somente se, φ1 < 1 e φ2 < 1 . 4) No modelo ARMA(1,1), yt = φ 0 + φ1 yt−1 + et + θe t−1 , em que et ´e um ru´ıdo branco de 2 θ2 ) m´edia nula e variˆ ancia constante ( σ 2 ), a variˆ ancia de yt ´e dada por σ 1(1+ −φ2
Exerc´ıcio 2.17. Considere uma s´ erie temporal com 200 observa¸ c˜ oes. A figura 1 mostra a evolu¸cao ˜ da s´ erie ao longo do tempo. A tabela 1 fornece as autocorrela¸ c˜ oes, ρ’s, e autocorrela¸coes ˜ parciais, φ’s, estimados a partir dessa s´erie.
Figura 2.15: s´erie temporal simulada
´ CAP ´ITULO 2. S ERIES TEMPORAIS
66
Tabela 1 k
1
0.51 ρk φk,k 0.51
2
3
4
5
6
7
8
9
10
0.13 -0.18
0.01 0.03
0.04 0.06
0.03 -0.03
0.00 -0.00
0.04 0.07
0.02 -0.05
0.08 0.13
0.01 -0.11
(a) Analisando a Figura 1 a s´ erie parece ser estacion´ aria? Explique. (b) Fa¸ca o gr´ afico da FAC e FACP para esse processo.
ao quanto a` significˆ ancia das autocorrela¸ c˜ oes estimadas e (c) Calcule o crit´erio para decis˜ represente esse crit´erio nos gr´ aficos da FAC e FACP. (d) Qual(is) modelo(s) vocˆ e prop˜ oe para ajustar essa s´erie temporal? Justifique.
Exerc´ıcio 2.18. Usando a esperan¸ca condicional, calcule as previs˜ oes 1, 2 e 3 passos a frente (yT (1), yT (2), yT (3)) para os seguintes processos:
(a) AR(1);
(b) AR(2); (c) MA(1); (d) MA(3); (e) ARMA(1,1); (f ) ARMA(2,2).
Exerc´ıcio 2.19. Abaixo (Figura 2) encontram-se os gr´ aficos da FAC e FACP calculados para uma s´erie yt 200 t=1 .
{ }
(a) Analisando a Figura 2 a s´ erie parece ser estacion´ aria? Explique. (b) Usando os gr´ aficos da FAC e FACP, qual(is) modelo(s) vocˆe prop˜ oe para ajustar essa s´erie temporal? Justifique. (Note que o primeiro lag ´e o 1 em ambos os gr´ aficos).
´ ˜ ESTACION ARIAS ´ 2.6. S ERIES TEMPORAIS N AO
67
Figura 2.16: lag’s de ACF e PACF
2.6
S´ eries temporais n˜ao estacion´ arias Nos cap´ıtulos anteriores assumimos que
E(Z t ) = 0;
Var(Z t ) = σ 2 , para todo t, e γ k = Cov(Z t , Z t−k ) n˜ ao depende de t, somente de k,
No entanto muitas s´eries temporais econˆ omicas s˜ ao claramente n˜ ao estacion´ arias no sentido de que a m´edia e a variˆ ancia dependem do tempo, e elas tendem a se afastar permanentemente de qualquer valor `a medida que o tempo passa. Se esse movimento ´e predominantemente em uma dire¸c˜ao (para cima ou para baixo), dizemos que a s´ erie exibe uma tendˆ encia. A tendˆencia das s´eries temporais n˜ ao-estacion´ arias deve ser removida antes que an´alises adicionais sejam feitas. Existem dois procedimentos usados para remover a tendˆ encia: 1. Estima¸c˜ao das regress˜ oes no tempo; 2. Diferencia¸c˜ao sucessiva. Na figura a seguir o exemplo cl´ assico de dados de companhias a´ereas apresentados por Box & Jenkins. Os dados apresentam o total mensal de passageiros internacionais no per´ıodo de 1949 a` 1960.
Observe que a s´erie Z t apresenta n˜ ao estacion´ ariedade causada por uma tendˆ encia determin´ıstica e tamb´ em por uma sazonalidade. A defasagem, no caso Z t−4 , apresenta a mesma
´ CAP ´ITULO 2. S ERIES TEMPORAIS
68
0 0 6 Série de passageiros
0 0 5
Série defasada − X(t−4) Série diferenciada
0 0 4 s e õ h 0 l i 0 m 3 / s o r i e 0 g 0 a 2 s s a P 0 0 1
0
0 0 1 −
1950
1952
1954
1956
1958
1960
anos
Figura 2.17: Passageiros do tansporte aereo americano de 1949-1960 tendˆ encia da s´ erie original. Esta tendˆ encia determin´ıtica pode ser eliminada por uma diferen¸ca, o que fica evidenciado no gr´ afico, no entanto essa n˜ ao ´e a forma recomendada. Recomenda-se eliminar com regressores no tempo. 2.6.1
Como lidar com tentˆ encia determin´ıstica
Quando a tendˆencia ´e determin´ıstic,a recomenda-se incluir uma vari´ avel tempo t no modelo. Podemos dar alguns exemplos de modelos com tendˆencia detemin´ıstica: O modelo Y t = a + bt + εt
(2.13)
em que εt RB(0, σε2 ) ´e um ru´ıdo branco, torna-se um ru´ıdo branco com tendˆencia determin´ıstica. O modelo AR(1) com tendˆenca determin´ıstica pode ser escrito da segunte forma
∼
Y t = a + bt + φY t−1 + εt .
(2.14)
Quando diferenciamos um modelo com tendˆencia determin´ıstica, podemos potencialmente estar acrescentando ru´ıdo a s´erie, isto ´e, aumentamos a sua variˆ ancia. Como exemplo disso
´ ˜ ESTACION ARIAS ´ 2.6. S ERIES TEMPORAIS N AO
69
consideremos o modelo (2.13), cuja variˆancia ´e Var(Y t ) = Var(a + bt + εt ) = Var(εt ) = σ ε2 . J´ a para a diferen¸ca de Y t temos
Var(∆Y t ) = Var(a + bt + εt
− a − b(t − 1) − εt−1)
= Var(εt ) + Var(εt−1 ) = 2σε2 .
Assim, a variˆ ancia da diferen¸ca ´e duas vezes a variˆancia da s´erie e isso se refletir´a na previs˜ao. Logo, quando uma s´erie possui tendˆencia determin´ıstica ´e mais eficiente utilizar uma vari´ avel tempo. Vejamos o seguinte exemplo:
Figura 2.18: Popula¸ca˜o dos EUA (em milh˜oes) 1948-1995
Ajustando o modelo Y t = a + bt + εt via m´ınimos quadrados, temos Modelo 1: MQO, usando as observa¸ coes ˜ 1948–1995 ( T = 48) Vari´ avel dependente: pop
const time
Coeficiente
Erro Padr˜ ao
147,858 2,41152
0,529293 0,0188056
raz˜ ao t p-valor 279,3504 128,2342
0,0000 0 ,0000
´ CAP ´ITULO 2. S ERIES TEMPORAIS
70 M´ e dia var. dependente Soma res´ıd. quadrados R2 F (1, 46)
Log da verossimilhan¸ca Cri t´ erio de Sch warz ρˆ
206,9404 149,8604 0,997210 16444,00 −95,43313 198, 6087 0,93 8893
D.P. var. dependente E.P. da regress˜ ao 2 R ajustado P-valor( F ) Crit´ e rio de Akaike Ha nna n–Q ui nn Durbin– Wa tso n
33,80851 1,804947 0,997150 2,07e–60 194,8663 196, 2805 0,03 5818
Figura 2.19: Ajuste x efetivo para popula¸ca˜o dos EUA entre 1948-1995 O res´ıduo ´e obtido da seguinte forma
− Y ˆt Y t − a ˆ − ˆbt Y t − 147, 858 − 2, 41152t,
εˆt = Y t = =
e n˜ ao mais apresenta tendˆencia determin´ıstica, como pode ser observado na figura Em alguns casos ´e necess´ ario incluir potˆencias da vari´ avel tempo. Cada potˆencia da vari´ avel tempo ´e uma nova vari´ avel. Para o exemplo anterior, ter´ıamos ano
pop(milh˜ oes)
t
t2
t3
1948 1949 1950 1951 1952 1953 .. .
146,631 149,188 152,271 154,878 157,553 160,184 ...
1 2 3 4 5 6 ...
1 4 9 16 25 36 ...
1 8 27 64 125 216 ...
´ ˜ ESTACION ARIAS ´ 2.6. S ERIES TEMPORAIS N AO
71
Figura 2.20: Popula¸c˜ao dos EUA entre 1948-1995 eliminando-se a tendˆencia
No caso em que Y t ´e uma fun¸c˜ao do tempo, constituindo uma s´erie com tendˆencia determin´ıstica, o procedimento ´e semelhante ao exemplo apresentado. Devemos estimar Y t contra o tempo e armazenar os res´ıduos. Estes res´ıduos constituem uma nova s´erie que dever´ a ser modelada separadamente. Resumidamente, 1. Estime por m´ınimos quadrados ordin´ arios o modelo: Y t = α0 + α1 t + α2 t2 +
· · · + αntn + εt.
Comece com n = 1. Enquanto os testes t, F n˜ao rejeitam a significˆ ancia dos α s, deve-se tentar colocar uma potˆencia maior (n + 1). 2. Estima o modelo ARMA( p, q ) para os res´ıduos estimados, conforme o cap´ıtulo anterior. Como vimos, neste caso n˜ ao ´e necess´ario diferenciar a s´erie. Uma v´ariavel “tempo” resolve o problema. No entanto, em algumas situa¸c˜oes existe tendˆencia, mas est´ a n˜ ao ´e previs´ıvel, o que chamamos de tendˆencia estoc´ astica.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
72 2.6.2
Testes de ra´ız unit´ aria - Identificando tendˆ encia estoc´ astica
Uma s´erie com uma tendˆencia estoc´ astica se diferencia de outra com uma tendˆ encia determin´ıstica, pois as mudan¸ c as na mesma deixam de ter um car´ater transit´ orio e passam a apresentar um car´ater permanente [(Pereira, 1988) e (Gujarati, 2000)]. “A presen¸c a de uma tendˆencia estoc´ astica implica que flutua¸coes ˜ em uma s´erie temporal s˜ ao o resultado de choques n˜ ao somente no componente transit´ orio ou c´ıclico, mas tamb´em no componente de tendˆencia.” [Balke (1991) apud Gujarati (2000, p. 730)] Os testes de ra´ız unit´aria s˜ ao u ´teis para identficar tendˆencia estoc´ astica numa s´erie temporal. Caso a s´ erie apresente uma ra´ız unit´ aria, a s´erie ser´a n˜ ao-estacion´ aria e isso afeta diretamente a abordagem/modelagem. Um dos testes mais conhecidos na literatura de s´eries temporais ´e o teste de Dickey Fuller. 2.6.3
Teste de Dickey Fuller (DF)
Considere o modelo autorregessivo de ordem 1, AR(1) Y t = a 0 + ρY t−1 + εt
(2.15)
em que Y t ´e a vari´avel de interesse, t ´e o ´ındice temporal, ρ ´e coeficente e ε t ´e o termo de erro. Uma ra´ız unit´ aria est´ a presente se ρ = 1. O modelo ser´ a n˜ ao estacion´ ario. Nota-se que, quando ρ = 1 Y t = a 0 + Y t−1 + εt pode ser reescrito como t
Y t = Y 0 +
εi + a0 t
i=1
com uma tendˆencia determin´ıstica vindo de a0 t e um intercepto estoc´ astico vindo de Y 0 +
t i=1 εi ,
resultando no que ´e conhecido como tendˆencia estoc´ astica. O modelo de regress˜ ao (2.6.3) pode ser escrito como O teste de Dickey Fuller consiste em fazer um “teste t” (mas com distribui¸ca˜o de DickeyFuller) para a significˆ ancia do seguinte modelo
´ ˜ ESTACION ARIAS ´ 2.6. S ERIES TEMPORAIS N AO
73
Teste de Dickey Fuller
∆Y t = (ρ
− 1)Y t−1 + εt = δY t−1 + εt ,
H 0 : δ = 0 (N˜ao estacion´ ario) H 1 : δ < 0 (Estacion´ ario)
em que δ ´e a operador diferen¸ca. Testar a presen¸ca de ra´ız unit´aria neste modelo (ρ = 1) ´e equivalente a atestar se δ = 0 em que δ = ρ 1. Como o teste ´e feito sobre os res´ıduos, n˜ao ´e poss´ıvel usar o teste t de significˆ ancia devido a` potencial n˜ ao-normalidade dos res´ıduos.
−
Para isso existe uma estat´ıstica de teste espec´ıfica, τ cujos valores cr´ıticos est˜ ao dispostos na tabela de Dickey Fuller. Existem trˆes vers˜oes principais do teste:
• Teste para ra´ız unit´aria:
∆Y t = δY t−1 + εt
→ τ ;
• Teste para ra´ız unit´aria com drift: ∆Y t = µ + δY t−1 + εt
→ τ µ;
• Teste de ra´ız unit´aria com drift e tendˆecia temporal determin´ıstica: ∆Y t = µ + at + δY t−1 + εt
→ τ τ
o teste de Dickey Fuller ´e um teste unilateral a esquerda(veja figura) A estat´ıstica τˆ para cada um dos modelos pode ser obtida da seguinte forma:
τˆ =
ˆ δ ˆ) s(δ
(2.16)
ˆ) ´e o desvio padr˜ao de em que s(δ ˆ = δ
n t=1 Y t−1 Y t n 2 t=1 Y t−1
− 1,
´ CAP ´ITULO 2. S ERIES TEMPORAIS
74
Figura 2.21: Distribui¸c˜ao da estat´ıstica τ e a regi˜ao cr´ıtica do teste de Dickey Fuller
que ´e a estimativa (via m´ınimos quadrados) de ρ menos 1, para garantir que sob H 0 tenhamos δ = 0. O desvio padr˜ao pode ser obtido a partir do c´ alculo da variˆ ancia amostral 1 S = T 2
n
(∆
t=1
ˆ t−1 ). − δY
Cada vers˜ ao do teste (τ , τ µ e τ τ ) tem sua pr´opria estat´ıstica de teste e portanto tem seu pr´ oprio valor cr´ıtico o qual depende do tamanho amostral. Esses valores foram obtidos a partir e simula¸c˜oes de Monte Carlo.
aria , δ = 0. Para estes testes ´e Em cada caso, a hip´ otese nula de que existe ra´ız unit´ conhecido que eles tem baixo poder no sentido de que frequentemente n˜ao conseguem distinguir entre processos com ra´ız unit´aria (δ = 0) de processos com ra´ız quase-unit´ aria (δ pr´ oximo de zero). A tabela a seguir apresenta alguns valores cr´ıticos para o teste de Dickey Fuller
´ ˜ ESTACION ARIAS ´ 2.6. S ERIES TEMPORAIS N AO Estat´ıstica
τ
τ µ
τ τ
2.6.4
75
n
1%
2.5%
5%
10%
25 50 100 250 500 ¿500
-2.66 -2.62 -2.60 -2.58 -2.58 -2.58
-2.26 -2.25 -2.24 -2.23 -2.23 -2.23
-1.95 -1.95 -1.95 -1.95 -1.95 -1.95
-1.60 -1.61 -1.61 -1.61 -1.61 -1.61
25 50
-3.75 -3.58
-3.33 -3.22
-3.00 -2.93
-2.62 -2.60
100 250 500 ¿500
-3.51 -3.46 -3.44 -3.43
-3.17 -3.14 -3.13 -3.12
-2.89 -2.88 -2.87 -2.86
-2.58 -2.57 -2.57 -2.57
25 50 100 250 500
-4.38 -4.15 -4.04 -3.99 -3.98
-3.95 -3.80 -3.73 -3.69 -3.68
-3.60 -3.50 -3.45 -3.43 -3.42
-3.24 -3.18 -3.15 -3.13 -3.13
Dickey-Fuller Aumentado
Existe uma exten¸c˜ao do teste de Dickey-Fuller (DF) chamado de Teste de Dickey-Fuller aumentado (ADF) o qual remove todos os efeitos estuturais (autocorrela¸ c˜oes) da s´erie temporal e ent˜ ao testa usando o mesmo procedimento. Existem outro testes bem reconhecidos, que surgiram para resolver o problema de baixo poder do teste de Dickey Fuller. Estes testes devem ser tamb´em utilizados em caso de d´ uvida na hora da modelagem. S˜ ao os testes de Phillips-Perron, KPSS, ERS, NG e Perron avel > testes de ra´ız unit´ aria . entre outros. Alguns est˜ ao dispon´ıveis no Gretl, na op¸ca˜o vari´
−
2.6.5
Eliminando tendˆ encia estoc´ astica - Diferen¸ cas sucessivas
O m´etodo de diferencia¸c˜ao sucessivas ´e utilizado para eliminar tendˆencia estoc´ astica. Considere o Operador Diferen¸ca ∆=1
−B
em que B ´e o operador de defasagem (retardo).
´ CAP ´ITUL ITULO O 2. S ERIES TEMPORAIS
76
O resultado de aplicar o operador diferen¸ca ca a uma um a s´erie er ie Z Z t com T com T observa¸c˜ coes o˜es ´e obter obt er uma nova s´erie er ie com T 1 observa¸c˜ coes. o˜es. Assim,
− −
∆2 Z t = (1
∆Z t = (1
− B)Z t Z t − BZ t Z t − Z t−1 .
= =
= =
− B)2Z t Z t − 2BZ t + B 2 Z t Z t − 2Z t−1 + Z t−2 .
Na figura a seguir temos uma aplica¸c˜ cao ˜ao do operador diferen¸ca. ca. Passeio Aleatório
Passeio Aleatório 0 1
Passeio Aleatório diferenciado
5
0
5 −
0 1 −
0
20
40
60
80
100
tempo
Figura 2.22: Passeio Aleat´ orio orio e sua diferen¸ca ca
Obs: No Gretl tem uma op¸c˜ cao ˜ para acrescentar uma vari´ avel diferen¸ca. ca.
77
2.7. MODELA MODELAGEM GEM ARIMA
2.7 2.7
Model Modelag agem em ARIM ARIMA A
Quando uma s´eries eries temporal temp oral apresenta tendˆencia encia estoc´ esto c´ atica atica (n˜ ao ao estacion´ aria) aria) diz-se que ´ necess´ario est´a ´e integrada (I (I ( )) )).. E ario retirar retira r a tendˆencia encia para ent˜ ao ao analis ana lisar ar o ru´ ru´ıdo. ıdo . Esse ru´ıdo ıdo n˜ ao ao necess´ ariamente ariamente ´e um ru´ ru´ıdo branco. Pode ser um modelo mo delo ARMA, por exemplo. Como visto anteriorm anteriormente ente,, a maneira maneira de retirar retirar a tendˆ tendˆencia encia estoc´ astica astic a de uma s´erie erie temporal temp oral ´e diferencindo-´ a. a. Algumas Alguma s vezes, vezes , ´e necess´ n ecess´ario ario diferenciar mais do que uma vez a s´erie erie temporal temp oral at´ at´e torn to rn´ a-la a´-la estacion´ estacion´ aria. aria.
·
Diz que uma s´erie erie sem nenhuma ra´ ra´ız unit´aria ´e I (0). (0). A s´erie er ie ´e dit di ta I (1) (1) se for necess´ario ario diferenci´ a-la a-la uma vez para torn´ a-la a-la estacion´ estacion´ aria. aria. A s´erie er ie ´e dit di ta I (d) se for necess´ario ario diferenci´a-la a-la d vezez para torn´a-la a-la estacion´ estacion´ aria. aria. Na figura 2.23 figura 2.23 s˜ s˜ao ao apresentados a s´erie erie sobre dados de vendas BJsales de Box & Jankins.
0 6 0 5 s a d n e V
0 4 0 3 0 2 0 1 0
0
50
100
4 ) s a d n e V ( f f i d
) ) s a d n e V ( f f i d ( f f i d
2
0
2 −
150
2
0
2 −
4 −
0
50
100
150
0
50
Time
100 Time
Figura 2.23: 2. 23: S´erie erie de vendas, primeira e segunda diferen¸cas cas
Exer Ex erc c´ıcio ıc io 2.20 2. 20.. (2012-07)
Suponha que ∆Y t pode ser representado pelo seguinte processo:
150
´ CAP ´ITUL ITULO O 2. S ERIES TEMPORAIS
78
− 0, 6εt−1, para t = 1 ∆Y t = ∆Y t−1 + εt − 0, 6εt−1 , para t ≥ 2 ∆Y t = ε = ε t
em que ε um a sequˆ sequ ˆencia en cia de vari va ri´ aveis ´ aleat´ orias independentes e identicamente ε t , t = t = 1, 2, ´e uma distribu distrib u´ıdas com m´edia edia igual a 0. Se Y t = 0, quando t = 0, calcule o valor da E[Y 3 ].
···
2.8 2.8
Prev Previs is˜ ˜ ao ao
Um dos objetivos finais na an´ alise alise de s´eries eries temporais temp orais ´e a previs˜ao. ao. Assim, Assim, pode-se usar informa¸c˜ coes o˜es do passado para tomar decis˜ oes oes para o futuro. Existem outros m´etodos etodos de previs˜ao ao para s´eries eries temporais, como o de M´ de M´ edia ed ia M´ oveis oveis S´ımples (MMS), Suavizamento Suavizame nto Exponencial Exponencial (SE), (SE), entre entre outros, outros, mas estes m´ etodos etodos n˜ a o dependem de um ajuste de um ao modelo e n˜ ao ao s˜ ao ao considerados considerados agora. Para Para uma boa previs˜ previs˜ ao ao ´e fundamental que o modelo esteja bem ajustado e por isso deixamos este t´ opico opico para o final. Como ´e feita a previs˜ ao ao na pr´ atica? atica? A id´eia eia da previs˜ao ao ´e utilizar o conhecimento/observa¸c˜ c˜oes oes que se tem at´ e o tempo tempo t, (digamos que temos observa¸c˜ coes ˜oes para uma certa vari´ avel a vel dura duran nte os ulti u ´ ltimo moss 20 anos anos e, assim, assim, t seria o ultimo u ´ ltimo ano observ observado ado e ´ conve, Y t−2 , Y t−1 , Y t as observa obs erva¸¸c˜ c˜oes). oes). E niente definir
···
Previs˜ ao ao para o log da s´erie erie de passageiros das companhias
εt (Y s ) = E (Y s Y t , Y t−1 ,
|
· · · , Y 2, Y 1),
a´ereas ere as ameri am erican canas as
Assim, εt (Y s ) = Y s , se s
≤t
Para um exemplo de previs˜ ao, consideremos o modelo AR(1): ao, Y t+1 = c + φY t + εt . Assim,
˜ 2.8. PREVIS AO
79
εt (Y t+1 ) = c + φY t = Y t+1
− εt+1
εt (Y t+2 ) = c + φεt (Y t+1 ) = c + φ(c + φY t ) .. . h−1
εt (Y t+h ) = c
φi−1 + φh Y t .
i=1
Assim, Previs˜ ao yˆt (h) = ε t (Y t+h ) representa previs˜ao h-passos a frente, dado que observamos at´e o tempo t.
2.8.1
Erro de previs˜ ao
O erro de previs˜ao ´e definido como sendo o valor observado menos o valor previsto. Para um per´ıodo h, εt (h) ´e dado por: Erro de previs˜ao εt (h) = Y t+h
− εt(Y t+h)
os quais s˜ao n˜ ao viesados, isto ´e, E(εt (h)) = 0;
εt (1) = Y t+1 εt (2) =
− εt (Y t+1) = εt+1 Y t+2 − εt (Y t+2 ) = c + ρY t+1 + εt+2 − c − ρεt (Y t+1 )
= ρεt+1 + εt+2 εt (3) = Y t+3
− εt (Y t+3) = c + ρY t+2 + εt+3 − c − ρεt(Y t+2)
= ρ2 εt+1 + ρεt+2 + εt+3 .. . εt (h) = Y t+h
− εt(Y t+h) = ρh−1εt+1 + ρh−2εt+2 · ·· + ρεt+h−1 + εt+h
´ CAP ´ITULO 2. S ERIES TEMPORAIS
80
Tomando-se a esperan¸ca do erro de previs˜ao, podemos observar que estes s˜ ao n˜ ao viesados, E(εt (h)) = 0; A variˆ ancia do erro de previs˜ao ´e dada por:
Var(εt (h)) = Var ρh−1 εt+1 + ρh−2 εt+2 2
= σε
· · · + ρεt+h−1 + εt+h φ2(h−1) + φ2(h−2) + · ·· + φ2 + 1
Note que a variˆ ancia converge para uma constante, quando h variˆ ancia n˜ ao condicional da s´erie Y t .
→ ∞, que ´e
σε2 que 1−ρ2
´e a
Se a distribui¸ca˜o dos res´ıduos εt ´e a Normal, ent˜ ao o intervalo de confiˆ an¸ca para os res´ıduos ´e dado portanto h−1
c
ρ
i−1
h
+ρ y
i=1
± 2σε
2(h−1)
2(h−2)
φ
+φ
+
2
· ·· + φ
+1
1 2
Medidas de desempenho Diferentes modelos produzem previs˜oes distintas, o que torna necess´arios avaliar essas previs˜ o es. Para isso s˜ ao utilizadas algumas medidas de desempenho. As estat´ısticas mais conhecidas s˜ ao: 1. MSE- Mean Square Error (erro quadr´atico m´edio)
MSE t,H =
H 2 h=1 εt (h)
H
Para calcul´ a-los, deve-se deixar algumas observa¸co˜es fora da amostra. Por exemplo, em uma s´erie com n observa¸c˜oes , deixa-se as H u ´ltimas observa¸c˜oes fora da amostra e estima-se o modelo agora com n H observa¸c˜oes restantes.
−
2. MAE- Mean Absolute Error (erro absoluto m´edio) MAE t,H =
H h=1
|εt (h)|
H
3. MAPE- Mean Absolute Percentual Error (erro absoluto percentual m´edio)
H
MAPE t,H =
h=1
εt (h) Hyt+h
˜ 2.8. PREVIS AO
81
Previs˜ ao dinˆ amica e est´ atica Quando faz-se previs˜oes h passos a frente, yˆt (h), usando somente a informa¸c˜ao at´e o tempo t, tem-se a previs˜ao dinˆ amica cuja variˆ ancia acaba sendo maior. Quando, para prever algum passo a frente usa-se as observa¸c˜oes at´e o tempo imediatamente anterior, tem-se a previs˜ ao est´ atica. A previs˜ ao est´ atica s´ o ´e u ´ til para efeito de compara¸ca˜o de modelos. Na pr´ atica, a previs˜ ao dinˆ amica ´e a u´nica que interessa de fato.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
82
2.9
Regress˜ ao Esp´ uria - Cointegra¸c˜ ao
A utiliza¸c˜ao dos modelos de regress˜ ao envolvendo s´eries temporais n˜ ao estacion´ arias pode conduzir ao problema que se convencionou chamar de regress˜ao esp´ uria, isto ´e quando temos um alto R2 sem uma rela¸ca˜o significativa entre as vari´ aveis (Harris, 1995). Assim, na presen¸ca de ra´ız unit´ aria podem-se encontrar rela¸co˜es econom´etricas entre duas vari´ aveis econˆ omicas sem qualquer rela¸c˜a o de causalidade entre uma e outra por puro acaso. Por exemplo, a regress˜ ao de uma vari´avel I(1) com outra I(1) obtida independentemente gera alto R2 e estat´ıstica t significante. No entanto o resultado n˜ ao tem significado econˆ omico. Fizemos a seguinte esperiˆencia. Geramos duas s´eries I(1) independentes entre si e regredimos um contra a outra. O resultado segue. Call: lm(formula = Y X)
∼
Residuals: Min 1Q Median 3Q Max -25.861 -7.875 0.179 6.713 30.970 Coefficients: Estimate Std. Error t value Pr(¿—t—) (Intercept) -6.971267 0.538128 -12.96 ¡2e-16 *** X 0.527969 0.005861 90.08 ¡2e-16 *** — Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1 Residual standard error: 10.69 on 2498 degrees of freedom Multiple R-squared: 0.7646, Adjusted R-squared: 0.7645 F-statistic: 8115 on 1 and 2498 DF, p-value: ¡ 2.2e-16
Como podemos observar, econtramos um R2 = 0.76 alto e estat´ısticas significativas. No entanto, as s´eries s˜ ao independentes. O resultado disso, ´e que quando colocamos no mesmo gr´afico, a s´erie Y e o predito, podemos observar que o predito n˜ao ´e nem de perto razo´ avel. Veja figura 2.24. Isto ocorre devido ao fato de que a presen¸ca de uma tendˆencia, decrescente ou crescente, em ambas as s´eries leva a um alto valor do R2 mas n˜ ao necessariamente, a presen¸ca de uma rela¸c˜ao verdadeira entre s´eries (Gujarati, 2000). Dectada a presen¸c a de raiz unit´aria, ent˜ ao se deve trabalhar com as s´ eries temporais diferenciadas e n˜ao em n´ıvel, ou seja, a tendˆencia precisa ser removida. Assim, quando uma s´erie econˆ omica apresentar uma tendˆencia estoc´ astica tornar-se-´ a estacion´ aria ap´ os a aplica¸ca˜o
˜ ESP URIA ´ 2.9. REGRESS AO - COINTEGRAC ¸ ˜ AO
83
Regressão de Dois Passeios Aleatórios Ajustado em Azul
0 8
0 6
0 4
0 2
0
0
500
1000
1500
2000
2500
tempo
Figura 2.24: S´eries com rela¸c˜ao esp´ uria
de uma ou mais diferen¸cas, pois ter´ a pelo menos uma raiz unit´ aria. No entanto, ao se remover a tendˆ encia, elementos de longo prazo entre as vari´ aveis s˜ao eliminados. A interpreta¸ca˜o econˆ omica da cointegra¸ca˜o ´e que se duas (ou mais) vari´ aveis possuem uma rela¸c˜ao de equil´ıbrio de longo prazo, ent˜ ao mesmo que as s´eries possam conter tendˆencias estoc´asticas (isto ´e, serem n˜ ao estacion´ arias), elas ir˜ ao mover-se juntas no tempo e a diferen¸ca entre elas ser´a est´ avel (isto ´e, estacion´ aria). Em suma, o conceito de cointegra¸ c˜ao indica a existˆencia de um equil´ıbrio de longo prazo, para o qual o sistema econˆ omico converge no tempo (Harris, 1995).
2.9.1
Quando ´ e poss´ıvel regredir duas s´ eries I(d)
Para que a regress˜ao entre duas s´ eries temporais n˜ ao seja esp´ uria, elas devem satisfazer uma das seguintes situa¸c˜oes:
´ CAP ´ITULO 2. S ERIES TEMPORAIS
84 S´eries que cointegram 1. Y t e X t devem ser estacion´arias.
{ } { } 2. {Y t } e { X t } devem ser integradas de mesma ordem e o res´ıduo deve ser estacion´ ario.
Se Y t e X t s˜ao integrados de ordens diferesntes ou se Y t e X t s˜ao integrados de mesma ordem e o res´ıduo ainda ´e integrado, ent˜ ao a regress˜ ao ´e esp´ uria.
{ } { }
{ } { }
Um teste utilizado para detectar cointegra¸c˜ao ´e o teste de Durbin-Watson .
2.10
Exerc´ıcios para s´eries temporais n˜ao estacion´ arias
Exerc´ıcio 2.21. (2013-05) Um pesquisador corretamente postula o seguinte modelo de regress˜ ao: yt = β 1 + β 2 t + ut , t = 1, , T ; (2.17)
·· ·
em que ut ´e uma vari´ avel aleat´ oria independente e identicamente distribu´ıda ao longo do tempo, com m´ edia zero e variˆ ancia finita. Julgue as afirmativas: O) yt ´e um processo estacion´ ario. 1) ∆yt = y t
− yt−1 ´e um processo estacion´ ario de segunda ordem.
2) M´ınimos quadrados ordin´ arios aplicado a` equa¸cao ˜ ( 2.17 ) produz uma estimativa n˜ ao viesada de β 2 . ˆ2 = 3) Seja β
T t=2 (yt
− yt−1)/(T − 1). β ˆ2 ´e um estimador consistente de β 2.
4) Suponha que ut = ρut−1 + εt , ρ < 1 e que εt seja uma vari´ avel aleat´ oria independente e identicamente distribu´ıda ao longo do tempo, com m´edia zero e variˆ ancia finita. O estimador de m´ınimos quadrados ordin´ arios de β 2 na equa¸cao ˜ ( 2.17 ) ´e n˜ ao viesado. Exerc´ıcio 2.22. (2007-07) Sejam Y t e X t duas s´eries temporais. Considere os resultados dos seguintes modelos de regress˜ ao estimados por m´ınimos quadrados ordin´ arios (MQO): ∆Y t = 4, 8788 (1,70)
− 0, 1512Y t−1e ∆X t = 0, 1094 − 0, 1807X t−1 (−1,97)
(1,26)
Considere tamb´em os resultados da regress˜ ao de Y t em X t
(−2,21)
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO
85
Y t = 23, 3924 + 14, 4006X t + et , (1,70)
−1,97
em que et ´e o res´ıduo. Finalmente, considere a seguinte regress˜ ao:
∆et = 0, 0730 (0,06)
− 0, 4157et−1. (−3,43)
Os n´ umeros entre parˆ enteses s˜ ao os valores do teste t de significˆ ancia individual dos parˆ ametros. Dado que o valor cr´ıtico a 5% da estat´ıstica de Dickey-Fuller ´e -2,938, ´e correto afirmar que: 0) Y t e X t s˜ ao s´eries temporais integradas de ordem 1. 1) A regress˜ ao de Y t em X t ´e esp´ uria. 2) A hip´ otese de cointegra¸cao ˜ entre Y t e X t ´e rejeitada pois os res´ıduos da regress˜ ao de Y t em ao n˜ ao-estacion´ arios. X t s˜ 3) Para que duas vari´ aveis sejam cointegradas ´e necess´ ario que ambas tenham a mesma ordem de integra¸cao. ˜ 4) A rejei¸cao ˜ da hip´ otese nula do teste Dickey-Fuller implica que a vari´ avel em quest˜ ao ´e n˜ aoestacion´ aria. ˜ Exerc´ıcio 2.23. (2007-09) Julgue as proposi¸coes: O) A soma de dois processos estoc´ asticos independentes e estacion´ arios de segunda ordem ser´ a estacion´ aria de segunda ordem. 1) A soma de dois processos estoc´ asticos n˜ ao-estacion´ arios ser´ a n˜ ao-estacion´ aria. 2) Seja L o operador defasagem tal que LY t = Y t−1 . Se Y t segue um processo AR(1) estacion´ ario de segunda ordem, ent˜ ao (1 L)2 Y t ´e um processo ARMA(2,2).
−
3) O processo ARMA(2,2) definido na forma (1 L 0, 25L2 )Y t = (1 0, 5L 0, 06L2 )ut ´e n˜ ao estacion´ ario, em que ut ´e o erro aleat´ orio com m´edia nula e variˆ ancia constante.
− −
−
−
4) Todo processo MA ´e estacion´ ario de segunda ordem. Exerc´ıcio 2.24. Para este exerc´ıcio consideremos uma s´erie temporal de taxa de cˆ ambio da It´ alia ( E XRITL). Foram realizados testes de ra´ız unit´ aria para a s´erie EXRITL e para a sua primeira diferen¸ca d EXRITL.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
86 Teste Aumentado de Dickey-Fuller para EXRITL incluindo 5 defasagens de (1-L)EXRITL dimens˜ ao de amostragem 196 hip´ otese nula de raiz unit´ aria: a = 1 teste com constante modelo: (1-L)y = b0 + (a-1)*y(-1) + ... + e coeficiente de 1 ordem para e: -0,002 diferen¸cas defasadas: F(5, 189) = 5,488 [0,0001] valor estimado de (a - 1): -0,00802367 estat´ıstica de teste: τ c (1) = -1,46078 p-valor assint´otico 0,5537 a
com constante e tendˆencia modelo: (1-L)y = b0 + b1*t + (a-1)*y(-1) + ... + e coeficiente de 1 ordem para e: -0,003 diferen¸cas defasadas: F(5, 188) = 5,557 [0,0001] valor estimado de (a - 1): -0,0140724 estat´ıstica de teste: τ ct (1) = -1,4575 p-valor assint´otico 0,8439 a
Teste de Dickey-Fuller para d EXRITL dimens˜ ao de amostragem 200 hip´ otese nula de raiz unit´ aria: a = 1 teste com constante modelo: (1-L)y = b0 + (a-1)*y(-1) + e coeficiente de 1 ordem para e: -0,006 valor estimado de (a - 1): -0,685419 estat´ıstica de teste: τ c (1) = -10,1243 p-valor 2,166e-16 a
com constante e tendˆencia modelo: (1-L)y = b0 + b1*t + (a-1)*y(-1) + e coeficiente de 1 ordem para e: -0,005 valor estimado de (a - 1): -0,690473 estat´ıstica de teste: τ ct (1)= -10,1693 p-valor 1,241e-15 a
a) O que podemos afirmar a respeito da tendˆencia da s´erie EXRIT L? Use os resultados dos testes de hip´ oteses para justificar a sua resposta. b) O que podemos afirmar a respeito da tendˆencia da primeira diferen¸ ca da s´erie EXRITL? Use os resultados dos testes de hip´ oteses para justificar a sua resposta. c) Dos gr´aficos apresentados na figura 2.25 , qual(is) pode(m) representar a s´erie EXRITL? E qual(is) pode(m) representar a primeira diferen¸ ca da s´erie EXRITL? Explique.
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO 5
87
7.8
4
7.6
3 7.4 2 7.2
1 1
S
2
0
S
-1
7
6.8
-2 6.6 -3 6.4
-4
-5
6.2 1974
1976
1978
1980
1982
1984
1986
1988
1990
1974
1976
1978
(a)
1980
1982
1984
1986
1988
1990
(b) 150
100
50
3
S
0
-50
-100
-150 1974
1976
1978
1980
1982
1984
1986
1988
1990
(c)
Figura 2.25: S´eries Temporais S1,S2 e S3
d) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder a` FAC e FACP de um ru´ıdo branco? Justifique. ACF para X1
ACF para X 2
0,2 0,15 0,1 0,05 0 -0,05 -0,1 -0,15 -0,2
+- 1,96/T0,5
0
5
10
15
20
0 -0,5 0
5
PACF para X1
10
(a)
15
20
-1
0
5
15
15
20
PACF para X 3 1
0
0,3 0,2 0,1 0 -0,1 -0,2 -0,3 20
10 defasagem
PACF para X 2 0
+- 1,96/T ,5
defasagem
10 defasagem
0,2 0,15 0,1 0,05 0 -0,05 -0,1 -0,15 -0,2 5
+- 1,96/T 0,5
0,5
defasagem
0
ACF para X 3 1
+- 1,96/T0,5
0,3 0,2 0,1 0 -0,1 -0,2 -0,3
+- 1,96/T ,5
0
+- 1,96/T ,5
0,5 0 -0,5 0
5
10 defasagem
(b)
15
20
-1
0
5
10
15
20
defasagem
(c)
Figura 2.26: FAC e FACP para trˆes s´eries temporais distintas X 1 , X 2 e X 3 .
e) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder a` FAC e FACP de um ru´ıdo branco? Justifique. f) Na figura 2.26 qual(is) dos gr´ aficos de FAC e FACP pode(m) corresponder a` FAC e FACP da S´erie EXRITL? Justifique. g) Dos seguintes modelos: AR(1), MA(1), ARMA(1,1), ARIMA(1,1,1), ARIMA(3,1,2) e ARIMA(1,2,1), qual(is) poderiam ajustar corretamente a s´erie temporal EXRITL? Justifique.
´ CAP ´ITULO 2. S ERIES TEMPORAIS
88
h) Foram ajustados 3 modelos para a s´erie EXRITL: ARMA(1,1) (AIC =417,1), ARIMA(2,1,3)(AIC =422,12) e ARIMA(1,1,2) (AIC =417,5). A FAC e FACP dos res´ıduos dos ajustes s˜ ao apresentados na figura 2.27 . Qual ´e o melhor modelo? Justifique. ACF para d Y11
ACF para Z2 0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2
0
+- 1.96/T .5
0.4 0.2 0 -0.2 -0.4 0
5
10
15
20
0
5
defasagem
20
+- 1.96/T .5
0
5
10
0.2 0 -0.2 -0.4 15
20
0
5
(a)
10 defasagem
20
PACF para Z3 +- 1.96/T0.5
defasagem
15 defasagem
PACF para Z2
0.4
10
15
0.2 0.15 0.1 0.05 0 -0.05 -0.1 -0.15 -0.2
+- 1.96/T0.5
5
10
0
0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
defasagem
PACF para dY11
0
ACF para Z 3 0
+- 1.96/T .5
15
+- 1.96/T0.5
0.4 0.3 0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
20
0
5
10
15
20
defasagem
(b)
(c)
Figura 2.27: FAC e FACP dos res´ıduos do ajuste de trˆes modelos a s´erie EXRIT L.
i) Fa¸ca a correspondˆencia da tabela 1 com a figura 2.27 explicando o seu racioc´ınio. Tabela 2.1: Teste LJUNG-BOX Def 1 2 3 4 5 6 7 8 9 10
ACF -0.483 -0.079 0.089 -0.029 0 .044 -0.095 0.072 -0.002 -0.108 0.167
***
**
Teste 1 PACF -0.483 *** -0.408 *** -0.254 *** -0.216 *** -0.098 -0.189 *** -0.121 * -0.100 -0.249 *** -0.090
Q-stat 47.49 48.77 50.40 50.58 50.98 52.87 53.99 53.99 56.49 62.44
[p-valor] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00]
ACF -0.406 0.044 0.016 0.030 0.008 -0.020 0.027 0.045 -0.096 0.122
***
*
Teste 2 PACF -0.406 *** -0.145 ** -0.026 0.042 0.052 0.008 0.023 0.075 -0.056 0.073
Q-stat 31.42 31.79 31.85 32.03 32.04 32.12 32.27 32.68 34.52 37.54
[p-valor] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00] [0.00]
ACF -0.031 -0.121 0.089 0.038 0.066 0.034 0.053 -0.031 0.043 0.048
*
Teste 3 PACF -0.031 -0.122 * 0.082 0.029 0.091 0.040 0.070 -0.035 0.045 0.023
j) Escreva a equa¸ cao ˜ do modelo para a seguinte sa´ıda do gretl: Modelo 2: ARIMA, usando as observa¸ coes ˜ 1973:04–1989:10 ( T = 199) Vari´ avel dependente: (1 − L)S 3 Erros padr˜ ao baseados na Hessiana Coeficiente const φ1 θ1
−0.00586445 −0.350312 −1. 0000 0
M´ edia var. dependen te M´ edia de inova¸coes ˜ Log da verossimilhan¸ca Cri t´ erio de Sch warz
Erro Padr˜ ao 0.0315017 0.0665472 0.01 2493 0
−0.303518 −0.280781 −990.5755 2002. 324
p-valor
−0.1862 −5.2641 −80.0449
0.8523 0.0000 0.0000
z
D.P. var. dependente D.P. das inova¸ coes ˜ Crit´ e rio de Akaike Ha nna n–Q uinn
60.82785 34.59412 1989.151 1994. 482
erie temporal. Essa s´erie foi ajustada de acordo com um Exerc´ıcio 2.25. Seja yt 440 t=1 uma s´ modelo AR(2). A equa¸cao ˜ estimada foi: yt = 14.62 0.61yt−1 + 0.15yt−2 . Os seguintes dados
{ }
est˜ ao dispon´ıveis:
−
Q-stat 0.19 3.22 4.88 5.19 6.12 6.37 6.96 7.18 7.58 8.09
[p-v [0 [0 [0 [0 [0 [0 [0 [0 [0 [0
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO t
436
yt 9.88 et -0.21
437
438
439
440
10.42 0.40
11.08 1.33
8.12 -1.30
11.71 0.38
89
(a) Calcule a previs˜ ao um passo a frente e dois passos a frente para a s´erie y t , ou seja, y440 (1) e y440 (2). R: y440 (1) = 8.6949 e y440 (2) = 11.07261.
ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que (b) Calcule o erro de previs˜ y441 = 8.83 e y442 = 12.24. R: e440 (1) = 0.1351 e e440 (2) = 1.167389.
erie temporal. Essa s´erie foi ajustada de acordo com um Exerc´ıcio 2.26. Seja yt 450 t=1 uma s´ modelo MA(2). A equa¸ cao ˜ estimada foi: yt = 10.01 + et 0.64et−1 + 0.22et−2 . Os seguintes dados est˜ ao dispon´ıveis:
{ }
−
t 446
447
448
449
450
yt 9.79 et -0.52
10.22 0.21
7.43 -2.34
12.41 0.87
8.35 -0.60
(a) Calcule a previs˜ ao um, dois e trˆes passos a frente para a s´erie y t , ou seja, y450 (1), y450 (2) e y450 (3). R: y450 (1) = 10.5854, y450 (2) = 9.878 e y450 (3) = 10.01.
ao um, dois e trˆ es passos a frente, e450 (1), e450 (2) e e450 (3), (b) Calcule o erro de previs˜ sabendo-se que y451 = 9.80, y452 = 8.78 e y453 = 9.33. R: e450 (1) = 0.7767, e450 (2) = 1.098 e e450 (3) = 0.68.
−
−
−
Exerc´ıcio 2.27. Escreva cada um dos seguintes processos usando o operador de defasagem B. (a) X t = 0.3X t−1 + at ; (b) X t =
t j =1
at , t
≥ 1; (c) X t = a t + 0.4at−1 − 0.2at−2 + 0.17at−3 ; (d) X t = 1.5X t−1 − 0.75X t−2 + at + 4.0; (e) X t = 0.5X t−1 + at + 0.4at−1 − 0.2at−2 ; (f ) X t − X t−1 = −0.3X t−1 + at + 0.4at−1 ;
´ CAP ´ITULO 2. S ERIES TEMPORAIS
90
Exerc´ıcio 2.28. Seja yt 450 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARMA(2,2). A equa¸cao ˜ estimada foi: yt = 1.61+1.39yt−1 0.55yt−2 + et 0.81et−1 + ao dispon´ıveis: 0.25et−2 . Os seguintes dados est˜
{ }
−
t 446
447
448
449
450
yt 12.16 et 0.56
11.69 -0.07
11.56 0.19
10.32 -0.75
10.87 0.62
−
(a) Calcule a previs˜ ao um, dois e trˆes passos a frente para a s´erie y t , ou seja, y450 (1), y450 (2) e y450 (3). R: y450 (1) = 10.3536, y450 (2) = 10.178 e y450 (3) = 10.06295.
(b) Calcule o erro de previs˜ ao um, dois e trˆ es passos a frente, e450 (1), e450 (2) e e450 (3), sabendo-se que y451 = 9.80, y452 = 8.78 e y453 = 9.33. R: e450 (1) = 1.5264, e450 (2) = 2.051996 e e450 (3) = 0.6870544.
Exerc´ıcio 2.29. Considere o modelo autorregressivo de primeira ordem, AR(1), definido por Y t = a + bY t−1 + ut ,
em que a e b s˜ ao parˆ ametros e ut ´e uma seq¨ uˆencia de vari´ aveis aleat´ orias independentes e 2 igualmente distribu´ıdas, com m´edia nula e variˆ ancia σ . Suponha que b < 1 . A previs˜ ao n passos-`a-frente para a vari´ avel Y convergir´ a para
| |
(a) a. (b) a m´edia de ut . (c)
a
1−b .
(d) E (Y t ). (e)
∞.
ao representadas pelo modelo Exerc´ıcio 2.30. As vendas mensais de um certo produto s˜ Z t = 3 + at + 0.5at−1 ˆ (), = 1, 2, 3, 100; (a) Obtenha Z
− 0.25at−2,
σa2 = 4.
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO
91
(b) Calcule Var [et ()], = 1, 2, 3, 100; ˆ4 () para = 1, 2, 3, 100; (c) Dados Z 1 = 3.25, Z 2 = 4.75, Z 3 = 2.25 e Z 4 = 1.75, calcule Z
Exerc´ıcio 2.31. Explique os passos que devem ser seguidos para a modelagem de uma s´erie temporal na metodologia ARIMA. Considere a possibilidade de n˜ ao-estacionariedade da s´erie.
oes 1, 2 e 3 passos a frente Exerc´ıcio 2.32. Usando a esperan¸ca condicional, calcule as previs˜ ( yT (1), yT (2), yT (3)) para os seguintes processos:
(a) ARIMA(1,1,0)
(b) ARIMA(1,1,1) (c) ARIMA(1,2,1) (d) ARIMA(2,1,2)
Exerc´ıcio 2.33. Seja yt 440 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARIMA(1,1,1). O coeficiente estimado para o componente auto-regressivo foi 0,6347 e o coeficiente estimado referente a` parte MA foi 0,3711. As seguintes informa¸ c˜ oes est˜ ao
{ }
dispon´ıveis: t 436 yt et
20.52 -0.092
437
438
439
440
20.04 -1.29
20.52 1.27
19.64 -1.66
16.13 -2.33
cao ˜ do operador lag . (a) Escreva o modelo usando a nota¸ ao um passo a frente e dois passos a frente para a s´erie y t , ou seja, y440 (1) (b) Calcule a previs˜ e y440 (2). R: y440 (1) = 13.05 e y440 (2) = 11.09.
ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que (c) Calcule o erro de previs˜ y441 = 12.57 e y442 = 9.93. R: e440 (1) = 0.478 e e440 (2) = 1.157.
−
Exerc´ıcio 2.34. Seja yt 440 erie temporal. Essa s´erie foi ajustada de acordo com um t=1 uma s´ modelo ARIMA(1,2,1). O coeficiente estimado para o componente auto-regressivo foi 0,6364 e o coeficiente estimado referente a parte MA foi 0,3599. As seguintes informa¸ c˜ oes est˜ ao
{ }
dispon´ıveis:
´ CAP ´ITULO 2. S ERIES TEMPORAIS
92 t
436
yt 782.78 1.34 et
437
438
439
440
803.30 -0.08
823.34 -1.30
843.86 1.26
863.50 -1.65
cao ˜ do operador lag . (a) Escreva o modelo usando a nota¸ (b) Calcule a previs˜ ao um passo a frente e dois passos a frente para a s´erie y t , ou seja, y440 (1) e y440 (2). R: y440 (1) = 881.99 e y440 (2) = 899.74.
ao um e dois passos a frente, e440 (1) e e440 (2), sabendo-se que (c) Calcule o erro de previs˜ y441 = 879.64 e y442 = 892.21. R: e440 (1) = 2.35 e e440 (2) = 7.53.
−
−
Exerc´ıcio 2.35. Seja yt o logaritmo de taxa de cˆ ambio iene/US $ . A seguinte regress˜ ao foi proposta: ∆yt = β 0 + β 1 yt−1 + ut . As estimativas seguem abaixo:
β 0 β 1
Estimativa
dp( )
0.435 0.025
0.162 0.099
·
Sabendo-se que n = 777, fa¸ca o teste DF e responda se a s´erie inf apresenta raiz unit´ aria. Nota: A tabela com os valores cr´ıticos para o teste de DF se encontra no final da lista. Note que τ se refere ao modelo sem constante, τ µ ao modelo com constante e τ τ ao modelo com tendˆencia.
Exerc´ıcio 2.36. Utilizando os dados anuais (1959-1995) de log(P IB ) norte americano, a seguinte regress˜ ao foi proposta: ∆log(P IB)t = β 0 +β 1 t+β 2 log(P IB )t−1 +β 3 ∆log(P IB)t−1 + ut . As estimativas seguem abaixo:
Estimativa
β 0 1.650 β 1 0.0059 β 2 -0.320 β 3 0.264
n = 35
dp( )
·
0.670 0.003 0.087 0.126
(a) Fa¸ca o teste ADF e responda se a s´ erie inf apresenta raiz unit´ aria.
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO
93
(b) A inclus˜ ao da vari´ avel ∆log(P IB)t−1 no modelo acima parece ser necess´ aria? Justifique.
Exerc´ıcio 2.37. Utilizando os dados anuais (1948-1996) de infla¸cao ˜ norte americana, a seguinte regress˜ ao foi proposta: ∆inf t = β 0 + β 1 inf t−1 + β 2 ∆inf t−1 + u t . As estimativas seguem abaixo:
Estimativa
β 0 1.360 β 1 -0.310 β 2 0.138
n = 47
dp( )
·
0.517 0.103 0.126
(a) Fa¸ca o teste ADF e responda se a s´ erie inf apresenta raiz unit´ aria.
ao da vari´ avel ∆inf t−1 no modelo acima parece ser necess´ aria? Justifique. (b) A inclus˜
Exerc´ıcio 2.38. Responda V ou F, justificando sua resposta: Seja o processo auto-regressivo: yt = φ 1 yt−1 + εt . Pode-se afirmar que: (a) O processo ´e estacion´ ario para φ1 < 1 . F (b) Se φ1 = 1 , o processo ´e dito um passeio aleat´ orio. V (c) O estimador de MQO do parˆ ametro φ1 ´e n˜ ao-viciado. F
ca de raiz unit´ aria. F (d) A estat´ıstica t-Student pode ser usada para testar a presen¸ (e) O processo pode ser escrito em uma forma alternativa como ∆yt = δyt−1 + ε t em que δ = φ 1 1 e ∆yt = yt yt−1 . V
−
−
Exerc´ıcio 2.39. Responda V ou F, justificando sua resposta: Um econometrista estimou uma fun¸cao ˜ consumo usando 25 observa¸ c˜ oes anuais da renda pessoal dispon´ıvel e consumo, a partir do modelo: C t = β 0 + β 1 Y t + u t em que C t representa consumo em t; Y t representa renda pessoal dispon´ıvel em t e u t ´e um erro aleat´ orio. O econometrista fez o teste de Dickey-Fuller aumentado (ADF) para as s´eries de renda e de consumo, obtendo estimativas para a estat´ıstica do teste menores que os valores cr´ıticos tabelados, a 1%, 5% e 10%. Consequentemente, o
econometrista:
94
´ CAP ´ITULO 2. S ERIES TEMPORAIS
(a) Aceitou a hip´ otese nula do teste ADF, concluindo que as s´ eries de renda e consumo s˜ ao n˜ ao-estacion´ arias. V
ao ´e v´ alido. V (b) Concluiu que o teste t n˜ (c) Concluiu que a regress˜ ao estimada ´e esp´ uria. F (d) Necessita fazer mais outros testes para verificar se a regress˜ ao estimada ´e esp´ uria. V
Exerc´ıcio 2.40. Responda V ou F, justificando sua resposta. Considere o modelo de regress˜ ao linear C t = β 0 + β 1 Y t + ut . As vari´ aveis s˜ ao definidas como na quest˜ ao anterior. (a) se C t e Y t s˜ ao I(1), ent˜ ao ut ser´ a obrigatoriamente estacion´ ario. F (b) se C t e Y t s˜ ao integradas, mas com ordens de integra¸ c˜ao diferentes, ent˜ ao a regress˜ ao ser´ a inv´ alida. V (c) se C t e Y t s˜ ao I(1), ent˜ ao o teste ADF aplicado aos res´ıduos da regress˜ ao poder´ a identificar a presen¸ca de co-integra¸cao ˜ entre as vari´ aveis. V
ao I(1), mas os res´ıduos s˜ ao I(0), ent˜ ao h´ a co-integra¸cao ˜ entre as vari´ aveis. (d) se C t e Y t s˜ V (e) se C t e Y t s˜ ao I(1) e os res´ıduos tamb´em s˜ ao I(1), ent˜ ao a regress˜ ao de ∆C t em ∆Y t ´e inv´ alida. F
Exerc´ıcio 2.41. Responda V ou F, justificando sua resposta. Considere a seguinte regress˜ ao entre yt e zt : y t = αz t + ut , em que ut ´e o erro. S˜ ao corretas as afirmativas: (a) se yt for I(1) e zt for I(0), ent˜ ao yt e zt s˜ ao co-integradas. F (b) se yt for I(0) e zt for I(1), ent˜ ao yt e zt s˜ ao co-integradas. F (c) se yt for I(1) e zt for I(1), ent˜ ao yt e zt s˜ ao co-integradas. F
ao yt e zt s˜ ao co-integradas. V (d) se yt for I(1), zt for I(1) e ut for I(0), ent˜
Exerc´ıcio 2.42. Responda V ou F, justificando sua resposta. Com respeito a` teoria das s´eries temporais, s˜ ao corretas as afirmativas:
´ ˜ ESTACION ARIAS ´ 2.10. EXERC ´ICIOS PARA S ERIES TEMPORAIS N AO
95
(a) Considere uma s´erie temporal Y t auto-regressiva de ordem 1 com parˆ ametro ρ . No modelo: Y t Y t−1 = δY t−1 + ut , em que ut ´e um ru´ıdo branco e δ = ρ 1, se δ for de fato igual a zero, a s´erie Y t ser´ a n˜ ao estacion´ aria. V
−
−
(b) Numa regress˜ ao linear simples de duas s´eries temporais n˜ ao estacion´ arias de ordem 1, o teste usual t de Student ainda ´e v´ alido. F (c) Numa regress˜ ao linear m´ ultipla de s´eries temporais de ordem 1, mas cointegr´ aveis, n˜ ao se corre o risco de os resultados serem esp´ urios. V (d) Numa regress˜ ao linear m´ ultipla de s´eries temporais de ordem 1, mas cointegr´ aveis, os res´ıduos da regress˜ ao s˜ ao estacion´ arios. V (e) Se uma s´ erie temporal tiver que ser diferenciada n vezes antes de se tornar estacion´ aria, a s´erie original ´e integrada de ordem n 1. F
−
eries temporais. Considere os resultados dos seguintes Exerc´ıcio 2.43. Sejam Y t e X t duas s´ modelos de regress˜ ao estimados por m´ınimos quadrados ordin´ arios (MQO): ˆt = 4, 8788 ∆Y (1,70)
− 0, 1512Y t−1
ˆ t = 0, 1094 e ∆X
(−1,97)
(1,26)
− 0, 1807X t−1. (2,21)
Considere tamb´em os resultados da regress˜ ao de Y t em X t . Y t = 23, 3924 + 14, 4006X t + eˆt , (1,70)
(−1,97)
em que eˆt ´e o res´ıduo. Finalmente, considere a seguinte regress˜ ao: ∆ˆ et = 0, 0730 (0,06)
− 0, 4157eˆt−1 (−3,43)
Os n´ umeros entre parˆ enteses s˜ ao os valores do teste t de significˆ ancia individual dos parˆ ametros. Dado que o valor cr´ıtico a 5% da estat´ıstica de Dickey-Fuller ´e -2,938, ´e correto afirmar que: (a) Y t e X t s˜ ao s´eries temporais integradas de ordem 1.
ao de Y t em X t ´e esp´ uria. (b) A regress˜ (c) A hip´ otese de cointegra¸cao ˜ entre Y t e X t ´e rejeitada pois os res´ıduos da regress˜ ao de Y t em X t s˜ ao n˜ ao-estacion´ arios.