Moving Media Processo Sempre Stazionario
4.2 Modelli stazionari lineari per Time Series in cui la variabile casuale è chiamato innovazione perché rappresenta la parte della variabile osservato che è imprevedibile dati i valori passati. Il modello generale (4.4) presuppone che è l'uscita di un filtro lineare che trasforma le innovazioni ultime, cioè, è un processo lineare. Questa ipotesi di linearità si basa sulla decomposizione teorema Wolds (Wold 1938) che dice che qualsiasi processo covarianza stazionario discreto può essere espresso come somma di due processi non correlati, dove è puramente deterministico è un processo puramente indeterministica che può essere scritta come lineare somma del processo di innovazione: dove è una sequenza di variabili casuali serialmente non correlati con media nulla e varianza comune. Condizione necessaria per la stazionarietà. La formulazione (4.4) è una riparametrizzazione finito di rappresentazione infinita (4.5) - (4.6) con la costante. Di solito è scritto in termini dell'operatore lag definita da, che dà un'espressione più breve: dove i polinomi operatore lag e sono chiamati rispettivamente polinomiale e il polinomio,. Al fine di evitare la ridondanza parametro, assumiamo che non ci sono fattori comuni tra il ei componenti. Successivamente, studieremo la trama di alcune serie storiche generate da modelli fissi con l'obiettivo di determinare i principali modelli della loro evoluzione temporale. Figura 4.2 comprende due serie generato dai seguenti processi stazionari calcolate mediante l'quantlet genarma: Figura 4.2: Serie temporale generati dai modelli Come previsto, entrambe le serie mossa volta un livello costante senza cambiamenti nella varianza dovute alla struttura stazionaria. Inoltre, questo livello è vicino alla media teorica del processo, e la distanza di ciascun punto di questo valore è molto raramente fuori dei limiti. Inoltre, l'evoluzione della serie mostra partenze locali dalla media del processo, che è conosciuto come il comportamento reversione medio che caratterizza la serie temporale stazionaria. Studiamo con qualche dettaglio le proprietà dei diversi processi, in particolare, la funzione autocovarianza che cattura le proprietà dinamiche di un processo stocastico stazionario. Questa funzione dipende dalle unità di misura, in modo usuale misura del grado di linearità tra variabili è il coefficiente di correlazione. Nel caso di processi stazionari, il coefficiente di autocorrelazione al ritardo, indicato con, è definita come la correlazione tra e: Pertanto, la funzione di autocorrelazione (ACF) è la funzione autocovarianza standardizzate dalla varianza. Le proprietà della ACF sono: Data la proprietà di simmetria (4.10), l'ACF è di solito rappresentato per mezzo di un grafico a barre ai ritardi non negativi che si chiama la semplice correlogramma. Un altro strumento utile per descrivere le dinamiche di un processo stazionario è la funzione di autocorrelazione parziale (PACF). Il coefficiente di autocorrelazione parziale lag misura l'associazione lineare tra e rettificato degli effetti dei valori intermedi. Pertanto, è solo il coefficiente nel modello di regressione lineare: Le proprietà del PACF sono equivalenti a quelli della ACF (4.8) - (4.10) ed è facile dimostrare che (Box e Jenkins 1976). Come l'ACF, la funzione di autocorrelazione parziale non dipende dalle unità di misura ed è rappresentata per mezzo di un grafico a barre i ritardi non negativi che si chiama correlogramma parziale. Le proprietà dinamiche di ogni modello stazionario determinano una particolare forma dei correlogrammi. Inoltre, si può dimostrare che, per qualsiasi processo stazionario, entrambe le funzioni, ACF e PACF, approccio a zero quando il ritardo tende all'infinito. I modelli non sono sempre processi stazionari, per cui è necessario prima di determinare le condizioni di stazionarietà. Ci sono sottoclassi di modelli che hanno proprietà particolari così li studieremo separatamente. Così, quando e, è un processo rumore bianco. quando, è una pura movimento processo media dell'ordine. , E quando si tratta di un processo autoregressivo puro dell'ordine. . 4.2.1 White Noise Process Il modello più semplice è un processo di rumore bianco, dove si trova una sequenza di zero non correlati significa variabili con la varianza costante. Si è indicato con. Questo processo è stazionario se la varianza è finita,, dal momento che: condizioni verifica (4.1) - (4.3). Inoltre, non è correlata con il tempo, quindi la sua funzione di autocovarianza è: figura 4.7 mostra due serie storiche simulate generate dai processi con media zero e parametri e -0.7, rispettivamente. Il parametro autoregressivo misura la persistenza di eventi passati nei valori correnti. Ad esempio, se positivo (o negativo) Shock influenza positivamente (o negativamente) per un periodo di tempo che è più lungo più grande è il valore di. Quando la serie si muove più o meno intorno alla media per l'alternarsi nella direzione dell'effetto di, cioè, uno shock che influenza positivamente nel momento, ha effetti negativi sulla, positivi. Il processo è sempre invertibile ed è stazionaria quando il parametro del modello è vincolato a giacere nella regione. Per dimostrare la condizione stazionaria, prima scriviamo il sotto forma media mobile per sostituzione ricorsiva di a (4.14): Figura 4.8: correlogrammi popolazione per i processi che è, è una somma ponderata delle innovazioni del passato. I pesi dipendono dal valore del parametro: quando, (o), l'influenza di un dato aumenta innovazione (o diminuisce) nel tempo. Facendo affidamento a (4.15) per calcolare la media del processo, otteniamo: Dato che, il risultato è una somma di infiniti termini che converge per ogni valore di solo se, in questo caso. Un problema simile appare quando si calcola il secondo momento. La prova può essere semplificata assumendo che, cioè. Poi, varianza è: in questo caso, la varianza va all'infinito eccezione, nel qual caso. È facile verificare che sia la media e la varianza esplodono quando quella presa condizioni doesnt. La funzione autocovarianza di un processo stazionario è Di conseguenza, la funzione di autocorrelazione per il modello fisso è: Cioè, il correlogramma mostra un decadimento esponenziale con valori positivi sempre se è positivo e con oscillazioni negativo-positivo, se è negativo (vedi figura 4.8). Inoltre, il tasso di decadimento diminuisce all'aumentare, quindi maggiore è il valore della forte correlazione dinamica del processo. Infine, vi è un cutoff nella funzione di autocorrelazione parziale al primo ritardo. Figura 4.9: correlogrammi popolazione per i processi si può dimostrare che il processo generale (Box e Jenkins 1976): è fermo solo se le radici della equazione caratteristica della menzogna polinomiale di fuori del cerchio unitario. La media di un modello stazionario è. È sempre invertibile per valori dei parametri La sua posizione ACF va a zero esponenzialmente quando le radici di siano reali o con fluttuazioni onda sinusoidale coseno quando sono complex. Its PACF ha un cutoff al ritardo, cioè. Alcuni esempi di correlogrammi per i modelli più complessi, come la, può essere visto in figura 4.9. Essi sono molto simili ai modelli quando i processi hanno radici reali, ma richiedono una forma molto diversa quando le radici sono complesse (vedere la prima coppia di grafici di figura 4.9). 4.2.4 Autoregressive Il autoregressivo generale (finito-ordine) modello a media mobile di ordini di modello a media mobile, è: Una breve introduzione alla moderna Time Series Definizione Una serie storica è una funzione xt casuale di un argomento t in un set T. In altre parole, una serie temporale è una famiglia di variabili casuali. x t-1. x t. x t1. che corrisponde a tutti gli elementi del set T, dove T è dovrebbe essere una, insieme infinito numerabile. Definizione Un osservata tempo serie t t e T o T è considerata come una parte di una realizzazione di un funzione random x t. Un insieme infinito di possibili realizzazioni che potrebbero essere stati osservati si chiama un insieme. Per mettere le cose in modo più rigoroso, la serie storica (o funzione casuale) è una funzione reale x (w, t) delle due variabili w e t, dove wW e t T. Se fissiamo il valore di w. abbiamo una funzione reale x (t w) del tempo t, che è una realizzazione della serie temporale. Se fissiamo il valore di t, allora abbiamo una variabile casuale X (w t). Per un dato punto nel tempo vi è una distribuzione di probabilità su x. Così una funzione casuale x (w, t) può essere considerato sia per una famiglia di variabili casuali o come una famiglia di realizzazioni. Definizione Definiamo la funzione di distribuzione della variabile casuale w proposta t 0 come P o) x (x). Allo stesso modo possiamo definire la distribuzione congiunta di n variabili aleatorie I punti che contraddistinguono l'analisi di serie temporali di analisi statistiche ordinarie sono le seguenti (1) La dipendenza tra osservazioni in diversi punti cronologici in tempo gioca un ruolo essenziale. In altre parole, l'ordine delle osservazioni è importante. In un'analisi statistica ordinaria si assume che le osservazioni sono indipendenti. (2) Il dominio di t è infinito. (3) Dobbiamo fare una deduzione da una realizzazione. La realizzazione della variabile casuale può essere osservata solo una volta in ogni punto nel tempo. All'analisi multivariata abbiamo molte osservazioni su un numero finito di variabili. Questa differenza critica richiede l'assunzione di stazionarietà. Definizione La casuale funzione x t è detto di essere rigorosamente stazionari se tutte le funzioni di distribuzione di dimensione finita che definiscono x t rimangono gli stessi, anche se l'intero gruppo di punti t 1. t 2. t n viene spostato lungo l'asse del tempo. Cioè, se per qualsiasi intero t 1. t 2. t n e k. Graficamente, si potrebbe immaginare la realizzazione di una serie strettamente stazionaria come avente non solo allo stesso livello in due intervalli differenti, ma anche la stessa funzione di distribuzione, fino ai parametri che definiscono. L'assunzione di stazionarietà rende la nostra vita più semplice e meno costosa. Senza stazionarietà dovremmo provare il processo di frequente ad ogni tempo, al fine di costruire una caratterizzazione delle funzioni di distribuzione nella definizione precedente. Stazionarietà significa che possiamo limitare la nostra attenzione ad alcune delle semplici funzioni numeriche, cioè i momenti delle distribuzioni. I momenti centrali sono date da Definition (i) Il valore medio della serie temporale t è cioè il primo momento dell'ordine. (Ii) La funzione autocovarianza di t è cioè il secondo momento sul media. Se ts allora avete la varianza di x t. Useremo per indicare la autocovarianza di una serie stazionaria, dove k indica la differenza tra t e s. (Iii) La funzione di autocorrelazione (ACF) di t è Useremo per indicare l'autocorrelazione di una serie stazionaria, dove k indica la differenza tra t e s. (Iv) l'autocorrelazione parziale (PACF). f kk. è la correlazione tra z t e z tk dopo aver rimosso la loro dipendenza lineare reciproca sulla variabili intervenienti z T1. z t2. z tk-1. Un modo semplice per calcolare l'autocorrelazione parziale tra z t e z tk è quello di eseguire le due regressioni quindi calcolare la correlazione tra i due vettori residuo. Oppure, dopo aver misurato le variabili come deviazioni dalla loro mezzi, l'autocorrelazione parziale può essere trovato come il coefficiente di regressione LS su z t nel modello dove il punto sopra la variabile indica che è misurata come deviazione dalla media. (V) Le equazioni di Yule-Walker forniscono un importante rapporto tra le autocorrelazioni parziali e le autocorrelazioni. Moltiplicare entrambi i lati dell'equazione 10 per z tk-j e prendere le aspettative. Questa operazione ci dà la seguente equazione alle differenze nelle autocovarianze o, in termini di autocorrelazioni Questo apparentemente semplice rappresentazione è davvero un risultato potente. Vale a dire, per j1,2. k possiamo scrivere il pieno sistema di equazioni, noto come le equazioni di Yule-Walker, Da algebra lineare si sa che la matrice di r s è di rango pieno. Pertanto è possibile applicare Regola di Cramer successivamente per k1,2. per risolvere il sistema per le autocorrelazioni parziali. I primi tre sono Abbiamo tre importanti risultati in serie rigorosamente fermo. L'implicazione è che possiamo usare qualsiasi realizzazione finita della sequenza per stimare la media. In secondo luogo. se t è strettamente stazionaria e E t 2 lt poi L'implicazione è che l'autocovarianza dipende solo dalla differenza tra t e s, non il loro punto cronologico nel tempo. Potremmo usare qualsiasi coppia di intervalli nel calcolo del autocovarianza fintanto che il tempo tra loro era costante. E possiamo usare qualsiasi realizzazione finito di dati per stimare le autocovarianze. In terzo luogo, la funzione di autocorrelazione nel caso di stretta stazionarietà è dato da L'implicazione è che l'autocorrelazione dipende solo dalla differenza tra t e s pure, e di nuovo può essere stimato da qualsiasi realizzazione finita dei dati. Se il nostro obiettivo è quello di stimare i parametri descrittivi delle possibili realizzazioni delle serie temporali, allora forse rigorosa stazionarietà è troppo restrittiva. Ad esempio, se la media e covarianze di x t sono costanti e indipendenti dal punto cronologico nel tempo, allora forse non è importante per noi che la funzione di distribuzione sia uguale per diversi intervalli di tempo. Definizione Una funzione casuale è stazionario in senso lato (o debolmente stazionario, o stazionario in Khinchins senso, o covarianza fermo) se m 1 (t) m e m 11 (t, s). stazionarietà Strict per sé non implica stazionarietà debole. stazionarietà debole non implica rigorosa stazionarietà. stazionarietà rigoroso con E t 2 lt implica stazionarietà debole. teoremi ergodici riguardano la questione delle condizioni necessarie e sufficienti per fare inferenza da una sola realizzazione di una serie storica. In sostanza si riduce a assumendo stazionarietà debole. Teorema Se t è debolmente stazionario con media m e la funzione di covarianza, che poi è, per ogni data e gt 0 e h gt 0 esiste un certo numero di T o tale che per ogni T gt T o. se e solo se questa condizione necessaria e sufficiente è che i autocovarianze spengono, nel qual caso la media campionaria è uno stimatore consistente per la media della popolazione. Corollario Se t è debolmente stazionario con E tk xt 2 lt per ogni t, ed E tk xtx tsk x ts è indipendente t per ogni intero s, quindi se e solo se dove A conseguenza del corollario è presupposto che xtx tk è debolmente stazionario. Il Ergodic teorema non è altro che una legge di grandi numeri quando le osservazioni sono correlate. Ci si potrebbe chiedere a questo punto circa le implicazioni pratiche di stazionarietà. L'applicazione più comune di utilizzo di tecniche di serie temporali è in modellazione dei dati macroeconomici, sia teorici e atheoretic. Come esempio del primo, si potrebbe avere un modello acceleratore multiplier-. Per il modello di essere fermo, i parametri devono avere certi valori. Un test del modello è quindi quello di raccogliere i dati pertinenti e stimare i parametri. Se le stime non sono coerenti con la stazionarietà, allora si deve ripensare sia il modello teorico o il modello statisticla, o entrambi. Ora abbiamo abbastanza macchinari per cominciare a parlare della modellazione dei dati di serie temporali univariati. Ci sono quattro fasi del processo. 1. costruzione di modelli da Andor conoscenza esperienziale 2. Modelli teorici che identificano in base ai dati (serie osservato) 3. montaggio dei modelli (la stima dei parametri del modello (s)) 4. controllo del modello Se nella quarta fase non siamo soddisfatti torniamo al punto uno. Il processo è iterativo fino a nuovo controllo e respecification rendimenti nessun ulteriore miglioramento dei risultati. Schematicamente Definizione Alcune operazioni semplici sono i seguenti: L'operatore backshift Bx tx t-1 L'operatore Fx invio TX t1 L'operatore differenza 1 - B xtxt - x t-1 La differenza operatore si comporta in maniera coerente con la costante di una serie infinita . Cioè, la sua inversa è il limite di una somma infinita. Vale a dire, -1 (1-B) -1 1 (1-B) 1BB 2. Il integrare operatore S -1 Dato che è l'inverso dell'operatore differenza, l'operatore integrare serve per costruire la somma. COSTRUZIONE MODELLO In questa sezione vi proponiamo una breve rassegna del tipo più comune di modelli di serie storiche. Sulla base di quelle conoscenza del processo di generazione di dati uno raccoglie una classe di modelli per l'identificazione e la stima dalle possibilità che seguono. Definizione Supponiamo che Ex t m è indipendente da t. Un modello come le caratteristiche è chiamato modello autoregressivo di ordine p, AR (p). Definizione Se una variabile dipendente dal tempo (processo stocastico) t soddisfa quindi t si dice per soddisfare la proprietà di Markov. Sul lato sinistro l'aspettativa è condizionata sulla storia infinita di x t. Sul RHS è condizionata solo su una parte della storia. Dalle definizioni, un modello AR (p) è visto per soddisfare la proprietà di Markov. Utilizzando l'operatore backshift possiamo scrivere il nostro modello AR come Teorema Una condizione necessaria e sufficiente per il modello AR (p) sia stazionario è che tutte le radici del polinomio trovano all'esterno del cerchio unitario. Esempio 1 Si consideri il AR (1) L'unica radice di 1 - F 1 B 0 è B 1 F 1. La condizione per la stazionarietà richiede. Se poi apparirà molto frenetico della serie osservata. Per esempio. considerare in cui il termine rumore bianco ha una distribuzione normale con una media nulla e varianza di uno. Le osservazioni passare segno con quasi tutti osservazione. Se, d'altro canto, allora la serie osservata sarà molto più agevole. In questa serie un'osservazione tende ad essere superiore a 0 se il suo predecessore era superiore a zero. La varianza di e t è s e 2 per ogni t. La varianza di x t. quando ha media zero, è data dalla Poiché la serie è stazionario possiamo scrivere. Quindi, la funzione autocovarianza di un AR (1) serie è, supponendo senza perdita di generalità m 0 Per vedere come si presenta in termini di parametri AR faremo uso del fatto che possiamo scrivere xt come segue Moltiplicando per x TK e prendendo le aspettative Si noti che i autocovarianze muoiono come k cresce. La funzione di autocorrelazione è autocovarianza divisa per la varianza del termine rumore bianco. O, . Utilizzando le precedenti formule di Yule-Walker per le autocorrelazioni parziali che abbiamo per un AR (1) le autocorrelazioni muoiono in modo esponenziale e le autocorrelazioni parziali mostrano un picco ad un lag e sono pari a zero in seguito. Esempio 2 Si consideri l'AR (2) Il polinomio associato nell'operatore di ritardo è Le radici possono essere trovati utilizzando la formula quadratica. Le radici sono Quando le radici sono reali e di conseguenza la serie diminuirà esponenzialmente in risposta ad uno shock. Quando le radici sono complesse e apparirà come un'onda segno smorzato la serie. Il teorema stazionarietà impone le seguenti condizioni sulla AR coefficienti Il autocovarianza per (2) processo AR, a media nulla, è dividendo per la varianza xt dà la funzione di autocorrelazione Da possiamo scrivere Analogamente per il secondo e terzo autocorrelazioni Gli altri autocorrelazioni sono risolti per il modo ricorsivo. Il loro modello è regolato dalle radici della seconda equazione differenza ordine lineare Se le radici sono reali allora le autocorrelazioni diminuirà in maniera esponenziale. Quando le radici sono complesse le autocorrelazioni appariranno come una sinusoide smorzata. Utilizzando le equazioni di Yule-Walker, le autocorrelazioni parziali sono in questo caso, le autocorrelazioni muoiono lentamente. L'autocorrelazione parziale invece è abbastanza distintivo. Ha picchi a uno e due GAL ed è pari a zero in seguito. Teorema Se x t è un processo stazionario AR (p), allora può essere scritto equivalentemente come modello filtro lineare. Cioè, il polinomio nell'operatore backshift può essere invertita e AR (p) scritto come una media mobile di ordine infinito invece. Esempio Supponiamo che z t è un AR (1) processo con media pari a zero. Ciò che è vero per il periodo corrente deve essere vero anche per i periodi precedenti. Così per sostituzione ricorsiva possiamo scrivere Piazza due parti e tener aspettative destra svanisce come k dal f lt 1. Pertanto la somma converge a z t in media quadratica. Possiamo riscrivere il modello AR (p) come filtro lineare che sappiamo essere stazionaria. La funzione di autocorrelazione e autocorrelazione parziale Generalmente Supponiamo che un fermo serie Z t con media zero è conosciuto per essere autoregressiva. La funzione di autocorrelazione di un AR (p) è trovata prendendo aspettative di e dividendo per la varianza di z t Questo ci dice che r k è una combinazione lineare delle autocorrelazioni precedenti. Possiamo usare questo nell'applicare Cramers regola per (i) nella soluzione per f kk. In particolare possiamo vedere che questa dipendenza lineare causerà f kk 0 per k gt p. Questa caratteristica distintiva della serie autoregressivo sarà molto utile quando si tratta di individuazione di una serie sconosciuta. Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare interactivley con alcune fo i (p) idee AR qui presentati. Modello a media mobile consideri un modello dinamico in cui la serie di interesse dipende solo una parte della storia del termine rumore bianco. Schematicamente questo potrebbe essere rappresentato come Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un processo media mobile di ordine q, MA (q), è dato da Teorema: Un processo media mobile è sempre stazionaria. Dimostrazione: Piuttosto che iniziare con una prova generale, lo faremo per un caso specifico. Supponiamo che z t è MA (1). Poi . Naturalmente, una t ha media nulla e varianza finita. La media di z t è sempre zero. I autocovarianze saranno tenute da Si può vedere che la media della variabile casuale non dipende dal tempo in alcun modo. Si può anche vedere che il autocovarianza dipende solo le s offset, non su dove nella serie si parte. Si può dimostrare lo stesso risultato, più in generale partendo, che ha il movimento alternativo rappresentanza media. Consideriamo innanzitutto la varianza di Z t. Mediante sostituzione ricorsiva si può dimostrare che questa è uguale alla somma sappiamo essere una serie convergente così la varianza è finita ed è indipendente dal tempo. I covarianze sono, per esempio, si può anche vedere che le covarianze auto dipendono solo sui punti relativi a tempo, non il punto cronologico nel tempo. La nostra conclusione da tutto questo è che un processo MA () è stazionario. Per il processo MA generale (q) la funzione di autocorrelazione è dato dalla funzione di autocorrelazione parziale morirà senza intoppi. Si può vedere questo invertendo il processo per ottenere un processo AR (). Se si dispone di uno o MathCAD MathCAD Explorer, allora si può sperimentare in modo interattivo con alcune delle idee (q) MA qui presentati. Mixed Autoregressive - media mobile modelle Definizione Supponiamo che un t è una sequenza non correlata di i. i.d. variabili casuali con media nulla e varianza finita. Poi un autoregressivo, spostando processo media di ordine (p, q), ARMA (p, q), è dato da Le radici dell'operatore autoregressivo deve trovano tutti al di fuori del cerchio unitario. Il numero di incognite è PQ2. Il p e q sono evidenti. Il 2 comprende il livello del processo, m. e la varianza del termine rumore bianco, sa 2. Supponiamo che si combinano nostri AR e MA rappresentazioni in modo che il modello è ei coefficienti sono normalizzati in modo che bo 1. Quindi questa rappresentazione è chiamato ARMA (p, q) se il radici di (1) tutto si trovano al di fuori del cerchio unitario. Supponiamo che y t sono misurati come deviazioni dalla media in modo che possiamo cadere una o. allora la funzione autocovarianza è derivato da se jgtq allora i termini MA abbandonano in attesa di dare Cioè, la funzione autocovarianza si presenta come un tipico AR per ritardi dopo q muoiono senza intoppi dopo q, ma non possiamo dire come 1,2,133, q sarà. Possiamo anche esaminare la PACF per questa classe di modello. Il modello può essere scritto come Possiamo scrivere questo come un processo MA (inf) che suggerisce che le PACFs morire lentamente. Con un po 'di aritmetica abbiamo potuto dimostrare che questo avviene solo dopo le prime punte p contribuito da parte AR. Legge empirica In realtà, una serie temporale stazionaria potrebbe essere rappresentata da p 2 e q 2. Se la tua azienda è quello di fornire una buona approssimazione alla realtà e bontà di adattamento è il vostro criterio allora un modello prodigo è preferito. Se il vostro interesse è l'efficienza predittiva allora il modello parsimoniosa è preferito. Esperimento con le idee ARMA di cui sopra con un foglio di lavoro MathCAD. Autoregressive Integrare modello a media mobile filtro MA filtro AR Integrare filtro A volte il processo, o di una serie, stiamo cercando di modella non è fermo in livelli. Ma potrebbe essere stazionario, per esempio, le prime differenze. Vale a dire, nella sua forma originale i autocovarianze per la serie potrebbe non essere indipendente dal punto cronologico nel tempo. Tuttavia, se si costruisce una nuova serie, che è la prima differenza della serie originale, questa nuova serie soddisfa la definizione di stazionarietà. Questo è spesso il caso con dati economici che è altamente è tendenzialmente. Definizione Supponiamo che z T non è fermo, ma Z t - z t-1 soddisfa la definizione di stazionarietà. Inoltre, a, il termine rumore bianco ha finito media e varianza. Possiamo scrivere il modello in quanto questo è il nome di una (d, p q) modello ARIMA. p identifica l'ordine dell'operatore AR, d identifica l'alimentazione. q identifica l'ordine dell'operatore MA. Se le radici di f (B) si trovano al di fuori del cerchio unitario allora possiamo riscrivere la ARIMA (p, d, q) come filtro lineare. Cioè esso può essere scritto come un MA (). Ci riserviamo la discussione della rilevazione di radici unitarie per un'altra parte delle dispense. Si consideri un sistema dinamico con x t come una serie di input e y t come una serie di uscita. Schematicamente abbiamo Questi modelli sono un'analogia discreto di equazioni differenziali lineari. Supponiamo la seguente relazione dove B indica un ritardo puro. Ricordiamo che (1-B). Con questa sostituzione il modello può essere scritta Se il polinomio coefficiente y t può essere invertita, allora il modello può essere scritta come V (B) è noto come la risposta impulsiva. Ci si troverà di fronte questa terminologia di nuovo nel nostro tardi discussione del vettore autoregressivo. modelli di cointegrazione e correzione degli errori. IDENTIFICAZIONE Avendo deciso su una classe di modelli, si deve ora identificare l'ordine dei processi che generano i dati. Cioè, si deve fare congetture migliori per l'ordine dei processi AR e MA guidare la serie stazionaria. Una serie stazionaria viene completamente caratterizzato dalla sua media e autocovarianze. Per motivi di analisi che di solito lavoriamo con le autocorrelazioni e autocorrelazioni parziali. Questi due strumenti di base hanno modelli unici per stazionari processi AR e MA. Si potrebbe calcolare le stime di esempio delle funzioni di autocorrelazione e autocorrelazione parziale e confrontarle con i risultati tabulati per i modelli standard. Funzione di esempio autocovarianza Funzione di esempio autocorrelazione I autocorrelazioni parziali del campione prevede di utilizzare le autocorrelazioni e autocorrelazioni parziali è abbastanza semplice in linea di principio. Supponiamo di avere una serie z t. con media zero, che è AR (1). Se dovessimo eseguire la regressione di z t2 su z t1 e Z t ci aspettiamo di trovare che il coefficiente su z t non è stato diverso da zero dal momento che questo autocorrelazione parziale dovrebbe essere pari a zero. D'altra parte, le autocorrelazioni per questa serie dovrebbe essere in diminuzione esponenziale per aumentare ritardi (vedi AR (1) nell'esempio precedente). Supponiamo che la serie è davvero una media mobile. L'autocorrelazione dovrebbe essere zero ovunque ma al primo ritardo. L'autocorrelazione parziale deve morire fuori in modo esponenziale. Anche dal nostro romp molto superficiale attraverso le basi di analisi delle serie temporali è evidente che c'è una dualità tra processi AR e MA. Questa dualità può essere riassunto nel seguente table.2.1 modello a media mobile (modelli MA) modelli di serie tempo noti come modelli ARIMA possono includere termini autoregressivi eo movimento termini medi. In settimana 1, abbiamo imparato un termine autoregressivo in un modello di serie temporale per la variabile x t è un valore ritardato di x t. Per esempio, un ritardo 1 termine autoregressivo è x t-1 (moltiplicato per un coefficiente). Questa lezione definisce lo spostamento termini medi. Un termine media mobile in un modello di serie storica è un errore di passato (moltiplicata per un coefficiente). Sia (wt Overset N (0, sigma2w)), il che significa che la w t sono identicamente, indipendentemente distribuite, ciascuna con una distribuzione normale con media 0 e la stessa varianza. Il modello a media mobile 1 ° ordine, indicato con MA (1) è (xt mu peso theta1w) L'ordine di 2 ° modello a media mobile, indicato con MA (2) è (mu XT peso theta1w theta2w) La q ° ordine modello a media mobile , indicato con MA (q) è (MU XT WT theta1w theta2w punti thetaqw) Nota. Molti libri di testo e programmi software definiscono il modello con segni negativi prima dei termini. Ciò non modificare le proprietà teoriche generali del modello, anche se non capovolgere i segni algebrici di valori dei coefficienti stimati ei termini (unsquared) nelle formule per ACFS e varianze. È necessario controllare il software per verificare se vi siano segni negativi o positivi sono stati utilizzati al fine di scrivere correttamente il modello stimato. R utilizza segnali positivi nel suo modello di base, come facciamo qui. Proprietà teoriche di una serie storica con un MA (1) Modello nota che l'unico valore diverso da zero nella ACF teorico è di lag 1. Tutti gli altri autocorrelazioni sono 0. Quindi un ACF campione con un autocorrelazione significativa solo in ritardo 1 è un indicatore di un possibile MA (1) modello. Per gli studenti interessati, prove di queste proprietà sono in appendice a questo volantino. Esempio 1 Supponiamo che un MA (1) modello è x t 10 w t 0,7 w t-1. dove (WT overset N (0,1)). Così il coefficiente 1 0.7. L'ACF teorica è data da una trama di questa ACF segue. La trama appena mostrato è l'ACF teorico per un MA (1) con 1 0.7. In pratica, un campione abituato di solito forniscono un modello così chiara. Utilizzando R, abbiamo simulato n 100 valori di esempio utilizzando il modello x t 10 w t 0,7 w t-1 dove w t IID N (0,1). Per questa simulazione, un appezzamento serie storica dei dati di esempio segue. Non possiamo dire molto da questa trama. L'ACF campione per i dati simulati segue. Vediamo un picco in ritardo 1 seguito da valori generalmente non significativi per ritardi passato 1. Si noti che il campione ACF non corrisponde al modello teorico della MA sottostante (1), vale a dire che tutte le autocorrelazioni per i ritardi del passato 1 saranno 0 . un campione diverso avrebbe un po 'diverso ACF esempio riportato di seguito, ma probabilmente hanno le stesse caratteristiche generali. Theroretical proprietà di una serie storica con un modello MA (2) Per la (2) il modello MA, proprietà teoriche sono i seguenti: Si noti che gli unici valori diversi da zero nel ACF teorica sono per ritardi 1 e 2. Autocorrelazioni per ritardi superiori sono 0 . Così, un ACF campione con autocorrelazioni significativi a ritardi 1 e 2, ma autocorrelazioni non significative per ritardi più elevato indica una possibile mA (2) modello. iid N (0,1). I coefficienti sono 1 0,5 e 2 0.3. Poiché si tratta di un MA (2), l'ACF teorica avrà valori diversi da zero solo in caso di ritardi 1 e 2. I valori delle due autocorrelazioni diversi da zero sono un grafico della ACF teorica segue. è come quasi sempre accade, i dati di esempio solito si comportano abbastanza così perfettamente come teoria. Abbiamo simulato n 150 valori di esempio per il modello x t 10 w t 0,5 w t-1 .3 w t-2. dove w t iid N (0,1). La trama serie storica dei dati segue. Come con la trama serie per la MA (1) i dati di esempio, non puoi dire molto da esso. L'ACF campione per i dati simulati segue. Il modello è tipico per le situazioni in cui un modello MA (2) può essere utile. Ci sono due picchi statisticamente significative a ritardi 1 e 2 seguiti da valori non significativi per altri ritardi. Si noti che a causa di errore di campionamento, l'ACF campione non corrisponde al modello teorico esattamente. ACF per General MA (q) Models Una proprietà di modelli MA (q), in generale, è che ci sono autocorrelazioni diversi da zero per i primi ritardi Q e autocorrelazioni 0 per tutti i GAL gt q. Non unicità di collegamento tra i valori di 1 e (rho1) in MA (1) Modello. Nella (1) Modello MA, per qualsiasi valore di 1. il reciproco 1 1 dà lo stesso valore per esempio, utilizzare 0,5 per 1. e quindi utilizzare 1 (0,5) 2 per 1. Youll ottenere (rho1) 0,4 in entrambi i casi. Per soddisfare una limitazione teorica chiamato invertibilità. abbiamo limitare MA (1) modelli di avere valori con valore assoluto inferiore 1. Nell'esempio appena dato, 1 0.5 sarà un valore di parametro ammissibile, che non sarà 1 10.5 2. Invertibilità dei modelli MA Un modello MA si dice che sia invertibile se è algebricamente equivalente a un modello AR ordine infinito convergenti. Facendo convergere, si intende che i coefficienti AR diminuiscono a 0 mentre ci muoviamo indietro nel tempo. Invertibilità è una limitazione programmata nel software di serie storiche utilizzate per stimare i coefficienti dei modelli con i termini MA. La sua non è una cosa che controlliamo per l'analisi dei dati. Ulteriori informazioni sul restrizione invertibilit'a per MA (1) modelli è riportato in appendice. Avanzate teoria Note. Per un modello MA (q) con un determinato ACF, vi è un solo modello invertibile. La condizione necessaria per invertibilità è che i coefficienti hanno valori tali che l'equazione 1- 1 y-. - Q q y 0 ha soluzioni per y che non rientrano nel cerchio unitario. R Codice per gli esempi in Esempio 1, abbiamo tracciato l'ACF teorica del modello x t 10 w t. 7W t-1. e poi simulato n 150 valori di questo modello e tracciato le serie temporali del campione e l'ACF campione per i dati simulati. I comandi R utilizzati per tracciare la ACF teoriche sono state: acfma1ARMAacf (Mac (0,7), lag. max10) 10 ritardi di ACF per MA (1) con theta1 0,7 lags0: 10 crea una variabile denominata ritardi che va da 0 a 10. trama (ritardi, acfma1, xlimc (1,10), ylabr, typeh, principale ACF per MA (1) con theta1 0,7) abline (H0) aggiunge un asse orizzontale per la trama il primo comando determina l'ACF e lo memorizza in un oggetto chiamato acfma1 (la nostra scelta del nome). Il comando plot (il 3 ° comando) trame in ritardo rispetto ai valori ACF per ritardi da 1 a 10. Il parametro ylab Contrassegni l'asse Y e il parametro principale mette un titolo sul terreno. Per visualizzare i valori numerici della ACF è sufficiente utilizzare il comando acfma1. La simulazione e le trame sono state fatte con i seguenti comandi. xcarima. sim (N150, elenco (Mac (0,7))) Simula n 150 valori da MA (1) xxc10 aggiunge 10 per rendere medi default 10. simulazione a significare 0. plot (x, TypeB, mainSimulated MA (1) i dati) ACF (x, xlimc (1,10), mainACF per dati campione simulati) nell'Esempio 2, abbiamo tracciato l'ACF teorica del modello xt 10 wt .5 w t-1 .3 w t-2. e poi simulato n 150 valori di questo modello e tracciato le serie temporali del campione e l'ACF campione per i dati simulati. I comandi R utilizzati sono stati acfma2ARMAacf (Mac (0.5,0.3), lag. max10) acfma2 lags0: 10 plot (ritardi, acfma2, xlimc (1,10), ylabr, typeh, principale ACF per MA (2) con theta1 0.5, theta20.3) abline (H0) xcarima. sim (N150, l'elenco (Mac (0,5, 0,3))) xxc10 plot (x, TypeB, principale simulato MA (2) Serie) ACF (x, xlimc (1,10), mainACF per simulato MA (2) dati) Appendice: prova di proprietà di MA (1) per gli studenti interessati, qui ci sono prove per le proprietà teoriche del (1) modello MA. Varianza: (testo (xt) testo (mu peso theta1 w) 0 di testo (in peso) di testo (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Quando h 1, l'espressione precedente 1 w 2. Per ogni h 2, l'espressione precedente 0 . il motivo è che, per definizione di indipendenza della wt. E (w k w j) 0 per ogni k j. Inoltre, perché la w t hanno media 0, E (w j w j) E (w j 2) w 2. Per una serie temporale, applicare questo risultato per ottenere l'ACF cui sopra. Un modello MA invertibile è uno che può essere scritta come modello AR ordine infinito che converge in modo che i coefficienti AR convergono a 0, mentre ci muoviamo infinitamente indietro nel tempo. Bene dimostrare invertibilità per la (1) Modello MA. Abbiamo poi sostituto relazione (2) per w t-1 nell'equazione (1) (3) (ZT WT theta1 (z - theta1w) peso theta1z - theta2w) Al tempo t-2. l'equazione (2) diventa Abbiamo poi rapporto sostituto (4) per w t-2 nell'equazione (3) (ZT peso theta1 z - theta21w WT theta1z - theta21 (z - theta1w) WT theta1z - theta12z theta31w) Se dovessimo continuare a ( infinitamente), otterremmo il modello AR ordine infinito (ZT peso theta1 z - theta21z theta31z - theta41z punti) Nota però, che se 1 1, i coefficienti moltiplicando i ritardi di z aumenterà (infinitamente) in termini di dimensioni, come ci muoviamo nel tempo. Per evitare questo, abbiamo bisogno di 1 LT1. Questa è la condizione per un MA (1) Modello invertibile. Infinite Modello di ordine MA In settimana 3, e vedere che un AR (1) modello può essere convertito in un modello di ordine MA infinite: (xt - mu peso phi1w phi21w punti phik1 w punti riassumono phij1w) Questa somma dei termini di rumore bianco del passato è conosciuto come la rappresentazione causale di un AR (1). In altre parole, x t è un tipo speciale di MA con un numero infinito di termini che vanno indietro nel tempo. Questo è chiamato un ordine infinito MA o MA (). Un ordine MA finito è un AR ordine infinito ed ogni AR ordine finito è un ordine MA infinita. Ricordiamo a settimana 1, abbiamo notato che un requisito per un AR fisso (1) è che 1 LT1. Consente di calcolare il Var (x t) utilizzando la rappresentazione causale. Questo ultimo passo utilizza un fatto di base sulla serie geometrica che richiede (phi1lt1) altrimenti i diverge serie. Navigazione
Comments
Post a Comment