Tuesday 28 November 2017

Gleitender Durchschnittsprozess Ist Stationär


Man betrachte den unendlichen Ordnungs-MA-Prozess, der durch ytepsilonta (epsilon epsilon) definiert ist, wobei a eine Konstante ist und die epsilonts i. i.d. N (0, v) Zufallsvariable. Was ist der beste Weg, um zu zeigen, dass yt nichtstationär ist Ich weiß, dass ich auf die charakteristischen Wurzeln der Merkmale Polynom und dann beurteilen müssen, ob sie außerhalb des Einheitskreises sind, aber was ist der beste Weg, um dieses Problem zu nähern Sollte ich versuchen, die unendliche Reihenfolge MA Prozess als eine endliche Ordnung AR Prozess oder ist es einfacher, die MA-Prozess gefragt Okt 19 13 bei 21: 114.2 Lineare stationäre Modelle für die Zeitreihe, wo die zufällige Variable heißt die Innovation, weil sie die repräsentiert Teil der beobachteten Variablen, der aufgrund der vergangenen Werte nicht vorhersehbar ist. Das allgemeine Modell (4.4) geht davon aus, dass das Ausgangssignal eines linearen Filters ist, der die bisherigen Innovationen transformiert, dh einen linearen Prozess darstellt. Diese Linearität Annahme basiert auf der Wolds Zerlegungssatz (Wold 1938), die besagt, dass jedes diskrete stationäre Kovarianz Verfahren kann als die Summe von zwei nicht korrelierten Verfahren ausgedrückt werden, wobei rein deterministisch ist und ist ein rein determinis Prozess, der als linear geschrieben werden können Summe des Innovationsprozesses: wo ist eine Folge von seriell unkorrelierten Zufallsvariablen mit null mittlerer und gemeinsamer Varianz. Voraussetzung für die Stationarität. Die Formulierung (4.4) ist eine endliche Reparametrisierung der unendlichen Darstellung (4.5) - (4.6) mit der Konstanten. Es wird in der Regel in Bezug auf den Verzögerungsoperator durch definierte geschrieben, die eine kürzere Ausdruck ergibt: wobei die Verzögerungsoperator Polynome und das Polynom und das Polynom genannt werden, respectively. Um eine Parameterredundanz zu vermeiden, gehen wir davon aus, dass es keine gemeinsamen Faktoren zwischen den Komponenten und den Komponenten gibt. Als nächstes werden wir die Handlung einiger Zeitreihen studieren, die von stationären Modellen mit dem Ziel entwickelt werden, die Hauptmuster ihrer zeitlichen Entwicklung zu bestimmen. Abbildung 4.2 enthält zwei aus den folgenden stationären Prozesse erzeugt Serie berechnet mit Hilfe des genarma Quantlet: Abbildung 4.2: Zeitreihe, die durch Modelle wie erwartet beide Zeitreihen bewegen sich um einen konstanten Wert ohne Änderungen in Abweichung aufgrund der stationären Eigenschaft. Darüber hinaus ist dieses Niveau nahe dem theoretischen Mittel des Prozesses, und der Abstand jedes Punktes zu diesem Wert ist sehr selten außerhalb der Grenzen. Darüber hinaus zeigt die Entwicklung der Reihe lokale Abweichungen von dem Mittelwert des Prozesses, der als Mittelwert Reversionsverhalten bekannt ist, die die stationären Zeitreihen charakterisiert. Lassen Sie uns mit einigen Details, die Eigenschaften der verschiedenen Prozesse untersuchen, insbesondere die Autokovarianzfunktion, die die dynamischen Eigenschaften eines stochastischen stationären Prozesses erfasst. Diese Funktion hängt von den Maßeinheiten ab, so dass das übliche Maß für den Grad der Linearität zwischen den Variablen der Korrelationskoeffizient ist. Im Fall von stationären Prozessen, bei Verzögerung der Autokorrelationskoeffizient, bezeichnet mit, als die Korrelation, die zwischen und: somit die Autokorrelationsfunktion (ACF) der Autokovarianzfunktion durch die Varianz standardisiert. Die Eigenschaften des ACF sind: die Symmetrieeigenschaft (4.10) Da wird der ACF in der Regel mit Hilfe eines Balkendiagramms an den nicht-negativen Lags vertreten, dass die einfache Korrelogramm genannt wird. Ein weiteres nützliches Werkzeug zur Beschreibung der Dynamik eines stationären Prozesses ist die partielle Autokorrelationsfunktion (PACF). Der partielle Autokorrelationskoeffizient bei Verzögerung misst die lineare Zuordnung zwischen den Werten der Zwischenwerte. Daher ist es nur der Koeffizient im linearen Regressionsmodell: Die Eigenschaften der PACF sind äquivalent zu denen des ACF (4.8) - (4.10) und es ist leicht zu beweisen, dass (Box und Jenkins 1976). Wie die ACF hängt die partielle Autokorrelationsfunktion nicht von den Maßeinheiten ab und wird durch ein Balkendiagramm an den nichtnegativen Verzögerungen dargestellt, das als partielles Korrelogramm bezeichnet wird. Die dynamischen Eigenschaften jedes stationären Modells bestimmen eine bestimmte Form der Korrelogramme. Darüber hinaus kann gezeigt werden, dass für jeden stationären Prozess, beide Funktionen, ACF und PACF, nähern sich Null, wie die Verzögerung tendiert zu unendlich. Die Modelle sind nicht immer stationäre Prozesse, daher ist es notwendig, zunächst die Bedingungen für die Stationarität zu bestimmen. Es gibt Unterklassen von Modellen, die besondere Eigenschaften haben, so dass wir sie separat studieren werden. Also, wenn und, es ist ein weißes Rauschen Prozess. Wenn es ein reiner gleitender Durchschnitt der Ordnung ist. , Und wenn es ein reiner autoregressiver Prozess der Ordnung ist. . 4.2.1 Weißes Rauschen Das einfachste Modell ist ein weißes Rauschen, bei dem es sich um eine Folge von unkorrelierten Nullmittelwerten mit konstanter Varianz handelt. Es ist mit bezeichnet. Dieser Prozeß ist stationär, wenn seine Varianz endlich ist, da die Bedingung (4.1) - (4.3) verifiziert wird. Zudem ist die Autokovarianzfunktion nicht korreliert: Abbildung 4.7 zeigt zwei simulierte Zeitreihen, die aus Prozessen mit null Mittelwerten und Parametern und -0.7 erzeugt wurden. Der autoregressive Parameter misst die Persistenz vergangener Ereignisse in die aktuellen Werte. Wenn zum Beispiel ein positiver (oder negativer) Schock positiv (oder negativ) für einen längeren Zeitraum wirkt, der um so größer ist, je größer der Wert von ist. Wenn sich die Serie durch den Wechsel in Richtung der Wirkung, dh einen Schock, der sich positiv auf das Moment auswirkt, mehr grob um den Mittelpunkt bewegt, hat dies negative Auswirkungen auf, positiv. Der Prozeß ist immer invertierbar und er ist stationär, wenn der Parameter des Modells in der Region liegt. Um den stationären Zustand zu beweisen, schreiben wir zuerst die in der gleitenden Durchschnittsform durch rekursive Substitution von in (4.14): Abbildung 4.8: Populationskorrelogramme für Prozesse Dies ist eine gewichtete Summe aus vergangenen Innovationen. Die Gewichte hängen vom Wert des Parameters ab: wann, (oder) der Einfluss einer gegebenen Innovation durch die Zeit zunimmt (oder abnimmt). Erwartungen an (4.15), um den Mittelwert des Prozesses zu berechnen, erhalten wir: Angenommen, das Ergebnis ist eine Summe unendlicher Glieder, die für alle Werte nur dann konvergiert, wenn in diesem Fall. Ein ähnliches Problem erscheint, wenn wir das zweite Moment berechnen. Der Beweis kann vereinfacht werden unter der Annahme, dass, das heißt,. Dann ist Varianz: Wiederum geht die Varianz in unendlich bis auf, in welchem ​​Fall. Es ist leicht zu überprüfen, dass sowohl der Mittelwert und die Varianz explodieren, wenn diese Bedingung nicht hält. Die Autokovarianzfunktion eines stationären Prozesses ist daher die Autokorrelationsfunktion für das stationäre Modell: Das heißt, das Korrelogramm zeigt einen exponentiellen Abfall mit positiven Werten immer, wenn positiv und bei negativ positiven Schwingungen if negativ ist (siehe Abbildung 4.8). Weiterhin nimmt die Abklinggeschwindigkeit ab, je größer der Wert ist, desto stärker ist die dynamische Korrelation im Prozess. Schließlich gibt es einen Cutoff in der partiellen Autokorrelationsfunktion bei der ersten Verzögerung. Abbildung 4.9: Populations-Korrelogramme für Prozesse Es kann gezeigt werden, dass der allgemeine Prozess (Box und Jenkins 1976): Ist nur stationär, wenn die Wurzeln der charakteristischen Gleichung des Polynoms außerhalb des Einheitskreises liegen. Der Mittelwert eines stationären Modells ist. Es ist immer invertierbar für alle Werte der Parameter. Its ACF geht auf null exponentiell, wenn die Wurzeln der realen oder mit Sinus-Cosinus-Welle Fluktuationen, wenn sie komplex sind. Its PACF hat einen Cutoff auf der Lag, das heißt, Korrelokolle für komplexere Modelle, wie z. B. die, sind in Abbildung 4.9 zu sehen. Sie sind sehr ähnlich zu den Mustern, wenn die Prozesse reale Wurzeln haben, aber nehmen eine ganz andere Form, wenn die Wurzeln komplex sind (siehe das erste Paar Grafiken von Abbildung 4.9). 4.2.4 Autoregressives Moving Average Modell Das allgemeine (endliche) autoregressive Moving Average Modell der Befehle ist: Was sind stationäre autoregressive (AR), gleitende (MA) und stationäre gemischte (ARMA) Prozesse Stationäre autoregressive (AR) Prozess stationäre autoregressive (AR) Prozesse haben theoretische Autokorrelationsfunktionen (ACFs), die auf Null abfallen, anstatt auf Null zu schneiden. Die Autokorrelationskoeffizienten können sich häufig im Zeichen abwechseln oder ein wellenförmiges Muster zeigen, aber in allen Fällen schwenken sie gegen Null. Im Gegensatz dazu haben AR-Prozesse mit der Ordnung p theoretische partielle Autokorrelationsfunktionen (PACF), die nach der Verzögerung p auf Null abschneiden. (Die Verzögerungslänge des endgültigen PACF Spitze gleich dem AR Ordnung des Prozesses, S..) Gleitender Durchschnitt (MA) verarbeiten, um die theoretischen ACF von MA (gleitender Durchschnitt) verarbeitet mit Ordnung q auf Null nach Verzögerung q abgeschnitten, die MA bestellen Des Prozesses. Allerdings zerfallen ihre theoretischen PACFs gegen Null. (Die Verzögerungslänge des endgültigen ACF Spitze gleich der MA Reihenfolge des Prozesses, q.) Stationäre gemischt (ARMA) Prozess stationär gemischt (ARMA) Prozesse zeigen eine Mischung aus AR und MA Eigenschaften. Sowohl das theoretische ACF als auch das PACF schwanken in Richtung Null. Copyright 2016 Minitab Inc. Alle Rechte Reserved.8.4 gleitender Durchschnittsmodelle als vielmehr vergangene Werte der Prognosevariablen in einer Regression verwenden, ein gleitender Durchschnitt Modell verwendet vergangene Prognosefehler in einer Regressions-ähnliches Modell. Y c et the theta e dots theta e, wobei et weißes Rauschen ist. Wir bezeichnen dies als MA (q) - Modell. Natürlich haben wir nicht beobachten die Werte von et, so ist es nicht wirklich Regression im üblichen Sinne. Beachten Sie, dass jeder Wert von yt gedacht als ein gewichteter gleitender Durchschnitt der letzten Prognosefehler werden kann. Allerdings sollten durchschnittlich Modelle bewegen sich nicht zu verwechseln mit einer durchschnittlichen Glättung bewegen wir uns in Kapitel 6. Ein gleitender Durchschnitt Modell diskutiert wird für die Vorhersage zukünftiger Werte verwendet, während gleitenden Durchschnitt Glättung zur Abschätzung des Trend-Zyklus von früheren Werten verwendet wird. Abbildung 8.6: Zwei Beispiele von Daten aus gleitenden Durchschnitt Modelle mit unterschiedlichen Parametern. Links: MA (1) mit yt 20e t 0,8e t-1. Rechts: MA (2) mit y t e t - e t-1 0,8e t-2. In beiden Fällen ist e t normalerweise weißes Rauschen mit Mittelwert Null und Varianz eins verteilt. Abbildung 8.6 zeigt einige Daten aus einem MA (1) - Modell und einem MA (2) - Modell. Das Ändern der Parameter theta1, dots, thetaq führt zu unterschiedlichen Zeitreihenmustern. Wie bei autoregressive Modelle, wird die Varianz des Fehlerterms et nur den Maßstab der Serie ändern, nicht die Muster. Es ist möglich, jedes stationäre AR (p) - Modell als MA (infty) - Modell zu schreiben. Zum Beispiel wiederholte Substitution, können wir dies für ein AR (1) Modell zeigen: begin yt amp phi1y et amp PHI1 (phi1y e) et amp phi12y phi1 e et amp phi13y phi12e phi1 e et amptext Ende bereitgestellt -1 lt phi1 lt 1 wird der Wert von phi1k kleiner, wenn k größer wird. So schließlich erhalten wir yt et phi1 e phi12 e phi13 e cdots, MA (infty) Prozess. Das umgekehrte Ergebnis gilt, wenn wir den MA-Parametern einige Einschränkungen auferlegen. Dann wird das MA-Modell invertierbar. Das heißt, dass wir alle invertierbaren MA (q) Prozess als AR (infty) Prozess schreiben können. Invertible Modelle sind nicht einfach, damit wir von MA-Modellen auf AR-Modelle umwandeln können. Sie haben auch einige mathematische Eigenschaften, die sie in der Praxis einfacher zu verwenden. Die Invertibilitätsbedingungen sind den stationären Einschränkungen ähnlich. Für ein MA (1) Modell: -1lttheta1lt1. Für ein MA (2) - Modell: -1lttheta2lt1, theta2theta1 gt-1, theta1 - theta2 lt 1. Kompliziertere Bedingungen gelten für qge3. Wieder wird R diese Einschränkungen bei der Schätzung der models. ARMA Unplugged Dies ist der erste Eintrag in unserer Reihe von Unplugged Tutorials, in denen wir in die Details der einzelnen Zeitreihen Modelle, mit denen Sie bereits vertraut sind, Hervorhebung Die zugrunde liegenden Annahmen und die Heimat der Intuitionen hinter sich. In dieser Ausgabe beschäftigen wir uns mit dem ARMA-Modell als Eckpfeiler der Zeitreihenmodellierung. Im Gegensatz zu früheren Analyse-Problemen werden wir hier mit der ARMA-Prozessdefinition beginnen, die Eingaben, Ausgänge, Parameter, Stabilitätsbeschränkungen, Annahmen und schließlich einige Richtlinien für den Modellierungsprozess angeben. Hintergrund Nach Definition ist der auto-regressive gleitende Durchschnitt (ARMA) ein stationärer stochastischer Prozess, der sich aus Summen autoregressiver Excel und gleitender durchschnittlicher Komponenten zusammensetzt. Alternativ, in einer einfachen Formulierung: Annahmen Lassen Sie uns näher auf die Formulierung. Das ARMA-Verfahren ist einfach eine gewichtete Summe der bisherigen Output-Beobachtungen und Schocks mit wenigen Schlüsselannahmen: Was bedeuten diese Annahmen? Ein stochastischer Prozess ist ein Gegenstück eines deterministischen Prozesses, der die Entwicklung einer Zufallsvariablen über die Zeit beschreibt. In unserem Fall ist die Zufallsvariable Das ARMA-Verfahren erfasst nur die serielle Korrelation (d. h. Autokorrelation) zwischen den Beobachtungen. In einfachen Worten faßt der ARMA-Prozeß die Werte der vergangenen Beobachtungen zusammen, nicht ihre quadrierten Werte oder ihre Logarithmen usw. Die Abhängigkeitsordnung höherer Ordnung erfordert einen anderen Prozeß (z. B. ARCH / GARCH, nichtlineare Modelle usw.). Es gibt zahlreiche Beispiele für einen stochastischen Prozess, bei dem vergangene Werte aktuelle beeinflussen. Beispielsweise werden in einem Verkaufsbüro, das laufend Anfragen erhält, manche umsatzgewonnen, teils umsatzvermindert und ein paar in den nächsten Monat verschüttet. Als Ergebnis, in einem bestimmten Monat, einige der verkauften Fälle stammen als Anfragen oder sind Wiederholungen Verkäufe aus den vorherigen Monaten. Was sind die Schocks, Innovationen oder Fehlerbegriffe Das ist schwierige Frage, und die Antwort ist nicht weniger verwirrend. Dennoch können wir es versuchen: In einfachen Worten, ist der Fehler Begriff in einem gegebenen Modell ein catch-all Eimer für alle Variationen, die das Modell nicht erklärt. Noch verloren Nehmen wir ein Beispiel. Für einen Aktienkursprozess gibt es möglicherweise Hunderte von Faktoren, die das Preisniveau aufwärts / abwärts treiben, einschließlich: Dividenden und Split-Ankündigungen Vierteljährliche Ergebnisberichte Fusion und Akquisition (MampA) Aktivitäten Gesetzliche Ereignisse, z. B. Die Drohung von Sammelklagen. Andere Ein Modell, durch Design, ist eine Vereinfachung einer komplexen Realität, so dass, was auch immer verlassen wir außerhalb des Modells automatisch in den Fehler Begriff gebündelt wird. Der ARMA-Prozess geht davon aus, dass der kollektive Effekt all dieser Faktoren mehr oder weniger wie das Gaußsche Rauschen wirkt. Warum kümmern wir uns um vergangene Schocks Anders als ein Regressionsmodell kann das Auftreten eines Stimulus (z. B. Schock) einen Einfluss auf das aktuelle Niveau und eventuell zukünftige Ebenen haben. Zum Beispiel wirkt sich ein Unternehmensereignis (z. B. MampA-Aktivität) auf den Aktienkurs der Underling-Gesellschaften aus, die Änderung dauert jedoch einige Zeit, bis die Marktteilnehmer die verfügbaren Informationen absorbieren / analysieren und entsprechend reagieren. Dies wirft die Frage auf: Dont die Vergangenheit Werte der Ausgabe haben bereits die Schocks Vergangenheit Informationen JA, die Schocks Geschichte ist bereits in den letzten Ausgangspegeln berücksichtigt. Ein ARMA-Modell kann nur als reines autoregressives (AR) Modell dargestellt werden, aber der Speicherbedarf eines solchen Systems in unendlich. Dies ist der einzige Grund, die MA-Komponente einzuschließen: um Speicherplatz zu sparen und die Formulierung zu vereinfachen. Auch hier muss das ARMA-Verfahren stationär sein, damit die marginale (unbedingte) Varianz existiert. Anmerkung: In meiner Diskussion unterscheide ich nicht zwischen der bloßen Abwesenheit einer Einheitswurzel in der charakteristischen Gleichung und der Stationarität des Prozesses. Sie sind verwandt, aber das Fehlen einer Einheitswurzel ist keine Garantie der Stationarität. Dennoch muss die Einheitswurzel innerhalb des Einheitskreises liegen, um genau zu sein. Fazit Lasst uns rekapitulieren, was wir bisher getan haben. Zuerst untersuchten wir einen stationären ARMA Prozess, zusammen mit seiner Formulierung, Eingaben, Annahmen und Speicheranforderungen. Als nächstes haben wir gezeigt, dass ein ARMA-Prozess seine Ausgangswerte (Autokorrelation) und Schocks enthält, die es früher in der aktuellen Ausgabe erfahren hat. Schließlich haben wir gezeigt, dass das stationäre ARMA-Verfahren eine Zeitreihe mit einem stabilen langfristigen Mittelwert und Varianz erzeugt. In unserer Datenanalyse sollten wir, bevor wir ein ARMA-Modell vorschlagen, die Stationaritätsannahme und den endlichen Speicherbedarf verifizieren. Für den Fall, dass die Datenreihe einen deterministischen Trend aufweist, müssen wir sie zuerst entfernen (de-Trend) und dann die Residuen für ARMA verwenden. Für den Fall, dass der Datensatz einen stochastischen Trend (z. B. zufällige Wanderung) oder Saisonalität aufweist, müssen wir ARIMA / SARIMA unterhalten. Schließlich kann das Korrelogramm (d. h. ACF / PACF) verwendet werden, um den Speicherbedarf des Modells zu messen, von dem erwartet wird, daß entweder ACF oder PACF schnell nach einigen Verzögerungen abklingen. Wenn dies nicht der Fall ist, kann dies ein Zeichen der Nichtstationarität oder eines Langzeitmusters (z. B. ARFIMA) sein.

No comments:

Post a Comment