Friday, 13 October 2017

Autoregressiv Integriert Gleitend Durchschnittlich Ppt


Einführung in ARIMA: Nichtseasonal-Modelle ARIMA (p, d, q) Prognosegleichung: ARIMA-Modelle sind in der Theorie die allgemeinste Klasse von Modellen für die Prognose einer Zeitreihe, die gemacht werden kann, um 8220stationary8221 durch differencing (wenn nötig), vielleicht In Verbindung mit nichtlinearen Transformationen wie Logging oder Deflating (falls erforderlich). Eine zufällige Variable, die eine Zeitreihe ist, ist stationär, wenn ihre statistischen Eigenschaften alle über die Zeit konstant sind. Eine stationäre Serie hat keinen Trend, ihre Variationen um ihre Mittel haben eine konstante Amplitude, und es wackelt in einer konsistenten Weise. D. h. seine kurzzeitigen zufälligen Zeitmuster sehen immer in einem statistischen Sinn gleich aus. Die letztere Bedingung bedeutet, daß ihre Autokorrelationen (Korrelationen mit ihren eigenen vorherigen Abweichungen vom Mittelwert) über die Zeit konstant bleiben oder äquivalent, daß sein Leistungsspektrum über die Zeit konstant bleibt. Eine zufällige Variable dieses Formulars kann (wie üblich) als eine Kombination von Signal und Rauschen betrachtet werden, und das Signal (wenn man offensichtlich ist) könnte ein Muster der schnellen oder langsamen mittleren Reversion oder sinusförmigen Oszillation oder eines schnellen Wechsels im Zeichen sein , Und es könnte auch eine saisonale Komponente haben. Ein ARIMA-Modell kann als 8220filter8221 betrachtet werden, das versucht, das Signal vom Rauschen zu trennen, und das Signal wird dann in die Zukunft extrapoliert, um Prognosen zu erhalten. Die ARIMA-Prognosegleichung für eine stationäre Zeitreihe ist eine lineare (d. h. regressionstypische) Gleichung, bei der die Prädiktoren aus Verzögerungen der abhängigen Variablen und Verzögerungen der Prognosefehler bestehen. Das heißt: vorhergesagter Wert von Y eine Konstante undeiner gewichteten Summe von einem oder mehreren neueren Werten von Y und einer gewichteten Summe von einem oder mehreren neueren Werten der Fehler. Wenn die Prädiktoren nur aus verzögerten Werten von Y bestehen, ist es ein reines autoregressives Modell (8220 selbst-regressed8221), das nur ein Spezialfall eines Regressionsmodells ist und mit Standardregressionssoftware ausgestattet werden kann. Zum Beispiel ist ein autoregressives (8220AR (1) 8221) Modell erster Ordnung für Y ein einfaches Regressionsmodell, bei dem die unabhängige Variable nur Y um eine Periode (LAG (Y, 1) in Statgraphics oder YLAG1 in RegressIt hinterlässt). Wenn einige der Prädiktoren die Fehler der Fehler sind, ist es ein ARIMA-Modell, es ist kein lineares Regressionsmodell, denn es gibt keine Möglichkeit, 828last period8217s error8221 als unabhängige Variable anzugeben: Die Fehler müssen auf einer Periodenperiode berechnet werden Wenn das Modell an die Daten angepasst ist. Aus technischer Sicht ist das Problem bei der Verwendung von verzögerten Fehlern als Prädiktoren, dass die Vorhersagen des Modells8217 nicht lineare Funktionen der Koeffizienten sind. Obwohl sie lineare Funktionen der vergangenen Daten sind. So müssen Koeffizienten in ARIMA-Modellen, die verzögerte Fehler enthalten, durch nichtlineare Optimierungsmethoden (8220hill-climbing8221) geschätzt werden, anstatt nur ein Gleichungssystem zu lösen. Das Akronym ARIMA steht für Auto-Regressive Integrated Moving Average. Die Verzögerungen der stationärisierten Serien in der Prognosegleichung werden als quartalspezifische Begriffe bezeichnet, die Verzögerungen der Prognosefehler werden als quadratische Begrenzungsterme bezeichnet, und eine Zeitreihe, die differenziert werden muss, um stationär zu sein, wird als eine quotintegrierte Quotversion einer stationären Serie bezeichnet. Random-Walk - und Random-Trend-Modelle, autoregressive Modelle und exponentielle Glättungsmodelle sind alle Sonderfälle von ARIMA-Modellen. Ein Nicht-Seasonal-ARIMA-Modell wird als ein Quoten-Modell von quaremA (p, d, q) klassifiziert, wobei p die Anzahl der autoregressiven Terme ist, d die Anzahl der für die Stationarität benötigten Nichtseasondifferenzen und q die Anzahl der verzögerten Prognosefehler in Die Vorhersagegleichung. Die Prognosegleichung wird wie folgt aufgebaut. Zuerst bezeichne y die d-te Differenz von Y. Das bedeutet: Beachten Sie, dass die zweite Differenz von Y (der Fall d2) nicht der Unterschied von 2 Perioden ist. Vielmehr ist es der erste Unterschied zwischen dem ersten Unterschied. Welches das diskrete Analog einer zweiten Ableitung ist, d. h. die lokale Beschleunigung der Reihe und nicht deren lokaler Trend. In Bezug auf y. Die allgemeine Prognosegleichung lautet: Hier werden die gleitenden Durchschnittsparameter (9528217s) so definiert, dass ihre Zeichen in der Gleichung nach der von Box und Jenkins eingeführten Konventionen negativ sind. Einige Autoren und Software (einschließlich der R-Programmiersprache) definieren sie so, dass sie stattdessen Pluszeichen haben. Wenn tatsächliche Zahlen in die Gleichung gesteckt sind, gibt es keine Mehrdeutigkeit, aber it8217s wichtig zu wissen, welche Konvention Ihre Software verwendet, wenn Sie die Ausgabe lesen. Oft werden die Parameter dort mit AR (1), AR (2), 8230 und MA (1), MA (2), 8230 usw. bezeichnet. Um das entsprechende ARIMA-Modell für Y zu identifizieren, beginnen Sie mit der Bestimmung der Reihenfolge der Differenzierung (D) die Serie zu stationieren und die Brutto-Merkmale der Saisonalität zu entfernen, vielleicht in Verbindung mit einer abweichungsstabilisierenden Transformation wie Protokollierung oder Entleerung. Wenn Sie an dieser Stelle anhalten und vorhersagen, dass die differenzierte Serie konstant ist, haben Sie nur einen zufälligen Spaziergang oder ein zufälliges Trendmodell ausgestattet. Allerdings können die stationärisierten Serien immer noch autokorrelierte Fehler aufweisen, was darauf hindeutet, dass in der Prognosegleichung auch eine Anzahl von AR-Terme (p 8805 1) und einigen einigen MA-Terme (q 8805 1) benötigt werden. Der Prozess der Bestimmung der Werte von p, d und q, die am besten für eine gegebene Zeitreihe sind, wird in späteren Abschnitten der Noten (deren Links oben auf dieser Seite), aber eine Vorschau auf einige der Typen diskutiert werden Von nicht-seasonalen ARIMA-Modellen, die häufig angetroffen werden, ist unten angegeben. ARIMA (1,0,0) Autoregressives Modell erster Ordnung: Wenn die Serie stationär und autokorreliert ist, kann man sie vielleicht als Vielfaches ihres eigenen vorherigen Wertes und einer Konstante voraussagen. Die prognostizierte Gleichung in diesem Fall ist 8230which ist Y regressed auf sich selbst verzögerte um einen Zeitraum. Dies ist ein 8220ARIMA (1,0,0) constant8221 Modell. Wenn der Mittelwert von Y Null ist, dann wäre der konstante Term nicht enthalten. Wenn der Steigungskoeffizient 981 & sub1; positiv und kleiner als 1 in der Grße ist (er muß kleiner als 1 in der Grße sein, wenn Y stationär ist), beschreibt das Modell das Mittelwiederkehrungsverhalten, bei dem der nächste Periode8217s-Wert 981 mal als vorher vorausgesagt werden sollte Weit weg von dem Mittelwert als dieser Zeitraum8217s Wert. Wenn 981 & sub1; negativ ist, prognostiziert es ein Mittelrückkehrverhalten mit einem Wechsel von Zeichen, d. h. es sagt auch, daß Y unterhalb der mittleren nächsten Periode liegt, wenn es über dem Mittelwert dieser Periode liegt. In einem autoregressiven Modell zweiter Ordnung (ARIMA (2,0,0)) wäre auch ein Y-t-2-Term auf der rechten Seite und so weiter. Abhängig von den Zeichen und Größen der Koeffizienten könnte ein ARIMA (2,0,0) Modell ein System beschreiben, dessen mittlere Reversion in einer sinusförmig oszillierenden Weise stattfindet, wie die Bewegung einer Masse auf einer Feder, die zufälligen Schocks ausgesetzt ist . ARIMA (0,1,0) zufälliger Spaziergang: Wenn die Serie Y nicht stationär ist, ist das einfachste Modell für sie ein zufälliges Spaziergangmodell, das als Begrenzungsfall eines AR (1) - Modells betrachtet werden kann, in dem das autoregressive Koeffizient ist gleich 1, dh eine Serie mit unendlich langsamer mittlerer Reversion. Die Vorhersagegleichung für dieses Modell kann wie folgt geschrieben werden: wobei der konstante Term die mittlere Periodenänderung (dh die Langzeitdrift) in Y ist. Dieses Modell könnte als ein Nicht-Intercept-Regressionsmodell eingebaut werden, in dem die Die erste Differenz von Y ist die abhängige Variable. Da es (nur) eine nicht-seasonale Differenz und einen konstanten Term enthält, wird es als ein quotARIMA (0,1,0) Modell mit constant. quot eingestuft. Das random-walk-without - drift-Modell wäre ein ARIMA (0,1, 0) Modell ohne Konstante ARIMA (1,1,0) differenzierte Autoregressive Modell erster Ordnung: Wenn die Fehler eines zufälligen Walk-Modells autokorreliert werden, kann das Problem eventuell durch Hinzufügen einer Verzögerung der abhängigen Variablen zu der Vorhersagegleichung behoben werden - - ie Durch den Rücktritt der ersten Differenz von Y auf sich selbst um eine Periode verzögert. Dies würde die folgende Vorhersagegleichung ergeben: die umgewandelt werden kann Dies ist ein autoregressives Modell erster Ordnung mit einer Reihenfolge von Nicht-Seasonal-Differenzen und einem konstanten Term - d. h. Ein ARIMA (1,1,0) Modell. ARIMA (0,1,1) ohne konstante, einfache exponentielle Glättung: Eine weitere Strategie zur Korrektur autokorrelierter Fehler in einem zufälligen Walk-Modell wird durch das einfache exponentielle Glättungsmodell vorgeschlagen. Erinnern Sie sich, dass für einige nichtstationäre Zeitreihen (z. B. diejenigen, die geräuschvolle Schwankungen um ein langsam variierendes Mittel aufweisen), das zufällige Wandermodell nicht so gut wie ein gleitender Durchschnitt von vergangenen Werten ausführt. Mit anderen Worten, anstatt die jüngste Beobachtung als die Prognose der nächsten Beobachtung zu nehmen, ist es besser, einen Durchschnitt der letzten Beobachtungen zu verwenden, um das Rauschen herauszufiltern und das lokale Mittel genauer zu schätzen. Das einfache exponentielle Glättungsmodell verwendet einen exponentiell gewichteten gleitenden Durchschnitt von vergangenen Werten, um diesen Effekt zu erzielen. Die Vorhersagegleichung für das einfache exponentielle Glättungsmodell kann in einer Anzahl von mathematisch äquivalenten Formen geschrieben werden. Eine davon ist die so genannte 8220error Korrektur8221 Form, in der die vorherige Prognose in Richtung des Fehlers eingestellt wird, die es gemacht hat: Weil e t-1 Y t-1 - 374 t-1 per Definition, kann dies wie folgt umgeschrieben werden : Das ist eine ARIMA (0,1,1) - ohne Konstante Prognose Gleichung mit 952 1 1 - 945. Dies bedeutet, dass Sie eine einfache exponentielle Glättung passen können, indem Sie es als ARIMA (0,1,1) Modell ohne Konstant und der geschätzte MA (1) - Koeffizient entspricht 1-minus-alpha in der SES-Formel. Erinnern daran, dass im SES-Modell das Durchschnittsalter der Daten in den 1-Perioden-Prognosen 1 945 beträgt. Dies bedeutet, dass sie dazu neigen, hinter Trends oder Wendepunkten um etwa 1 945 Perioden zurückzukehren. Daraus folgt, dass das Durchschnittsalter der Daten in den 1-Periodenprognosen eines ARIMA (0,1,1) - without-constant-Modells 1 (1 - 952 1) beträgt. So, zum Beispiel, wenn 952 1 0.8, ist das Durchschnittsalter 5. Wenn 952 1 sich nähert, wird das ARIMA (0,1,1) - without-konstantes Modell zu einem sehr langfristigen gleitenden Durchschnitt und als 952 1 Nähert sich 0 wird es zu einem zufälligen Walk-ohne-Drift-Modell. Was ist der beste Weg, um Autokorrelation zu korrigieren: Hinzufügen von AR-Terme oder Hinzufügen von MA-Terme In den vorangegangenen zwei Modellen, die oben diskutiert wurden, wurde das Problem der autokorrelierten Fehler in einem zufälligen Walk-Modell auf zwei verschiedene Arten festgelegt: durch Hinzufügen eines verzögerten Wertes der differenzierten Serie Zur Gleichung oder Hinzufügen eines verzögerten Wertes des Prognosefehlers. Welcher Ansatz ist am besten Eine Faustregel für diese Situation, die später noch ausführlicher erörtert wird, ist, dass eine positive Autokorrelation in der Regel am besten durch Hinzufügen eines AR-Termes zum Modell behandelt wird und eine negative Autokorrelation wird meist am besten durch Hinzufügen eines MA Begriff. In geschäftlichen und ökonomischen Zeitreihen entsteht oftmals eine negative Autokorrelation als Artefakt der Differenzierung. (Im Allgemeinen verringert die Differenzierung die positive Autokorrelation und kann sogar einen Wechsel von positiver zu negativer Autokorrelation verursachen.) So wird das ARIMA (0,1,1) - Modell, in dem die Differenzierung von einem MA-Term begleitet wird, häufiger als ein ARIMA (1,1,0) Modell. ARIMA (0,1,1) mit konstanter, einfacher, exponentieller Glättung mit Wachstum: Durch die Implementierung des SES-Modells als ARIMA-Modell erhalten Sie gewisse Flexibilität. Zunächst darf der geschätzte MA (1) - Koeffizient negativ sein. Dies entspricht einem Glättungsfaktor größer als 1 in einem SES-Modell, was in der Regel nicht durch das SES-Modell-Anpassungsverfahren erlaubt ist. Zweitens haben Sie die Möglichkeit, einen konstanten Begriff im ARIMA-Modell einzubeziehen, wenn Sie es wünschen, um einen durchschnittlichen Trend ungleich Null abzuschätzen. Das ARIMA (0,1,1) - Modell mit Konstante hat die Vorhersagegleichung: Die Prognosen von einem Periodenvorhersage aus diesem Modell sind qualitativ ähnlich denen des SES-Modells, mit der Ausnahme, dass die Trajektorie der Langzeitprognosen typischerweise ein Schräge Linie (deren Steigung gleich mu ist) anstatt einer horizontalen Linie. ARIMA (0,2,1) oder (0,2,2) ohne konstante lineare exponentielle Glättung: Lineare exponentielle Glättungsmodelle sind ARIMA-Modelle, die zwei Nichtseason-Differenzen in Verbindung mit MA-Terme verwenden. Der zweite Unterschied einer Reihe Y ist nicht einfach der Unterschied zwischen Y und selbst, der um zwei Perioden verzögert ist, sondern vielmehr der erste Unterschied der ersten Differenz - i. e. Die Änderung der Änderung von Y in der Periode t. Somit ist die zweite Differenz von Y in der Periode t gleich (Y t - Y t - 1) - (Y t - 1 - Y t - 2) Y t - 2Y t - 1 Y t - 2. Eine zweite Differenz einer diskreten Funktion ist analog zu einer zweiten Ableitung einer stetigen Funktion: sie misst die quotaccelerationquot oder quotcurvaturequot in der Funktion zu einem gegebenen Zeitpunkt. Das ARIMA (0,2,2) - Modell ohne Konstante prognostiziert, dass die zweite Differenz der Serie gleich einer linearen Funktion der letzten beiden Prognosefehler ist: die umgeordnet werden kann: wobei 952 1 und 952 2 die MA (1) und MA (2) Koeffizienten Dies ist ein allgemeines lineares exponentielles Glättungsmodell. Im Wesentlichen das gleiche wie Holt8217s Modell, und Brown8217s Modell ist ein Sonderfall. Es verwendet exponentiell gewichtete Bewegungsdurchschnitte, um sowohl eine lokale Ebene als auch einen lokalen Trend in der Serie abzuschätzen. Die langfristigen Prognosen von diesem Modell konvergieren zu einer geraden Linie, deren Hang hängt von der durchschnittlichen Tendenz, die gegen Ende der Serie beobachtet wird. ARIMA (1,1,2) ohne konstante gedämpfte Trend-lineare exponentielle Glättung. Dieses Modell wird in den beiliegenden Folien auf ARIMA-Modellen dargestellt. Es extrapoliert den lokalen Trend am Ende der Serie, aber erhebt es bei längeren Prognosehorizonten, um eine Note des Konservatismus einzuführen, eine Praxis, die empirische Unterstützung hat. Sehen Sie den Artikel auf quotWhy der Damped Trend Workquot von Gardner und McKenzie und die quotGolden Rulequot Artikel von Armstrong et al. für Details. Es ist grundsätzlich ratsam, an Modellen zu bleiben, bei denen mindestens eines von p und q nicht größer als 1 ist, dh nicht versuchen, ein Modell wie ARIMA (2,1,2) zu passen, da dies wahrscheinlich zu Überfüllung führen wird Und quotcommon-factorquot-Themen, die ausführlicher in den Anmerkungen zur mathematischen Struktur von ARIMA-Modellen diskutiert werden. Spreadsheet-Implementierung: ARIMA-Modelle wie die oben beschriebenen sind einfach in einer Kalkulationstabelle zu implementieren. Die Vorhersagegleichung ist einfach eine lineare Gleichung, die sich auf vergangene Werte der ursprünglichen Zeitreihen und vergangene Werte der Fehler bezieht. So können Sie eine ARIMA-Prognosekalkulationstabelle einrichten, indem Sie die Daten in Spalte A, die Prognoseformel in Spalte B und die Fehler (Daten minus Prognosen) in Spalte C speichern. Die Prognoseformel in einer typischen Zelle in Spalte B wäre einfach Ein linearer Ausdruck, der sich auf Werte in vorhergehenden Zeilen der Spalten A und C bezieht, multipliziert mit den entsprechenden AR - oder MA-Koeffizienten, die in anderen Zellen auf der Kalkulationstabelle gespeichert sind. RIMA steht für autoregressive integrierte Moving Average-Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosetechnik, die die zukünftigen Werte einer Serie, die ganz auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose, die mindestens 40 historische Datenpunkte erfordert. Es funktioniert am besten, wenn Ihre Daten ein stabiles oder konsistentes Muster im Laufe der Zeit mit einem Minimum an Ausreißern aufweisen. Manchmal genannt Box-Jenkins (nach den ursprünglichen Autoren) ist ARIMA in der Regel exponentiellen Glättungstechniken überlegen, wenn die Daten vernünftig lang sind und die Korrelation zwischen vergangenen Beobachtungen stabil ist. Wenn die Daten kurz oder stark flüchtig sind, kann eine Glättungsmethode besser funktionieren. Wenn Sie nicht mindestens 38 Datenpunkte haben, sollten Sie eine andere Methode als ARIMA beachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarity impliziert, dass die Serie auf einem ziemlich konstanten Niveau im Laufe der Zeit bleibt. Wenn ein Trend existiert, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen über die Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen in der Saisonalität im Laufe der Zeit dramatischer werden. Ohne dass diese stationären Bedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten eine Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Das Unterscheiden ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu verwandeln. Dies geschieht durch Subtraktion der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Umwandlung nur einmal zu einer Serie erfolgt, sagst du, dass die Daten zuerst differenziert wurden. Dieser Prozess eliminiert im Wesentlichen den Trend, wenn Ihre Serie mit einer konstanten Rate wächst. Wenn es mit zunehmender Rate wächst, können Sie das gleiche Verfahren anwenden und die Daten wieder unterscheiden. Ihre Daten würden dann zweiter differenziert. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe über die Zeit verhält. Genauer gesagt, es misst, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander mit der Zeit miteinander korreliert sind. Die Anzahl der Perioden auseinander ist in der Regel die Verzögerung genannt. Beispielsweise misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der ganzen Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten zwei Perioden voneinander getrennt sind. Autokorrelationen können von 1 bis -1 reichen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe bei -1 eine hohe negative Korrelation impliziert. Diese Maßnahmen werden am häufigsten durch grafische Darstellungen als Korrelate ausgewertet. Ein Korrektogramm zeichnet die Autokorrelationswerte für eine gegebene Serie bei verschiedenen Verzögerungen auf. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion von sogenannten autoregressiven und gleitenden Durchschnittsparametern zu beschreiben. Diese werden als AR-Parameter (autoregessive) und MA-Parameter (gleitende Durchschnitte) bezeichnet. Ein AR-Modell mit nur 1 Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihe unter Untersuchung A (1) der autoregressive Parameter der Ordnung 1 X (t-1) die Zeitreihe verzögerte 1 Periode E (T) der Fehlerterm des Modells Dies bedeutet einfach, dass jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der Schätzwert von A (1) 0,30 betrug, würde der aktuelle Wert der Reihe mit 30 seines Wertes 1 verknüpft sein. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Beispielsweise ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2), plus einige zufällige Fehler E (t). Unser Modell ist jetzt ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell heißt ein gleitendes Durchschnittsmodell. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept hinter ihnen ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t nur auf die zufälligen Fehler geschieht, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstelle von X (t-1), X ( T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Term kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Ausdruck B (1) heißt MA der Ordnung 1. Das negative Vorzeichen vor dem Parameter wird nur für Konvention verwendet und wird üblicherweise ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem zufälligen Fehler in der vorherigen Periode E (t-1) und dem aktuellen Fehlerterm E (t) zusammenhängt. Wie bei autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf Strukturen höherer Ordnung ausgedehnt werden, die unterschiedliche Kombinationen und gleitende Durchschnittslängen abdecken. Die ARIMA-Methodik ermöglicht auch die Erstellung von Modellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter umfassen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für ein komplizierteres Vorhersage-Tool macht, kann die Struktur tatsächlich die Serie besser simulieren und eine genauere Prognose erzeugen. Pure Modelle implizieren, dass die Struktur nur aus AR - oder MA-Parametern besteht - nicht beides. Die von diesem Ansatz entwickelten Modelle werden in der Regel als ARIMA-Modelle bezeichnet, weil sie eine Kombination von autoregressiven (AR), Integration (I) - beziehen sich auf den umgekehrten Prozess der Differenzierung, um die Prognose zu produzieren, und gleitende durchschnittliche (MA) Operationen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies stellt die Reihenfolge der autoregressiven Komponenten (p), die Anzahl der differenzierenden Operatoren (d) und die höchste Ordnung des gleitenden Durchschnittsterms dar. Zum Beispiel bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer gleitenden durchschnittlichen Komponente erster Ordnung haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Kommissionierung der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation - i. e. Wie viele AR - und MA-Parameter enthalten sind. Dies ist, was viel von Box-Jenkings 1976 dem Identifizierungsprozess gewidmet war. Es hing von der grafischen und numerischen Auswertung der Probenautokorrelation und partiellen Autokorrelationsfunktionen ab. Nun, für Ihre Basismodelle ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Art und Weise aussehen. Wenn du aber in der Komplexität stehst, sind die Muster nicht so leicht zu erkennen. Um die Sache schwieriger zu machen, stellt Ihre Daten nur eine Stichprobe des zugrunde liegenden Prozesses dar. Dies bedeutet, dass Abtastfehler (Ausreißer, Messfehler usw.) den theoretischen Identifikationsvorgang verzerren können. Das ist der Grund, warum traditionelle ARIMA-Modellierung eine Kunst und nicht eine Wissenschaft ist. Autoregressive Integrated Moving Average (ARIMA) Modelle PowerPoint PPT Präsentation - Prognosetechniken basierend auf exponentieller Glättung Allgemeine Annahme für die oben genannten Modelle: mal Seriendaten werden als Summe von zwei verschiedenen dargestellt Komponenten (deterministc amp random) Zufallsrauschen, erzeugt durch unabhängige Schocks zum Prozess In der Praxis: Aufeinanderfolgende Beobachtungen zeigen serielle Abhängigkeit - ARIMA Modelle sind auch bekannt als die Box-Jenkins Methodik sehr beliebt. Geeignet für fast alle Zeitreihe amp viele Male generieren genauere Prognosen als andere Methoden. Wenn es nicht genügend Daten gibt, können sie bei der Prognose nicht besser sein als die Zerlegung oder exponentielle Glättungstechniken. Empfohlene Anzahl von Beobachtungen mindestens 30-50 - Schwache Stationarität erforderlich - Gleicher Abstand zwischen den Intervallen Lineare Modelle für Zeitreihen - Es handelt sich um einen Prozess, der den Eingang xt in den Ausgang yt umwandelt. Die Umwandlung beinhaltet vergangene, aktuelle und zukünftige Werte der Eingabe In Form einer Summation mit unterschiedlichen Gewichten Zeitinvariante hängt nicht von der Zeit ab Physikalisch realisierbar: Der Ausgang ist eine lineare Funktion der aktuellen und vergangenen Werte des Eingangs In linearen Filtern: Die Stationarität der Eingangszeitreihe spiegelt sich auch im Ausgang wieder Eine Zeitreihe, die diese Bedingungen erfüllt, neigt dazu, zu ihrem Mittel zurückzukehren und um diesen Mittelwert mit konstanter Varianz zu schwanken. Anmerkung: Strenge Stationarität erfordert neben den Bedingungen der schwachen Stationarität, dass die Zeitreihen weitere Bedingungen über ihre Verteilung einschließlich Schiefe, Kurtose etc. erfüllen müssen. - Nehmen Sie Snaphots des Prozesses zu verschiedenen Zeitpunkten amp beobachten ihr Verhalten: wenn ähnlich Im Laufe der Zeit dann stationäre Zeitreihe - ein starker Verstärker langsam sterben ACF schlägt Abweichungen von der Stationarität Unendlich Bewegen Durchschnittliche Eingabe xt stationär der lineare Prozess mit weißen Rauschen Zeitreihe tt unabhängige zufällige Schocks, mit E (t) 0 Amp Infinite gleitenden Durchschnitt Der unendliche gleitenden Durchschnitt Dient als allgemeine Klasse von Modellen für jede stationäre Zeitreihe THEOREM (Welt 1938): Jede keine deterministische schwach stationäre Zeitreihe kann als eine stationäre Zeitreihe dargestellt werden, die als die gewichtete Summe der gegenwärtigen und vergangenen Störungen gesehen werden kann. Unendlicher gleitender Durchschnitt : Unpraktisch, um die unendlichen Gewichte zu schätzen Nutzlos in der Praxis außer für spezielle Fälle: i. Finite Order Gleitender Durchschnitt (MA) Modelle. Gewichte auf 0 gesetzt, mit Ausnahme einer endlichen Anzahl von Gewichten ii. Finite Order autoregressive (AR) Modelle: Gewichte werden mit nur einer endlichen Anzahl von Parametern erzeugt iii. Eine Mischung aus endgültiger Ordnung autoregressiver Ampere, die durchschnittliche Modelle (ARMA) endlich Ordnung Moving Average (MA) Prozess Bewegen durchschnittlichen Prozess der Ordnung q (MA (q)) MA (q). Immer stationär, unabhängig von den Werten der Gewichte Erwarteter Wert von MA (q) Abweichung von MA (q) Autokovarianz von MA (q) Autocorelation von MA (q) Hilft bei der Identifizierung des MA-Modells seine entsprechende Ordnung, da seine Abschnitte nach der Verzögerung kr liegen (K) nicht immer null, nachdem die Verzögerung q im Absolutwert nach der Verzögerung sehr klein wird. Erster Ordnung Bewegender Durchschnittsprozess MA (1) Autokovarianz von MA (q) Autocorelation von MA (q) Mittlere Amperevarianz Starke Kurze Läufe, wo aufeinanderfolgende Beobachtungen dazu neigen, sich gegenseitig zu beobachten Beobachtungen nacheinander oszillieren Zweite Ordnung Moving Average MA (2) Prozess Autokovarianz von MA (q) Autocorelation von MA (q) Die Probe ACF schneidet nach Verzögerung ab 2. Finite Order Autoregressive Process Worlds Theorem: Unendliche Anzahl von Gewichten, nicht hilfreich bei der Modellierung Ampere Vorhersage Finite Ordnung MA Prozess: Schätzen Sie eine endliche Anzahl von Gewichten, setzen Sie die andere gleich Null Älteste Störung veraltet für die nächste Beobachtung nur endliche Anzahl von Störungen tragen zum aktuellen Wert der Zeitreihe Take Alle Störungen der Vergangenheit berücksichtigen. Verwenden autoregressive Modelle schätzen unendlich viele Gewichte, die einem deutlichen Muster mit einer kleinen Anzahl von Parametern folgen. Erstes Autoregressives Verfahren, AR (1) Angenommen. Die Beiträge der Störungen, die in der Vergangenheit weit sind, sind im Vergleich zu den jüngsten Störungen, die der Prozeß erlebt hat, klein, um die abnehmenden Größen der Beiträge der Störungen der Vergangenheit zu reflektieren, und zwar durch Satz von unendlich vielen Gewichten in absteigenden Größen. Wie zB exponentielles Zerfallsmuster Die Gewichte in den Störungen, die von der aktuellen Störung ausgehen und in der Vergangenheit zurückgehen: Autorekorrektiver Prozess AR (1) AR (1) stationär, wenn Autokovarianzfunktion AR (1) Autokorrelationsfunktion AR (1) Die ACF Für ein stationäres AR (1) - Verfahren hat eine exponentielle Zerfallsform Die Beobachtungen zeigen Aktualisierungsbewegungen Zweiter Satz Autoregressiver Prozess, AR (2) Dieses Modell kann im unendlichen MA-Formular dargestellt werden, um die Bedingungen der Stationarität für yt in Bezug auf 1amp 2 zu liefern Berechnen Sie die Gewichte Die Befriedigung der linearen Differenzengleichung zweiter Ordnung Die Lösung. In Bezug auf die 2 Wurzeln m1 und m2 aus der Bedingung der Stationarität für komplexe Konjugate aib: AR (2) unendliche MA-Darstellung: A. Lösen Sie die Yule-Walker-Gleichungen rekursiv B. Allgemeine Lösung Erhalten Sie sie durch die Wurzeln m1 amp m2, Polynom Fall I: m1, m2 unterschiedliche Wurzeln c1, c2 Konstanten: aus (0), (1) ACF Form: Mischung aus 2 exponentiell zerfallenden Terme Es kann als ein angepasstes AR (1) Modell gesehen werden, für das a Ein einzelner exponentieller Zerfallsausdruck wie in der AR (1) reicht nicht aus, um das Muster in der ACF zu beschreiben, und somit wird ein zusätzlicher Zerfallsausdruck durch Einführen des zweiten Verzögerungsterms yt-2 Fall II: m1, m2 Komplexkonjugate in der Form hinzugefügt C1, c2: besondere Konstanten ACF Form: feuchter Sinus-Dämpfungsfaktor R Frequenzperiode Fall III: eine reale Wurzel m0 m1 m2m0 ACF Form: exponentielles Zerfall Muster AR (2) Prozess: yt40.4yt-10.5yt-2et Wurzeln des Polynoms: Echte ACF-Form: Mischung aus 2 exponentiellen Zerfallsbegriffen AR (2) Prozess: yt40.8yt-1-0.5yt-2et Wurzeln des Polynoms: komplexe Konjugate ACF-Form: gedämpftes sinusförmiges Verhalten Allgemeines Autoregressives Verfahren, AR (p) Betrachten wir ein pth Bestellen AR-Modell Wenn die Wurzeln des Polynoms kleiner als 1 im absoluten Wert sind AR (P) absolute summierbare unendliche MA-Darstellung Unter dem vorherigen Zustand Gewichte der zufälligen Schocks Für stationäre AR (p) p-ter Ordnung lineare Differenzgleichungen - erfüllt die Yule - Walker-Gleichungen - ACF finden sich aus den p Wurzeln des zugehörigen Polynoms zB Deutliche Verstärkerwurzeln. - Im Allgemeinen sind die Wurzeln nicht echt ACF. Mischung aus exponentiellem Zerfall und gedämpftem Sinusoid MA (q) Prozess: nützliches Werkzeug zur Identifizierung der Reihenfolge der Prozessabschnitte nach Verzögerung k AR (p) Prozess: Gemisch aus exponentiellen Zerfallsverstärker gedämpften sinusförmigen Ausdrücken Fehlt die Information über die Reihenfolge der AR-Teilautokorrelation Funktion drei zufällige Variablen X, Y, Z amp Einfache Regression von X auf Z amp Y auf Z Die Fehler werden aus der partiellen Korrelation zwischen X amp Y nach der Einstellung für Z erhalten: Die Korrelation zwischen X amp Y Partielle Korrelation kann als Korrelation gesehen werden Zwischen zwei Variablen nach Einstellung eines gemeinsamen Faktors, der sie beeinflusst Partielle Autokorrelationsfunktion (PACF) zwischen yt amp yt-k Die Autokorrelation zwischen yt amp yt-k nach der Einstellung für yt-1, yt-2, yt-k AR (p ) Prozess: PACF zwischen yt amp yt-k für kgtp sollte gleich Null eine stationäre Zeitreihe yt nicht unbedingt ein AR-Prozess Für jeden festen Wert k. Die Yule-Walker-Gleichungen für die ACF eines AR (p) - Verfahrens Für jeden gegebenen k, k 1,2 wird der letzte Koeffizient der partielle Autokorrelationskoeffizient des Prozesses bei der Verzögerung k genannt. Identifizieren Sie die Reihenfolge eines AR-Prozesses unter Verwendung der PACF

No comments:

Post a Comment