Thursday 17 August 2017

Moving Average Modell Autokorrelationsfunktion


Zweck: Check Randomness Autokorrelation Plots (Box und Jenkins, S. 28-32) sind ein häufig verwendetes Werkzeug für die Überprüfung der Zufälligkeit in einem Datensatz. Diese Zufälligkeit wird durch die Berechnung von Autokorrelationen für Datenwerte bei variierenden Zeitverzögerungen ermittelt. Wenn zufällig, sollten solche Autokorrelationen in der Nähe von Null für alle und alle Zeitverzögerung Trennungen. Wenn es nicht zufällig ist, dann wird eine oder mehrere der Autokorrelationen signifikant nicht null. Darüber hinaus werden Autokorrelationsdiagramme in der Modellidentifikationsstufe für Box-Jenkins autoregressive, gleitende durchschnittliche Zeitreihenmodelle verwendet. Autokorrelation ist nur ein Maß der Zufälligkeit Beachten Sie, dass unkorreliert nicht unbedingt zufällig bedeutet. Daten, die eine signifikante Autokorrelation aufweisen, sind nicht zufällig. Daten, die keine signifikante Autokorrelation aufweisen, können jedoch auf andere Weise noch nicht zufällig sein. Autokorrelation ist nur ein Maß der Zufälligkeit. Im Rahmen der Modellvalidierung (das ist die primäre Art der Zufälligkeit, die wir im Handbuch dokumentieren), ist die Überprüfung auf Autokorrelation typischerweise ein ausreichender Test der Zufälligkeit, da die Residuen aus einem schlechten Anpassungsmodell dazu neigen, nicht-subtile Zufälligkeit anzuzeigen. Allerdings erfordern einige Anwendungen eine strengere Bestimmung der Zufälligkeit. In diesen Fällen wird eine Batterie von Tests, die eine Überprüfung der Autokorrelation beinhalten können, angewendet, da Daten in vielen verschiedenen und oftmals subtilen Weisen nicht zufällig sein können. Ein Beispiel dafür, wo eine strengere Überprüfung auf Zufälligkeit erforderlich ist, wäre bei der Prüfung von Zufallszahlengeneratoren. Beispiel-Plot: Autokorrelationen sollten nahezu null für Zufälligkeit sein. Dies ist in diesem Beispiel nicht der Fall und somit fehlt die Zufälligkeitsannahme. Diese Stichprobenautokorrelationskurve zeigt, dass die Zeitreihe nicht zufällig ist, sondern vielmehr eine hohe Autokorrelation zwischen benachbarten und nahezu benachbarten Beobachtungen aufweist. Definition: r (h) versus h Autokorrelationsdiagramme werden durch vertikale Achse gebildet: Autokorrelationskoeffizient, wobei C h die Autokovarianzfunktion ist und C 0 die Varianzfunktion ist. Beachten Sie, dass R h zwischen -1 und 1 liegt. Beachten Sie, dass einige Quellen die verwenden können Folgende Formel für die Autokovarianz-Funktion Obwohl diese Definition weniger Bias aufweist, hat die (1 N) - Formulierung einige wünschenswerte statistische Eigenschaften und ist die am häufigsten in der Statistikliteratur verwendete Form. Siehe Seite 20 und 49-50 in Chatfield für Details. Horizontale Achse: Zeitverzögerung h (h 1, 2, 3.) Die obige Zeile enthält auch mehrere horizontale Referenzlinien. Die Mittellinie ist auf Null. Die anderen vier Zeilen sind 95 und 99 Vertrauensbänder. Beachten Sie, dass es zwei verschiedene Formeln für die Erzeugung der Vertrauensbänder gibt. Wenn die Autokorrelationskurve zum Testen auf Zufälligkeit verwendet wird (dh es gibt keine Zeitabhängigkeit in den Daten), wird die folgende Formel empfohlen: wobei N die Stichprobengröße ist, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha ) Ist das Signifikanzniveau. In diesem Fall haben die Vertrauensbänder eine feste Breite, die von der Stichprobengröße abhängt. Dies ist die Formel, die verwendet wurde, um die Vertrauensbänder in der obigen Handlung zu erzeugen. Autokorrelations-Plots werden auch in der Modellidentifikationsstufe für die Montage von ARIMA-Modellen verwendet. In diesem Fall wird ein gleitendes Durchschnittsmodell für die Daten angenommen und die folgenden Konfidenzbänder sollen erzeugt werden: wobei k die Verzögerung ist, N die Stichprobengröße ist, z die kumulative Verteilungsfunktion der Standardnormalverteilung und (alpha) ist Das Signifikanzniveau. In diesem Fall steigen die Vertrauensbänder mit zunehmender Verzögerung an. Das Autokorrelationsdiagramm kann Antworten auf die folgenden Fragen liefern: Sind die Daten zufällig eine Beobachtung im Zusammenhang mit einer angrenzenden Beobachtung Ist eine Beobachtung im Zusammenhang mit einer Beobachtung zweimal entfernt (usw.) Ist die beobachtete Zeitreihe weißes Rauschen ist die beobachtete Zeitreihe sinusförmig Ist die beobachtete Zeitreihe autoregressiv Was ist ein geeignetes Modell für die beobachtete Zeitreihe Ist das Modell gültig und ausreichend Ist die Formel s ssqrt gültig Wichtigkeit: Sicherstellung der Gültigkeit von Engineering-Schlussfolgerungen Zufälligkeit (zusammen mit festem Modell, fester Variation und fester Verteilung) ist Eine der vier Annahmen, die typischerweise allen Messprozessen zugrunde liegen. Die Zufälligkeitsannahme ist aus folgenden drei Gründen von entscheidender Bedeutung: Die meisten statistischen Standardtests sind abhängig von der Zufälligkeit. Die Gültigkeit der Testfolgerungen steht in direktem Zusammenhang mit der Gültigkeit der Zufälligkeitsannahme. Viele häufig verwendete statistische Formeln hängen von der Zufälligkeitsannahme ab, wobei die häufigste Formel die Formel für die Bestimmung der Standardabweichung des Stichprobenmittels ist: wobei s die Standardabweichung der Daten ist. Obwohl schwer verwendet, sind die Ergebnisse aus der Verwendung dieser Formel von keinem Wert, wenn die Zufälligkeitsannahme gilt. Für univariate Daten ist das Standardmodell Wenn die Daten nicht zufällig sind, ist dieses Modell falsch und ungültig, und die Schätzungen für die Parameter (wie die Konstante) werden unsinnig und ungültig. Kurz gesagt, wenn der Analytiker nicht auf Zufälligkeit prüft, dann wird die Gültigkeit vieler der statistischen Schlussfolgerungen verdächtig. Die Autokorrelationskurve ist eine hervorragende Möglichkeit, auf solche Zufälligkeit zu prüfen.2.2 Partielle Autokorrelationsfunktion (PACF) Druckerfreundliche Version Im Allgemeinen ist eine partielle Korrelation eine bedingte Korrelation. Es ist die Korrelation zwischen zwei Variablen unter der Annahme, dass wir die Werte eines anderen Satzes von Variablen kennen und berücksichtigen. Zum Beispiel betrachten wir einen Regressionskontext, in dem y Antwortvariable und x 1. X 2 Und x 3 sind Prädiktorvariablen. Die partielle Korrelation zwischen y und x 3 ist die Korrelation zwischen den ermittelten Variablen unter Berücksichtigung, wie sowohl y als auch x 3 mit x 1 und x 2 zusammenhängen. In der Regression konnte diese partielle Korrelation durch Korrelation der Residuen aus zwei verschiedenen Regressionen gefunden werden: (1) Regression, in der wir y aus x 1 und x 2 vorhersagen. (2) Regression, in der wir x 3 aus x 1 und x 2 vorhersagen. Grundsätzlich korrelieren wir die Teile von y und x 3, die nicht durch x 1 und x 2 vorhergesagt werden. In formaler Weise können wir die soeben beschriebene partielle Korrelation definieren. Beachten Sie, dass hier auch die Parameter eines Regressionsmodells interpretiert werden. Denken Sie an den Unterschied zwischen der Interpretation der Regressionsmodelle: (y beta0 beta1x2 text y beta0beta1xbeta2x2) Im ersten Modell kann man 1 als lineare Abhängigkeit zwischen x 2 und y interpretieren. Im zweiten Modell würde 2 als die lineare Abhängigkeit zwischen x 2 und y mit der Abhängigkeit zwischen x und y interpretiert werden, die bereits berücksichtigt wurde. Für eine Zeitreihe ist die partielle Autokorrelation zwischen x t und x t-h als die bedingte Korrelation zwischen x t und x t-h definiert. Bedingt von x t-h1. X t-1 Die Menge der Beobachtungen, die zwischen den Zeitpunkten t und th kommen. Die zweite Autokorrelation wird so gewählt, dass sie der Autokorrelation der ersten Ordnung entspricht. Die zweite Ordnung (lag) partielle Autokorrelation ist Dies ist die Korrelation zwischen Werten zwei Zeitperioden auseinander abhängig von der Kenntnis des Wertes dazwischen. (Übrigens werden die beiden Abweichungen im Nenner einander in einer stationären Reihe gleich sein.) Die 3. Ordnung (lag) partielle Autokorrelation ist Und so weiter, für jede Verzögerung. Typischerweise werden Matrixmanipulationen, die mit der Kovarianzmatrix einer multivariaten Verteilung zu tun haben, verwendet, um Schätzungen der partiellen Autokorrelationen zu bestimmen. Einige nützliche Fakten über PACF - und ACF-Muster Die Identifizierung eines AR-Modells wird am besten mit dem PACF durchgeführt. Für ein AR-Modell schließt sich der theoretische PACF an der Reihenfolge des Modells ab. Die Phrase schließt aus, dass in der Theorie die Teilautokorrelationen gleich 0 über diesen Punkt hinaus sind. Anders ausgedrückt, die Anzahl der Nicht-Null-Teilautokorrelationen gibt die Reihenfolge des AR-Modells an. In der Reihenfolge des Modells meinen wir die extremste Verzögerung von x, die als Prädiktor verwendet wird. Beispiel In Lektion 1.2 haben wir ein AR (1) - Modell für eine Zeitreihe von jährlichen Zahlen von weltweiten Erdbeben mit einer seismischen Größenordnung von mehr als 7,0 identifiziert. Im Folgenden ist die Probe PACF für diese Serie. Beachten Sie, dass der erste Verzögerungswert statistisch signifikant ist, während partielle Autokorrelationen für alle anderen Verzögerungen nicht statistisch signifikant sind. Dies schlägt ein mögliches AR (1) Modell für diese Daten vor. Die Identifizierung eines MA-Modells ist oft am besten mit dem ACF und nicht mit dem PACF. Für ein MA-Modell schaltet sich die theoretische PACF nicht ab, sondern verjüngt sich in gewisser Weise auf 0. Ein klareres Muster für ein MA-Modell ist im ACF. Der ACF hat keine Autokorrelationen ohne Nullen, die nur an den Modellen beteiligt sind. Lektion 2.1 enthielt das folgende Beispiel ACF für eine simulierte MA (1) Serie. Beachten Sie, dass die erste Verzögerungsautokorrelation statistisch signifikant ist, während alle nachfolgenden Autokorrelationen nicht vorhanden sind. Dies deutet auf ein mögliches MA (1) Modell für die Daten hin. Theorie beachten. Das für die Simulation verwendete Modell war x t 10 wt 0,7 w t-1. In der Theorie ist die erste Verzögerungsautokorrelation 1 (1 1 2) .7 (1.7 2) .4698 und Autokorrelationen für alle anderen Verzögerungen 0. Das zugrundeliegende Modell, das für die MA (1) Simulation in Lektion 2.1 verwendet wurde, betrug xt 10 wt 0,7 wt -1 Im Folgenden ist die theoretische PACF (partielle Autokorrelation) für dieses Modell. Beachten Sie, dass sich das Muster allmählich auf 0 verjüngt. R Hinweis: Der gerade dargestellte PACF wurde in R mit diesen beiden Befehlen erstellt: ma1pacf ARMAacf (ma c (.7), lag. max 36, pacfTRUE) plot (ma1pacf, typeh, main Theoretical PACF von MA (1) mit theta 0.7) Navigation2.1 Bewegliche durchschnittliche Modelle (MA-Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und gleitende durchschnittliche Ausdrücke enthalten. In Woche 1 lernten wir einen autoregressiven Begriff in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Zum Beispiel ist ein lag 1 autoregressiver Term x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende durchschnittliche Begriffe. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Lassen Sie (nt N (0, sigma2w)), was bedeutet, dass die wt identisch, unabhängig verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das mit MA (1) bezeichnete 1-stufige gleitende Durchschnittsmodell ist (xt mu wt theta1w) Das durchschnittliche Modell der 2. Ordnung, das mit MA (2) bezeichnet wird, ist (xt mu wt theta1w theta2w) , Bezeichnet mit MA (q) ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Bedingungen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (unsquared) Terme in Formeln für ACFs und Abweichungen klappt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Zeichen verwendet wurden, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Zeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Beispiel ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) Modell. Für interessierte Schüler sind die Beweise dieser Eigenschaften ein Anhang zu diesem Handzettel. Beispiel 1 Angenommen, ein MA (1) - Modell ist x t 10 wt .7 w t-1. Wo (wt Overset N (0,1)). So ist der Koeffizient 1 0,7. Die theoretische ACF ist gegeben durch eine Handlung dieses ACF folgt. Die gerade dargestellte Handlung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis wird eine Probe gewöhnlich ein solches klares Muster liefern. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1). Für diese Simulation folgt eine Zeitreihenfolge der Stichprobendaten. Wir können nicht viel von dieser Handlung erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Wir sehen eine Spike bei Verzögerung 1, gefolgt von allgemein nicht signifikanten Werten für die Vergangenheit 1. Beachten Sie, dass die Stichprobe ACF nicht mit dem theoretischen Muster des zugrundeliegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sind Eine andere Probe hätte eine etwas andere Probe ACF, die unten gezeigt wird, würde aber wahrscheinlich die gleichen breiten Merkmale haben. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) Modell Für das MA (2) Modell sind die theoretischen Eigenschaften die folgenden: Beachten Sie, dass die einzigen Werte ungleich Null im theoretischen ACF für die Verzögerungen 1 und 2 sind. Autokorrelationen für höhere Verzögerungen sind 0 So gibt ein Beispiel ACF mit signifikanten Autokorrelationen bei den Verzögerungen 1 und 2, aber nicht signifikante Autokorrelationen für höhere Verzögerungen ein mögliches MA (2) - Modell an. Iid N (0,1). Die Koeffizienten sind 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, hat die theoretische ACF nur Nullwerte nur bei den Verzögerungen 1 und 2. Werte der beiden Nicht-Null-Autokorrelationen sind eine Auftragung der theoretischen ACF folgt. Wie fast immer der Fall ist, verhalten sich die Probendaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Probenwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wo w t iid N (0,1). Die Zeitreihenfolge der Daten folgt. Wie bei der Zeitreihen-Plot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Stichprobe ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei den Verzögerungen 1 und 2, gefolgt von nicht signifikanten Werten für andere Verzögerungen. Beachten Sie, dass die Stichprobe ACF aufgrund des Stichprobenfehlers nicht genau mit dem theoretischen Muster übereinstimmt. ACF für allgemeine MA (q) Modelle Eine Eigenschaft von MA (q) - Modellen im Allgemeinen ist, dass es für die ersten q-Verzögerungen und Autokorrelationen 0 für alle Verzögerungen gt q ungleichen Autokorrelationen gibt. Nicht-Eindeutigkeit der Verbindung zwischen den Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) Modell, für jeden Wert von 1. Die reziproke 1 1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0,5 für 1. Und dann 1 (0,5) 2 für 1 verwenden. Youll bekommen (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung zu erfüllen, die Invertierbarkeit genannt wird. Wir beschränken die MA (1) - Modelle auf Werte mit einem absoluten Wert kleiner als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, wohingegen 1 10,5 2 nicht. Invertierbarkeit von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch konvergieren, verstehen wir, dass die AR-Koeffizienten auf 0 abnehmen, wenn wir uns in der Zeit zurückziehen. Invertierbarkeit ist eine Beschränkung, die in die Zeitreihen-Software programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Terme abzuschätzen. Es ist nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertierbarkeitsbeschränkung für MA (1) Modelle finden Sie im Anhang. Fortgeschrittene Theorie Hinweis. Für ein MA (q) Modell mit einem bestimmten ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten Werte haben, so daß die Gleichung 1- 1 y - ist. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 haben wir die theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1 Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die R-Befehle, die verwendet wurden, um das theoretische ACF zu zeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens Lags, die von 0 bis 10 reicht (1) mit theta1 0,7) abline (h0) fügt eine horizontale Achse zum Plot hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Benannte acfma1 (unsere auswahl des namens). Der Plotbefehl (der 3. Befehl) zeichnet sich gegen die ACF-Werte für die Verzögerungen 1 bis 10 aus. Der ylab-Parameter markiert die y-Achse und der Hauptparameter setzt einen Titel auf den Plot. Um die numerischen Werte des ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und die Plots wurden mit den folgenden Befehlen durchgeführt. Xcarima. sim (n150, list (mac (0.7))) simuliert n 150 Werte aus MA (1) xxc10 fügt 10 hinzu, um Mittel zu machen 10. Simulation standardmäßig 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurden die theoretischen ACF des Modells xt 10 Gew .-% w t-1 .3 w t-2 aufgetragen. Und dann simuliert n 150 Werte aus diesem Modell und plotted die Probe Zeitreihen und die Probe ACF für die simulierten Daten. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 plot (Verzögerungen, acfma2, xlimc (1,10), ylabr, typeh, Haupt-ACF für MA (2) mit theta1 0,5, Thex20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) xxc10 plot (x, typeb, main simulierte MA (2) Serie) acf (x, xlimc (1,10), MainACF für simulierte MA (2) Daten) Anhang: Nachweis der Eigenschaften von MA (1) Für interessierte Studierende sind hier Beispiele für theoretische Eigenschaften des MA (1) Modells. Abweichung: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1, der vorherige Ausdruck 1 w 2. Für irgendwelche h 2 ist der vorherige Ausdruck 0 Der Grund dafür ist, dass durch die Definition der Unabhängigkeit der Gew. E (w k w j) 0 für jedes k j Da ferner wt den Mittelwert 0, E (w j w j) E (w j 2) w 2 hat. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um das oben angegebene ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als ein unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so dass die AR-Koeffizienten zu 0 konvergieren, wenn wir uns unendlich zurück in der Zeit bewegen. Nun zeigen Sie die Invertierbarkeit für das Modell MA (1). Dann ersetzen wir die Beziehung (2) für w t-1 in Gleichung (1) (3) (zt wt theta1 (z - θaw) wt theta1z - θ2w) Zur Zeit t-2. Gleichung (2) wird wir dann die Beziehung (4) für wt-2 in Gleichung (3) (zt wt theta1z-tha21w wt theta1z - tha21 (z-tha1w) wt theta1z - θ12z theta31w) Wenn wir fortfahren würden ( Unendlich), würden wir die unendliche Ordnung AR-Modell erhalten (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z multiplizieren, in der Größe zunehmen wird (unendlich), wenn wir uns zurück bewegen Zeit. Um dies zu verhindern, brauchen wir 1 lt1. Dies ist die Voraussetzung für ein invertierbares MA (1) Modell. Infinite Order MA Modell In Woche 3 sehen wir, dass ein AR (1) Modell in eine unendliche Reihenfolge umgewandelt werden kann MA Modell: (xt-mu wt phi1w phi21w punkte phik1 w Punkte Summe phij1w) Diese Summierung von vergangenen weißen Rauschen ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Voraussetzung für eine stationäre AR (1) ist, dass 1 lt1. Lets berechnen die Var (x t) mit der Kausaldarstellung. Dieser letzte Schritt verwendet eine grundlegende Tatsache über geometrische Reihen, die (Phi1lt1) ansonsten die Reihe divergiert. NavigationTime Serie Analyse tsa statsmodels. tsa enthält Modellklassen und Funktionen, die für die Zeitreihenanalyse nützlich sind. Dies umfasst derzeit univariate autoregressive Modelle (AR), Vektor autoregressive Modelle (VAR) und univariate autoregressive gleitende durchschnittliche Modelle (ARMA). Es enthält auch deskriptive Statistiken für Zeitreihen, zB Autokorrelation, partielle Autokorrelationsfunktion und Periodogramm sowie die entsprechenden theoretischen Eigenschaften von ARMA oder verwandten Prozessen. Es enthält auch Methoden, um mit autoregressiven und bewegten durchschnittlichen Lag-Polynomen zu arbeiten. Darüber hinaus stehen Ihnen entsprechende statistische Tests und einige nützliche Helferfunktionen zur Verfügung. Die Schätzung erfolgt entweder durch exakte oder bedingte Maximum Likelihood oder bedingte kleinste Quadrate, entweder mit Kalman Filter oder Direct Filtern. Derzeit müssen Funktionen und Klassen aus dem entsprechenden Modul importiert werden, aber die Hauptklassen werden im statsmodels. tsa-Namespace zur Verfügung gestellt. Die Modulstruktur befindet sich innerhalb von statsmodels. tsa ist stattools. Empirische Eigenschaften und Tests, acf, pacf, granger-causality, adf Einheit Wurzeltest, ljung-box Test und andere. Armodel Univariate autoregressive Prozess, Schätzung mit bedingten und exakten Maximum-Likelihood und bedingten kleinsten Quadrate Arimamodel. Univariate ARMA-Prozess, Schätzung mit bedingten und exakten Maximum-Likelihood und bedingten kleinsten Quadrate vectorar, var. Vektor autoregressive Prozess (VAR) Schätzmodelle, Impulsantwortanalyse, Prognosefehler Varianzzerlegungen und Datenvisualisierungswerkzeuge kalmanf. Schätzungsklassen für ARMA und andere Modelle mit exaktem MLE mit Kalman Filter armaprocess. Eigenschaften von Arma-Prozessen mit vorgegebenen Parametern, Dazu gehören Werkzeuge zur Umwandlung zwischen ARMA, MA und AR-Darstellung sowie acf, pacf, spektrale Dichte, Impulsantwortfunktion und ähnliches sandbox. tsa. fftarma. Ähnlich wie armaprocess aber arbeiten im Frequenzbereich tsatools. Zusätzliche Helfer-Funktionen, um Arrays von verzögerten Variablen zu schaffen, konstruieren Regressoren für Trend, Detrend und ähnliches. Filter. Helper-Funktion zum Filtern von Zeitreihen Einige zusätzliche Funktionen, die auch für die Zeitreihenanalyse nützlich sind, sind in anderen Teilen von Statsmodellen, zum Beispiel zusätzliche statistische Tests. Einige verwandte Funktionen sind auch in matplotlib, nitime und scikits. talkbox verfügbar. Diese Funktionen sind mehr für den Einsatz in der Signalverarbeitung ausgelegt, wo längere Zeitreihen verfügbar sind und häufiger im Frequenzbereich arbeiten. Beschreibende Statistiken und Tests stattools. acovf (x, unvoreingenommen, demean, fft)

No comments:

Post a Comment