Saturday 30 September 2017

Autoregressive Integrierte Gleitende Durchschnittsmodelle


Zeitreihenanalyse: Ein Primer Die Zeitreihenanalyse ist ein komplexes Thema, aber kurz gesagt, wenn wir unsere üblichen Querschnittstechniken wie die Regression auf Zeitreihendaten verwenden, können Variablen bedeutungsvoller sein, als sie wirklich sind, und wir nutzen es nicht Der Information, die die serielle Korrelation in den Daten liefert. Was ist eine Zeitreihe Viele Datensätze sind Querschnitte und stellen eine einzelne Zeitspanne dar. Allerdings haben wir auch Daten über viele Zeiträume gesammelt - wöchentliche Verkaufsdaten, zum Beispiel. Dies ist ein Beispiel für Zeitreihendaten. Die Zeitreihenanalyse ist eine spezialisierte Zweigstelle der Statistik, die umfangreich in Bereichen wie Ökonometrie und Operations Research eingesetzt wird. Leider haben die meisten Marketing-Forscher und Daten-Wissenschaftler noch wenig Aussetzung zu ihr gehabt. Wie gut sehen, hat es viele sehr wichtige Anwendungen für Vermarkter. Nur um unsere Begriffe direkt, unten ist eine einfache Illustration, wie eine Zeitreihe Daten-Datei aussieht. Die Spalte DATE ist die Datumsvariable und entspricht einer Befragten-ID in Umfrage-Forschungsdaten. WEEK, die Sequenznummer jeder Woche, ist enthalten, weil die Verwendung dieser Spalte anstatt der tatsächlichen Daten können Graphen weniger überladen. Die Sequenznummer kann auch als Trendvariable für bestimmte Arten von Zeitreihenmodellen dienen. SALES ist die Anzahl der Packs, die in jeder Woche verkauft werden. Ich sollte beachten, dass die Einheit der Analyse nicht müssen Marken und können einzelne Verbraucher oder Gruppen von Verbrauchern, deren Verhalten im Laufe der Zeit verfolgt werden. Aber zuerst, warum müssen wir zwischen Querschnitts-und Zeitreihenanalyse unterscheiden aus mehreren Gründen, ein, dass unsere Forschungsziele werden in der Regel anders sein. Eine andere ist, dass die meisten statistischen Methoden, die wir in der Schule lernen und nutzen in der Marketingforschung sind für Querschnittsdaten gedacht, und wenn wir sie auf Zeitreihe-Daten anwenden, können die Ergebnisse, die wir erhalten, irreführend sein. Zeit ist eine Dimension der Daten, die wir berücksichtigen müssen. Die Zeitreihenanalyse ist ein komplexes Thema, kurzum, wenn wir unsere üblichen Querschnittstechniken wie die Regression auf Zeitreihendaten verwenden: Standardfehler können weit entfernt sein. Mehr als oft nicht, werden p-Werte zu klein sein und Variablen können bedeutender erscheinen, als sie wirklich sind In einigen Fällen können Regressionskoeffizienten ernsthaft voreingenommen sein und Wir nutzen nicht die Informationen, die die serielle Korrelation in den Daten bietet. Um zu unseren Beispieldaten zurückzukehren, könnte ein Ziel die Prognose des Umsatzes für unsere Marke sein. Es gibt viele Möglichkeiten, dies zu tun und die einfachste ist univariate Analyse, in der wir im Wesentlichen extrapolieren zukünftige Daten aus vergangenen Daten. Zwei beliebte univariate Zeitreihenmethoden sind Exponential Smoothing (z. B. Holt-Winters) und ARIMA (Autoregressive Integrated Moving Average). In dem in Abbildung 1 gezeigten Beispiel wurden ein Jahr (52 Wochen) historischer Verkaufsdaten verwendet, um den Umsatz ein Viertel (12 Wochen) voraus mit einem ARIMA-Modell zu prognostizieren. Offensichtlich gibt es Risiken in der Annahme, dass die Zukunft wie die Vergangenheit sein wird, aber glücklicherweise können wir auch Kausalvariablen einschließen, um diese Risiken abzuschwächen. Aber neben der Verbesserung der Genauigkeit unserer Prognosen, kann ein anderes Ziel zu verstehen, welche Marketing-Aktivitäten am meisten Einfluss auf den Umsatz. Kausale Variablen umfassen typischerweise Daten wie GRPs und den Preis und können auch Daten aus Verbraucherumfragen oder exogenen Variablen wie dem BIP enthalten. Diese Arten von Analysen werden als Market Response oder Marketing Mix-Modellierung bezeichnet und sind ein zentraler Bestandteil der ROMI-Analyse (Return on Marketing Investment). Sie können als wichtige Treiber-Analyse für Zeitreihen-Daten gedacht werden. Die Ergebnisse werden oft in Simulationen verwendet, um den optimalen Marketing-Mix zu finden. Transfer Funktionsmodelle. ARMAX und Dynamische Regression sind Begriffe, die sich auf spezialisierte Regressionsverfahren für Zeitreihendaten beziehen. Es gibt auch mehr anspruchsvolle Methoden, und Ill-Touch auf ein paar in nur ein wenig. Mehrere Zeitreihen Vielleicht müssen Sie mehrere Zeitreihen gleichzeitig analysieren, z. B. Vertrieb Ihrer Marken und wichtige Konkurrenten. Abbildung 2 unten ist ein Beispiel und zeigt wöchentliche Verkaufsdaten für drei Marken über einen Zeitraum von einem Jahr. Da Verkaufsbewegungen von Marken, die miteinander konkurrieren, typischerweise im Laufe der Zeit korreliert werden, ist es oft sinnvoll und statistisch rigoros, Daten für alle Schlüsselmarken in einem Modell einzuschließen, anstatt getrennte Modelle für jede Marke zu führen. Vector Autoregression (VAR), das Vector Error Correction Model (VECM) und das allgemeinere State Space-Framework sind drei häufig verwendete Ansätze für mehrere Zeitreihenanalysen. Kausale Daten können aufgenommen und Market ResponseMarketing Mix-Modellierung durchgeführt werden. Es gibt mehrere zusätzliche Methoden, die für Marketingforschung und Datenwissenschaft relevant sind. Panelmodelle umfassen Querschnitte in einer Zeitreihenanalyse. Vertriebs - und Marketingdaten für mehrere Marken können beispielsweise übereinander gestapelt und gleichzeitig analysiert werden. Die Panelmodellierung ermöglicht eine Analyse auf der Kate - goriebene und ist auch praktisch, wenn Daten selten sind (z. B. monatlich oder vierteljährlich). Longitudinal Analysis ist ein generischer und manchmal verwirrend genutzter Begriff, der sich auf Panelmodellierung mit einer kleinen Anzahl von Perioden (Short Panels) sowie auf Wiederholte Messungen, Growth Curve Analysis oder Multilevel Analysis beziehen kann. In einem wörtlichen Sinn subsumiert er Zeitreihenanalyse, aber viele Behörden behalten diesen Begriff für die Analyse von Daten mit vielen Zeitperioden vor (z. B. gt 25). Strukturelle Gleichungsmodellierung (SEM) ist eine Methode, die in der Growth Curve Modellierung und anderen Längsanalysen weit verbreitet ist. Survival Analysis ist ein Zweig der Statistik für die Analyse der erwarteten Länge der Zeit, bis ein oder mehrere Ereignisse passieren, wie Tod in biologischen Organismen und Misserfolg in mechanischen Systemen. Seine auch als Duration Analysis in Economics und Event History Analyse in Soziologie. Es wird oft in Kunden-Churn-Analyse verwendet. In einigen Fällen wird ein Modell nicht passen eine ganze Reihe gut aufgrund der strukturellen Veränderungen innerhalb der Serie, und Modell-Parameter variieren über die Zeit. Für diese Umstände gibt es zahlreiche Breakpoint-Tests und Modelle (z. B. State Space, Switching Regression). Sie können auch feststellen, dass Verkäufe, Call-Center-Aktivität oder andere Datenreihen, die Sie verfolgen, Cluster von Volatilität aufweisen. Das heißt, es kann Perioden geben, in denen die Figuren sich in extremerer Weise auf und ab bewegen als andere Perioden. Fig. 3 zeigt eine Darstellung dieser Art von Muster. In diesen Fällen sollten Sie eine Klasse von Modellen mit dem verbotenen Namen GARCH (Generalized Autoregressive Conditional Heteroskedasticity) betrachten. ARCH - und GARCH-Modelle wurden ursprünglich für Finanzmärkte entwickelt, können aber für andere Arten von Zeitreihendaten verwendet werden, wenn Volatilität von Interesse ist. Volatilität kann in viele Muster fallen und dementsprechend gibt es viele Geschmacksrichtungen von GARCH-Modellen. Kausale Variablen können eingeschlossen werden. Es gibt auch multivariate Erweiterungen (MGARCH), wenn Sie zwei oder mehrere Reihen haben, die Sie gemeinsam analysieren möchten. Nichtparametrische Ökonometrie ist ein ganz anderer Ansatz, um Zeitreihen - und Längsdaten zu studieren, die jetzt aufgrund der großen Daten und der größeren Rechenleistung, die wir jetzt genießen, viel Aufmerksamkeit erhalten. Diese Methoden sind zunehmend machbar und nützlich als Alternativen zu den vertrauteren Methoden, wie sie in diesem Artikel beschrieben werden. Maschinelles Lernen (z. B. künstliche neuronale Netze) ist auch unter bestimmten Umständen nützlich, aber die Ergebnisse können schwer zu interpretieren sein - sie prognostizieren gut, können uns aber nicht helfen, den Mechanismus zu verstehen, der auf Daten (das Warum) erzeugt wurde. In gewisser Weise gilt dieser Nachteil auch für nichtparametrische Techniken. Die meisten der genannten Methoden sind Time Domain-Techniken. Eine andere Gruppe von Methoden als Frequenzdomäne bekannt. Spielt in der Marketingforschung eine eher eingeschränkte Rolle. Ive kaum zerkratzt die Oberfläche eines reichen und vielfältigen Satz von Techniken, die neu für die meisten Marketing-Forscher und Daten-Wissenschaftler sind, aber immer wichtiger für unsere Arbeit. Für Leser, die mehr über diese Methoden lernen wollen, gibt es jetzt Online-Kurse und viele hervorragende Einführung Lehrbücher zur Verfügung, sowie diejenigen, die spezifische Themen in der Tiefe. Bio: Kevin Gray ist Präsident von Cannon Grey. Eine Marketing-Wissenschaft und Analytik-Beratung. Original. (P, d, q) Modelle für die Zeitreihenanalyse Im vorherigen Satz von Artikeln (Teile 1. 2 und 3) gingen wir in signifikante Einzelheiten über die AR (p), MA (q ) Und ARMA (p, q) lineare Zeitreihenmodelle. Wir verwendeten diese Modelle zur Generierung von simulierten Datensätzen, angepassten Modellen, um Parameter zurückzugewinnen und diese Modelle dann auf Finanzaktiendaten anzuwenden. In diesem Artikel werden wir eine Erweiterung des ARMA-Modells diskutieren, nämlich das Modell Autoregressive Integrated Moving Average oder das Modell ARIMA (p, d, q). Wir werden sehen, dass es notwendig ist, das ARIMA-Modell zu betrachten, wenn wir nichtstationäre Serien haben. Solche Reihen treten in der Gegenwart von stochastischen Trends auf. Quick Recap und die nächsten Schritte Bisher haben wir die folgenden Modelle betrachtet (die Links führen zu den entsprechenden Artikeln): Wir haben unser Verständnis von Zeitreihen mit Konzepten wie Serienkorrelation, Stationarität, Linearität, Residuen, Korrektrammen, Simulation, Montage, Saisonalität, bedingte Heterosedastizität und Hypothesentests. Bis jetzt haben wir keine Vorhersage oder Prognose aus unseren Modellen durchgeführt und daher keinen Mechanismus zur Herstellung eines Handelssystems oder einer Eigenkapitalkurve gehabt. Sobald wir ARIMA (in diesem Artikel), ARCH und GARCH (in den nächsten Artikeln) studiert haben, sind wir in der Lage, eine grundlegende langfristige Handelsstrategie auf der Grundlage der Vorhersage der Aktienindexrenditen aufzubauen. Trotz der Tatsache, dass ich in viele Details über Modelle, die wir kennen wird letztlich nicht über eine große Leistung (AR, MA, ARMA) gegangen sind, sind wir nun gut versiert in den Prozess der Zeitreihen-Modellierung. Dies bedeutet, dass wir, wenn wir neuere Modelle (und sogar solche, die derzeit in der Forschungsliteratur studieren), über eine wichtige Wissensbasis verfügen, um diese Modelle effektiv zu bewerten, anstatt sie als Schlüssel zu behandeln Verschreibung oder Black Box. Noch wichtiger ist, wird es uns mit dem Vertrauen, zu verlängern und zu modifizieren sie auf unsere eigenen und verstehen, was wir tun, wenn wir es tun Id wie vielen Dank für Ihre Geduld so weit, wie es scheint, dass diese Artikel weit entfernt sind Die eigentliche Handlung des tatsächlichen Handels. Allerdings echte quantitative Handelsforschung ist vorsichtig, gemessen und nimmt erhebliche Zeit, um richtig zu bekommen. Es gibt keine schnelle Lösung oder reiches Schema in quant trading. Wir waren fast bereit, unser erstes Handelsmodell zu betrachten, das eine Mischung aus ARIMA und GARCH sein wird. Daher ist es zwingend notwendig, dass wir einige Zeit damit verbringen, das ARIMA-Modell gut zu verstehen. Sobald wir unser erstes Handelsmodell aufgebaut haben, werden wir mehr berücksichtigen Fortgeschrittene Modelle wie Langzeitgedächtnisprozesse, State-Space-Modelle (dh der Kalman-Filter) und Vector Autoregressive (VAR) Modelle, die uns zu anderen, anspruchsvolleren Handelsstrategien führen werden. Autoregressive Integrated Moving Average (ARIMA) Modelle der Ordnung p, d, q ARIMA-Modelle werden verwendet, da sie eine nicht stationäre Serie auf eine stationäre Serie reduzieren können, indem sie eine Folge von differenzierenden Schritten verwenden. Wir können uns an den Artikel über weißes Rauschen und zufällige Wanderungen erinnern, daß wir, wenn wir den Differenzoperator auf eine zufällige Wegserie (eine nicht stationäre Reihe) anwenden, mit weißem Rauschen (einer stationären Reihe) verlassen werden: begin nabla xt xt - x wt Ende führt ARIMA diese Funktion im Wesentlichen aus, tut dies jedoch wiederholt d-mal, um eine nicht-stationäre Serie auf eine stationäre zu reduzieren. Um andere Formen der Nicht-Stationarität über stochastische Trends hinaus zu bewältigen, können zusätzliche Modelle verwendet werden. Saisonale Effekte (wie die, die in den Rohstoffpreisen auftreten) können mit dem saisonalen ARIMA-Modell (SARIMA) angegangen werden, aber wir werden nicht über SARIMA viel in dieser Serie diskutieren. Bedingte heteroscedastische Effekte (wie bei Volatilitäts-Clustern in Aktienindizes) können mit ARCHGARCH angegangen werden. In diesem Artikel werden wir betrachten nicht-stationäre Serie mit stochastischen Trends und passen ARIMA-Modelle zu diesen Serien. Wir werden auch endlich Prognosen für unsere Finanzserie produzieren. Definitionen Vor der Definition von ARIMA-Prozessen müssen wir das Konzept einer integrierten Reihe diskutieren: Integrierte Reihenfolge d Eine Zeitreihe ist in Ordnung d integriert. I (d), wenn: begin nablad xt wt end Das heißt, wenn wir die Serie d mal differenzieren, erhalten wir eine diskrete weiße Rauschenserie. Alternativ können Sie mit dem Backward Shift Operator eine entsprechende Bedingung definieren: Nachdem wir eine integrierte Serie definiert haben, können wir den ARIMA Prozess selbst definieren: Autoregressives Integriertes Moving Average Modell der Ordnung p, d, q Eine Zeitreihe ist ein autoregressives integriertes gleitendes Durchschnittsmodell Der Ordnung p, d, q. ARIMA (p, d, q). Wenn nablad xt ein autoregressiver gleitender Durchschnitt der Ordnung p, q, ARMA (p, q) ist. Das heißt, wenn die Reihe d-mal differenziert wird und dann einem ARMA (p, q) - Prozess folgt, dann handelt es sich um eine ARIMA-Reihe (p, d, q). Wenn wir die Polynomnotation aus Teil 1 und Teil 2 der ARMA-Reihe verwenden, dann kann ein ARIMA (p, d, q) - Prozeß in Form des Rückwärtsverschiebungsoperators geschrieben werden. : Wobei wt eine diskrete weiße Rauschreihe ist. Es gibt einige Punkte, um über diese Definitionen zu beachten. Da der zufällige Weg durch xt x wt gegeben ist, kann man sehen, daß I (1) eine andere Darstellung ist, da nabla1 xt wt. Wenn wir einen nicht-linearen Trend vermuten, könnten wir möglicherweise in der Lage sein, wiederholtes Differenzieren (d. h. d gt & sub1;) zu verwenden, um eine Reihe auf stationäres weißes Rauschen zu reduzieren. In R können wir den diff-Befehl mit zusätzlichen Parametern verwenden, z. B. Diff (x, d3), um wiederholte Differenzen auszuführen. Simulation, Correlogram und Modellbefestigung Da wir bereits den Befehl arima. sim verwendet haben, um einen ARMA (p, q) Prozess zu simulieren, wird das folgende Verfahren ähnlich dem in Teil 3 der ARMA Serie durchgeführt. Der Hauptunterschied besteht darin, dass wir nun d1 setzen, dh, wir werden eine nicht-stationäre Zeitreihe mit einer stochastischen Trending-Komponente erzeugen. Nach wie vor passen wir ein ARIMA-Modell an unsere simulierten Daten an, versuchen, die Parameter wiederherzustellen, Konfidenzintervalle für diese Parameter zu erzeugen, ein Korrelogramm der Residuen des eingebauten Modells zu erstellen und schließlich einen Ljung-Box-Test durchzuführen, um festzustellen, ob wir es haben eine gute Passform. Wir werden ein ARIMA (1,1,1) Modell mit dem autoregressiven Koeffizienten alpha0,6 und dem gleitenden mittleren Koeffizienten beta-0,5 simulieren. Hier ist der R-Code zu simulieren und plotten eine solche Serie: Nun, da wir unsere simulierte Serie werden wir versuchen zu versuchen und passen ein ARIMA (1,1,1) - Modell. Da wir die Reihenfolge kennen, geben wir sie einfach im Fit an: Die Konfidenzintervalle werden berechnet als: Die beiden Parameterschätzungen liegen innerhalb der Konfidenzintervalle und liegen nahe bei den wahren Parameterwerten der simulierten ARIMA-Reihe. Daher sollten wir nicht überrascht sein, die Residuen sehen wie eine Realisierung von diskreten weißen Rauschen zu sehen: Schließlich können wir eine Ljung-Box-Test, um statistische Beweise für eine gute Passform liefern: Wir können sehen, dass der p-Wert ist deutlich größer als 0,05 und als solche können wir sagen, dass es einen starken Beweis für diskrete weiße Rauschen, die eine gute Passung zu den Residuen ist. Daher ist das ARIMA (1,1,1) - Modell, wie erwartet, eine gute Passform. Finanzdaten und Prognosen In diesem Abschnitt werden wir ARIMA-Modelle an Amazon, Inc. (AMZN) und den SampP500 US Equity Index (GPSC, in Yahoo Finance) anpassen. Wir verwenden die Prognose-Bibliothek, geschrieben von Rob J Hyndman. Gehen Sie voran und installieren Sie die Bibliothek in R: Jetzt können wir quantmod nutzen, um die tägliche Preisreihe von Amazon ab Anfang 2013 herunterzuladen. Da wir schon die ersten Bestellunterschiede der Serie genommen haben, wird die ARIMA fit in Kürze durchgeführt Benötigen wir für die integrierte Komponente nicht d gt 0: Wie in Teil 3 der ARMA-Reihe werden wir nun die Kombinationen von p, d und q durchlaufen, um das optimale ARIMA (p, d, q) Modell zu finden. Unter optimaler Bedeutung verstehen wir die Ordnungskombination, die das Akaike Information Criterion (AIC) minimiert: Wir können sehen, dass eine Ordnung von p4, d0, q4 ausgewählt wurde. Bemerkenswert ist d0, wie wir bereits oben besprochen haben: Wenn wir das Korrelogramm der Residuen darstellen, können wir sehen, ob wir Beweise für eine diskrete weiße Rauschreihe haben: Es gibt zwei signifikante Peaks, nämlich bei k15 und k21, obwohl wir es sollten Erwarten, statistisch signifikante Peaks nur aufgrund der Abtastvariation 5 der Zeit zu sehen. Wir können einen Ljung-Box-Test durchführen (siehe vorherigen Artikel) und sehen, ob wir Beweise für eine gute Passform haben: Wie wir sehen können, ist der p-Wert größer als 0,05 und so haben wir Beweise für eine gute Passform auf der 95-Ebene. Wir können nun den Prognosebefehl aus der Prognosebibliothek verwenden, um 25 Tage vor der Rendite-Serie von Amazon zu prognostizieren: Wir sehen die Punktprognosen für die nächsten 25 Tage mit 95 (dunkelblau) und 99 (hellblau) Fehlerbändern . Wir werden diese Prognosen in unserer ersten Zeitreihenhandelsstrategie verwenden, wenn wir kommen, um ARIMA und GARCH zu kombinieren. Wir können das gleiche Verfahren für den SampP500 durchführen. Zuerst erhalten wir die Daten von quantmod und konvertieren sie in einen täglichen log returns stream: Wir passen ein ARIMA Modell, indem wir die Werte von p, d und q durchlaufen: Die AIC sagt uns, dass das beste Modell die ARIMA (2,0, 1) - Modell. Beachten Sie noch einmal, dass d0, da wir bereits erste Ordnung Differenzen der Serie genommen haben: Wir können die Residuen des eingebauten Modells zu sehen, ob wir Beweise für diskrete weißes Rauschen haben: Das Korrelogram sieht vielversprechend, so dass der nächste Schritt zu laufen ist Die Ljung-Box-Test und bestätigen, dass wir ein gutes Modell passen: Da der p-Wert größer als 0,05 haben wir Beweise für eine gute Modell passen. Warum ist es, dass im vorherigen Artikel unsere Ljung-Box-Test für die SampP500 zeigte, dass die ARMA (3,3) war eine schlechte Passform für die tägliche Log Rückkehr Beachten Sie, dass ich absichtlich beschnitten die SampP500 Daten ab 2013 beginnen in diesem Artikel , Die die volatilen Perioden um 2007-2008 praktisch ausschließt. Daher haben wir einen großen Teil des SampP500 ausgeschlossen, wo wir eine übermäßige Volatilitäts-Clusterbildung hatten. Dies wirkt sich auf die serielle Korrelation der Reihe aus und hat daher die Wirkung, die Serie scheinbar stationärer zu machen als in der Vergangenheit. Dies ist ein sehr wichtiger Punkt. Bei der Analyse von Zeitreihen müssen wir sehr vorsichtig auf bedingt heteroszedierte Serien wie Börsenindizes achten. In quantitativen Finanzen ist der Versuch, Perioden mit unterschiedlicher Volatilität zu bestimmen, oft als Regime-Detektion bekannt. Es ist eine der härteren Aufgaben zu erreichen Nun besprechen diesen Punkt ausführlich im nächsten Artikel, wenn wir die ARCH und GARCH Modelle zu betrachten. Wir können nun eine Prognose für die nächsten 25 Tage der SampP500-täglichen Log-Rückkehr erstellen: Nachdem wir nun die Möglichkeit haben, Modelle wie ARIMA zu installieren und zu prognostizieren, waren wir sehr nahe daran, Strategieindikatoren für den Handel zu schaffen. Nächste Schritte Im nächsten Artikel werden wir einen Blick auf die Generalized Autoregressive Conditional Heteroscedasticity (GARCH) - Modell und verwenden Sie es zu erklären, mehr der seriellen Korrelation in bestimmten Aktien-und Aktienindex-Serie. Sobald wir GARCH diskutiert haben, werden wir in der Lage sein, es mit dem ARIMA-Modell zu kombinieren und Signalindikatoren und damit eine grundlegende quantitative Handelsstrategie zu schaffen. Klicken Sie unten, um mehr darüber zu erfahren. Die Informationen auf dieser Website ist die Meinung der einzelnen Autoren auf der Grundlage ihrer persönlichen Beobachtung, Forschung und jahrelange Erfahrung. Der Herausgeber und seine Autoren sind nicht registrierte Anlageberater, Rechtsanwälte, CPAs oder andere Finanzdienstleister und machen keine Rechts-, Steuer-, Rechnungswesen, Anlageberatung oder andere professionelle Dienstleistungen. Die Informationen, die von dieser Web site angeboten werden, sind nur allgemeine Ausbildung. Weil jeder Einzelne sachliche Situation anders ist, sollte der Leser seinen persönlichen Berater suchen. Weder der Autor noch der Herausgeber übernehmen jegliche Haftung oder Verantwortung für Fehler oder Unterlassungen und haben weder eine Haftung noch Verantwortung gegenüber Personen oder Körperschaften in Bezug auf Schäden, die direkt oder indirekt durch die auf dieser Website enthaltenen Informationen verursacht oder vermutet werden. Benutzung auf eigene Gefahr. Darüber hinaus kann diese Website erhalten finanzielle Entschädigung von den Unternehmen erwähnt durch Werbung, Affiliate-Programme oder auf andere Weise. Preise und Angebote von Inserenten auf dieser Website ändern sich häufig, manchmal ohne Vorankündigung. Während wir uns bemühen, rechtzeitige und genaue Informationen aufrechtzuerhalten, können Angebot Details veraltet sein. Besucher sollten daher die Bedingungen dieser Angebote vor der Teilnahme an ihnen überprüfen. Der Autor und sein Herausgeber haften nicht für die Aktualisierung von Informationen und haften nicht für die Inhalte, Produkte und Dienstleistungen von Drittanbietern, auch wenn sie über Hyperlinks oder Anzeigen auf dieser Website verlinkt werden. (Veraltet) Forecasting - Autoregressive Integrated Moving Average (ARIMA) Der Microsoft DataMarket ist Im Ruhestand und diese API wurde veraltet. Dieser Dienst implementiert Autoregressive Integrated Moving Average (ARIMA), um Prognosen basierend auf den vom Benutzer bereitgestellten historischen Daten zu erzeugen. Wird die Nachfrage nach einem bestimmten Produkt in diesem Jahr erhöhen Kann ich meine Produktverkäufe für die Weihnachtszeit vorhersagen, damit ich mein Inventar effektiv planen kann Vorhersagemodelle sind geeignet, solche Fragen anzusprechen. Angesichts der bisherigen Daten untersuchen diese Modelle versteckte Trends und Saisonalität, um zukünftige Trends vorherzusagen. Probieren Sie Azure Machine Learning kostenlos aus Keine Kreditkarten - oder Azure-Abo erforderlich. Erste Schritte gt Dieser Webservice kann von Benutzern potentiell über eine mobile App, über eine Website oder sogar auf einem lokalen Computer verbraucht werden. Aber der Zweck des Web-Service ist auch als Beispiel dafür dienen, wie Azure Machine Learning verwendet werden, um Web-Services auf R-Code zu erstellen. Mit nur wenigen Zeilen von R-Code und Klicks einer Schaltfläche in Azure Machine Learning Studio kann ein Experiment mit R-Code erstellt und als Web-Service veröffentlicht werden. Der Webservice kann dann auf dem Azure Marketplace veröffentlicht und von Benutzern und Geräten auf der ganzen Welt konsumiert werden, ohne dass eine Infrastruktureinrichtung vom Autor des Webdienstes eingerichtet wurde. Verbrauch von Web-Service Dieser Dienst akzeptiert 4 Argumente und berechnet die ARIMA-Prognosen. Die Eingabeargumente sind: Frequenz - Zeigt die Häufigkeit der Rohdaten an (täglich wöchentlich jährlich jährlich). Horizont - Zukunft Prognose Zeitrahmen. Datum - Hinzufügen in die neuen Zeitreihendaten für die Zeit. Wert - Hinzufügen in die neuen Zeitreihendatenwerte. Die Ausgabe des Dienstes ist die berechnete Prognosewerte. Proben-Eingang könnte sein: Frequenz - 12 Horizon - 12 Datum - 115201221520123152012415201251520126152012715201281520129152012101520121115201212152012 115201321520133152013415201351520136152013715201381520139152013101520131115201312152013 115201421520143152014415201451520146152014715201481520149152014 Value - 3.4793.683.8323.9413.7973.5863.5083.7313.9153.8443.6343.5493.5573.7853.7823.6013.5443.5563.653.7093.6823.511 3.4293.513.5233.5253.6263.6953.7113.7113.6933 .5713.509 Dieser Dienst, wie auf dem Azure-Marktplatz gehostet, ist ein OData-Dienst, den diese über POST - oder GET-Methoden aufgerufen werden können. Es gibt mehrere Möglichkeiten, den Dienst in einer automatisierten Weise zu verbrauchen (eine Beispiel-App ist hier). Starten des C-Codes für den Web-Service-Verbrauch: Erstellung des Web-Service Dieser Webservice wurde unter Verwendung von Azure Machine Learning erstellt. Für eine kostenlose Testversion sowie Einführungsvideos zum Erstellen von Experimenten und zum Veröffentlichen von Webdiensten. Sehen Sie bitte azureml. Unten ist ein Screenshot des Experiments, das den Webdienst und den Beispielcode für jedes der Module im Experiment erstellt hat. Aus Azure Machine Learning wurde ein neues Blindversuch erstellt. Beispiel-Eingangsdaten wurden mit einem vordefinierten Datenschema hochgeladen. Verknüpft mit dem Datenschema ist ein Execute R Script-Modul, das das ARIMA-Prognosemodell mithilfe von Auto. arima - und Prognosefunktionen aus R erzeugt. Experimentfluss: Einschränkungen Dies ist ein sehr einfaches Beispiel für die ARIMA-Prognose. Wie aus dem obigen Beispielcode ersichtlich ist, ist keine Fehlererfassung implementiert, und der Dienst geht davon aus, dass alle Variablen kontinuierliche positive Werte sind und die Frequenz eine ganze Zahl größer als 1 sein sollte. Die Länge der Datums - und Wertvektoren sollte dieselbe sein . Die Datumsvariable sollte dem Format mmddyyyy entsprechen. Häufig gestellte Fragen zum Verbrauch des Webdienstes oder zur Veröffentlichung auf dem Marktplatz finden Sie hier.

No comments:

Post a Comment