Friday 6 October 2017

Moving Average Rekursiv


Die Wissenschaftler und Ingenieure Leitfaden für digitale Signalverarbeitung Von Steven W. Smith, Ph. D. Kapitel 10: Fourier-Transformationseigenschaften Die diskrete Zeit-Fourier-Transformation Die diskrete Zeit-Fourier-Transformation (DTFT) ist das Element der Fourier-Transformationsfamilie, das auf aperiodisch arbeitet. Diskrete Signale. Der beste Weg, um die DTFT zu verstehen ist, wie es sich auf die DFT. Um zu beginnen, stellen Sie sich vor, dass Sie ein N Probe-Signal zu erwerben, und wollen ihr Frequenzspektrum zu finden. Durch die Verwendung der DFT kann das Signal in Sinus - und Cosinuswellen zerlegt werden, wobei Frequenzen gleichmäßig zwischen Null und der Hälfte der Abtastrate beabstandet sind. Wie im letzten Kapitel besprochen, macht das Auffüllen des Zeitdomänensignals mit Nullen den Zeitraum der Zeitdomäne länger. Als auch den Abstand zwischen den Proben im Frequenzbereich schmaler zu machen. Wenn N der Unendlichkeit nähert, wird die Zeitdomäne aperiodisch. Und der Frequenzbereich wird ein kontinuierliches Signal. Dies ist die DTFT, die Fourier-Transformation, die ein Aperiodikum betrifft. Diskrete Signal, mit einem periodischen. Kontinuierlichen Frequenzspektrums. Die Mathematik der DTFT kann man verstehen, indem man mit den Synthese - und Analysegleichungen für die DFT (Gleichungen 8-2, 8-3 und 8-4) beginnt und N in Unendlichkeit nimmt: In diesen Beziehungen gibt es viele subtile Details. Zuerst ist das Zeitbereichssignal x n noch diskret und wird daher durch Klammern dargestellt. Im Vergleich dazu sind die Frequenzbereichssignale ReX (969) amp ImX (969) stetig und werden daher mit Klammern geschrieben. Da der Frequenzbereich stetig ist, muß die Synthesegleichung als Integral und nicht als Summe geschrieben werden. Wie in Kapitel 8 diskutiert, wird die Frequenz im Frequenzbereich der DFTs durch eine von drei Variablen dargestellt: k. Ein Index, der von 0 bis N 2 f läuft. Wobei der Bruchteil der Abtastrate von 0 bis 0,5 oder 969 reicht, wobei der Bruchteil der Abtastrate als natürliche Frequenz ausgedrückt wird, die von 0 bis 960 läuft. Das Spektrum des DTFT ist stetig, so daß entweder f oder 969 verwendet werden kann. Die gemeinsame Wahl ist 969, weil sie die Gleichungen kürzer macht, indem man den immer vorhandenen Faktor von 2pi eliminiert. Denken Sie daran, wenn 969 verwendet wird, das Frequenzspektrum erstreckt sich von 0 bis 960, was entspricht DC bis zur Hälfte der Abtastrate. Um die Dinge noch komplizierter zu machen, verwenden viele Autoren 937 (ein Großbuchstaben-Omega), um diese Frequenz in der DTFT zu repräsentieren, anstatt 969 (ein Kleinbuchstaben-Omega). Bei der Berechnung der inversen DFT müssen die Abtastwerte 0 und N 2 durch zwei geteilt werden (Gleichung 8-3), bevor die Synthese durchgeführt werden kann (Gleichung 8-2). Dies ist bei der DTFT nicht erforderlich. Wie Sie sich erinnern, ist diese Aktion in der DFT im Zusammenhang mit dem Frequenzspektrum als spektrale Dichte definiert. D. h. Amplitude pro Bandbreiteneinheit. Wenn das Spektrum kontinuierlich wird, verschwindet die spezielle Behandlung der Endpunkte. Jedoch gibt es noch einen Normalisierungsfaktor, der enthalten sein muß, die 2 N in der DFT (Gleichung 8-3) wird 1960 in der DTFT (Gleichung 10-2). Einige Autoren stellen diese Begriffe vor die Synthesegleichung, während andere sie vor der Analysegleichung platzieren. Angenommen, Sie beginnen mit einem Zeitbereichssignal. Nach der Fourier-Transformation, und dann die Inverse Fourier-Transformation, möchten Sie am Ende mit dem, was Sie begonnen. Das heißt, der Begriff (oder der 2 N-Term) muß irgendwo auf dem Weg entweder in der Vorwärts - oder in der umgekehrten Transformation angetroffen werden. Einige Autoren spalteten sogar den Begriff zwischen den beiden Transformationen, indem er 1radic pi vor beiden platzierte. Da der DTFT unendliche Summierungen und Integrale beinhaltet, kann er nicht mit einem digitalen Rechner berechnet werden. Sein Hauptanwendungsgebiet sind theoretische Probleme als Alternative zur DFT. Angenommen, Sie möchten den Frequenzgang eines Systems aus seiner Impulsantwort herausfinden. Wenn die Impulsantwort als Array von Zahlen bekannt ist. Wie sie aus einer experimentellen Messung oder Computersimulation gewonnen werden kann, wird ein DFT-Programm auf einem Computer ausgeführt. Dies stellt das Frequenzspektrum als ein anderes Array von Zahlen bereit. Die gleichmäßig zwischen 0 und 0,5 der Abtastrate beabstandet sind. In anderen Fällen kann die Impulsantwort als Gleichung bekannt sein. Wie beispielsweise eine Sinc-Funktion oder eine exponentiell abklingende Sinuskurve. Der DTFT wird hier verwendet, um den Frequenzbereich mathematisch als eine andere Gleichung zu berechnen. Wobei die gesamte kontinuierliche Kurve zwischen 0 und 0,5 angegeben wird. Während die DFT auch für diese Berechnung verwendet werden könnte, würde es nur eine Gleichung für Proben des Frequenzgangs liefern, nicht die gesamte Kurve. Erforschung der exponentiell gewichteten Moving Average Volatility ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen . In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, lesen Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächliche Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Also, wenn alpha (a) ein Gewichtungsfaktor (speziell eine 1m) ist, dann eine einfache Varianz sieht etwa so aus: Die EWMA verbessert auf einfache Varianz Die Schwäche dieser Ansatz ist, dass alle Renditen das gleiche Gewicht zu verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als 1 sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Aktienkursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit verringern, so dass eine einfache Varianz künstlich hoch sein könnte. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkende Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir sind nur das Hinzufügen von zwei Begriffe zusammen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.)

No comments:

Post a Comment