Hallo,
das sieht ja richtig gut Dago!
In dem Fall Roger, ist der Verlauf der Datenreihe so, dass man durchaus mit der Monte Carlo Simulation testen kann! Der Verlauf beinhaltet relativ viel Bewegung, aber wie du schon geschrieben hast keinen extremen Abwärtstrend! Man sollte aber auch einmal eine längere Historie betrachten und prüfen, welche Muster die Zeitreihe überhaupt ausprägt! Man kann versuchen Muster, die sich für das neuronale Netz nicht eignen oder wo es sich abschwächt auszufiltern, indem man die Lernbeschränkung einsetzt! Ich möchte jetzt nicht zu weit vorgreifen, aber es ist natürlich auch möglich Kursmuster aus der Investox-Kursmusteranalyse für das neuronale Netz einzusetzen! Der Korrelationskoeffizienten der Musteranalyse hat einen oszillierenden in Verlauf und ist weitestgehend (je nach sind Sensivität) rauschfrei und weitestgehend dekorreliert! Datennormalisierung findet ihren Schwerpunkt bei Intermarket Netzen wenn beispielsweise Sentimentdaten eingesetzt werden!Die Netze, die mir zumindest vorschweben sollen so funktionieren, dass sie bei mehrfachem NNs-Training keine extremen Abweichungen liefern! Irgendwann muss ein neuronales Netz neu trainiert werden, und wenn die Abweichungen im Testzeitraum enorm klaffen, wird man bei der neuen Justierung Probleme bekommen. Abweichungen darf es im Testzeitraum geben, aber der Testzeitraum sollte nicht einmal nach oben und einmal nach unten abweichen! Dabei ist es nicht so wichtig, welchen Gewinn man im Testzeitraum erzielt als er die Tatsache, dass der Verlauf des Testzeitraums unter extremen Testbedingungen immer steigt!
Die Wavelets, direkt aus der Statistik Software übernommen, können wie schon einmal geschrieben in die Zukunft blicken beziehungsweise ändern sich, wenn neue Datensätze hinzukommen! Aber das heißt nicht, dass man sie nicht nutzen kann. Man müsste sie nur dem entsprechend aufbereiten, sowie man das mit allen digitalen Filtern durchführen sollte. Zum digitalen Filtern gehören auch Bandpassfilter! Die Normalisierung der Daten bringt eine Zeitreihe lediglich in eine " normierte" y-Achse. Dieser Vorgang wird allerdings nicht die Zeitreihe von verrauschten Daten säubern. Dazu muss man die Datenreihe Vorverarbeiten. Dagos Strategie, so wie ich es verstanden habe, beinhaltet sehr viele binäre Werte (Candlestickmuster)! Hier werden explizit Pattern gesucht. Die Auswirkung diese Inputaufbereitung sieht völlig anders aus als wenn man zum Beispiel eine Zeitreihe mit einem gleitenden Durchschnitt vergleicht. Bei einer Differenz kann die Säuberung der Daten sehr viel Stabilität mehr bringen, als wenn man jeden Spike unnütz auswerten lässt.