Hallo,
Frage1:
Was genau "bringt" eine Datenfeed-Simulation ?
Mein Verständnis davon:
Das HS wird mit dem Ordermodul (via virtuellem Broker) für die Vergangenheit "durchgerechnet" (simuliert).
So können zB Zukunftsblicke und ähnliche böse Dinge ausgeschlossen (bzw. aufgedeckt) werden. (via (groben) Divergenzen zum normalen Backtesting Ergebnis ?!)
Es wird "eben nicht" die normale "Backtesting Engine" verwendet.
Würde Sinn ergeben ;-)
Ist diese "Annahme" korrekt ?
(Handbuch/"Doku" helfen da nicht viel weiter ...)
Frage2:
In weniger als 50 Schritten (und mit ein bisserl Fluchen) läßt sie sich ja bekannterweise anwerfen ...
Eine wichtige Frage, die sich für mich ergeben hat:
Wie hängt die Kompression des Berechnungstitel (auf dem jede DFS-basiert) und die Kompression des HS zusammen ?
Da das OM im "echten Betrieb" mit Tickdaten arbeitet (bei meinen HS) -> BT unkomprimiert (=1 Tick) ist gleichzusetzen
mit bestmöglichem "Simulationsgrad" ???
Welche Auswirkungen haben höhere Komprimierungen ?
Beispiel: HS arbeitet auf 60 Min Candles.
"Reicht" es den BT ebenfalls auf 60Min zu komprimieren ?
Gint eine DFS mit niedriger Komprimierung bessere/genauere Ergebnisse ?
Das führt gleich zur nächsten Frage3:
Performance !!!
Eine DF-Simu meiner HS auf Tickbasis -> Performace: quälend, ätzend, eigentliuch mit Worten nicht zu beschreiben
ca 1:1. Also eine DFSen für eine Woche-> Eine Woche Rechenzeit. 3 Jahre DFS -> 3 Jahre Wartezeit aufs Ergebnis.
BT=1 Min Kompression -> ca 1:10, also 10 Tage DFs = 1 Tag Rechenzeit.
Erst ab ca 60 Min Komprimierung wirds halbwegs schnell.
Ist ja grundsätzlich logisch, daß die Performance von der Anzahl der Inputs (=Candles) abhängt,
aber ist das bei Euch auch so krass (lahm) ?
Die Berechnungen/Tests wurden - wohlbemerkt - auf modernster Hardware durchgeführt (=i7 Prozessor)
Ist diese Performance (1:1!) "normal" ?
Liegt das an meinen HS ?
Gibt's da einen geheimee Einstellung um die Performance zu verbessern :] ?
lg, upgap