>>>>> Die extern ermittelten Datenpunkte wurden nach Investox importiert und mit Hilfe einer Differenzanalyse (mathematisch- nicht zu Verwechseln mit Differenziale~ Yd/xd) in einer Inputschablone ausgewertet ermittelten Datenpunkte<<<<
Meinst du damit die mit Wavelets ect aufbereiteten Daten?
Ja,die Rohdaten werden via txt Datei exportiert-im externen Programm aufbereitet und wieder importiert! Das ist manchmal aufwendig da man für die Aufbereitung nicht mit einem Zeit skalierten Raster arbeiten kann. Die Raster sind Teils wissenschaftlich oder dezimal skaliert. Allerdings kann man einmal angelegtes Schema in Excel schnell in Zeitreihen mit dem für Investox bekannten Zeitraster umwandeln. In Investox selbst könnte man das beispielsweise mit variablen Achsen selbst variieren. Darauf bezog sich dann auch mein, vor einigen Wochen vorgestellter Vorschlag "vaiable Achsen"! Externe Berechnung die nicht zeit skalierte Koordinaten nutzen könnten nach Synchronisation eingelesen werden! Will man damit einen unsynchronisierten Backtest fahren, müsste man das über einen Simulator der beide Ebenen ansteuern kann durchführen!
Wie sieht diese genau aus? extern ermittelte Datenpunkte (Wavelets) minus Underlining als Inputschablone? Welche Optimierungsparamter würde man hierzu einsetzen?
Es kommt darauf an welche Datenpunkte verglichen werden. Wenn der Input schon im Vorfeld um den Nullpunkt pendelt kann man auch 0-Basiswert verwenden. Andere Möglichkeiten sind Close(Basis)-Close (extern) oder Close/Close(extern).
Ich versuche im NN selbst nichts zu optimieren-sprich GA ist generell abgeschaltet!Im NN selbst kann man ohnehin nur Gewichte mit den GA hochoptimieren. Die Variablen in den Schablonen werden nicht berücksichtigt! Bei 2-3 Gewichten und schlanken Netzen gibt es nicht viel zu optimieren wobei ich meine Meinung zur Optimierung weiter oben beschrieben habe. Will man dennoch optimieren, sollte man gleichzeitig ein zuverlässiges Modell zur Kontrolle der Kapitalkurve haben! Die Kontrolle sollte in der Lage sein,Strukturbrüche im Vorfeld zu erkennen-wie man das mit diversen statistischen Testverfahren (M.-W- Test;ROC-Curve usw.),unter anderem auch mit der Differenzialanalyse testen könnte! Der RAFF-Channel ist die simpelste Methode aber ob man damit ein Portfolio stabil steuern kann bezweifle ich! Die Underwater-Equity ist für mich nur interessant, wenn der Abstand TRADE-ENTRY-DD gemessen und abgetragen wird. Der "theoretische DD,TOP-LOW,spielt für mich keine Rolle. Das sind individuelle Ansichten die von anderen Entwicklern differenziert gesehen werden können. Klar,jeder hat ein etwas anderes Schema mit dem gute Erfahrungen gemacht wurden und darauf baut man in der Regel auf! Man kann Systementwicklung bis zu einem gewissen Punkt verallgemeinern aber aber Punkt X mündet der Weg in tausend Seitenstraßen und jeder hat die Wahl, einen anderen Weg zu nehmen damit Punkt X erreicht wird! Siehe System vs diskretionären Handel: Es kann sein das beide das Ziel X erreichen-einer ja der andere nein-oder aber auch keiner von beiden..
Sollte man bereits das Prognoseziel auf aufbereitete Daten (Wavelets) beziehen, damit sich das Training nicht am "Rauschen" orientiert? Oder reicht ein GD of die ROC auch?Welchen Einfluss hat die Anzahl der Samples? Auf welche Faktoren sollte man bei der Evaluation der Anzahl Samples achten?
Als Prognoseziel habe ich immer die Investox Standard eingegeben.Hier muss man auf nichts besonderes acht geben. Man kann, wie oben beschrieben, die Wertbereiche der Outputs anpassen oder verändern und dem Problem,das gelöst werden soll,anzupassen! Aber die Investox-Vorgabe-Outputs beschreiben ja schon "unsere Problemchen"! Soll das NN ausschließlich gehandelt werden und nicht teil des Systems sein suchen wir meist die Wertveränderung in den kommenden n-Perioden oder fragen "Wie stark steigt-fällt der Kurs" in n- Perioden! Für weitere Inputschablonen kann man auch bei Knöpfel Software die Muster-NN laden und diese näher betrachten. Ist auch sehr interessant!
Die Samples teilen die Basiszeitreihe in Abschnitte auf und sollten im Zusammenhang mit dem Output erhöht oder gesenkt werden. In dem Umfeld muss man selbst testen indem man so vorgehen könnte: Anfangs steigt man mit 3-5 Samples ein. Ist das Netz stabil (Out of Sample) erhöht man schrittweise die Samples. Knickt der Out of Sample Zeitraum ab,lernt das Netz die Samples auswendig und hat die Fähigkeit zur Generalisierung verloren! Dieser Test sollte ohne jegliche GA Optimierung von NN oder Output im HS durchgeführt werden,da ansonsten die Wahrheit verwässert werden kann! Hat man ein NN, das nach dem Training im Out of Sample Bereich einbricht und erst nach GA Optimierung stabil wird...vergiss es wenn Du nicht eine Methode entwickelt hast, die KK zu stabilisieren-bzw. Strukturbrüche im Vorfeld auszuloten.
Mein Vorschlag zur NN-Entwicklung ist generell das man mit sehr kleinen Modellen startet und dann aufstockt. Sobald die Ergebnisse wieder schlechter werden sollte man die Veränderung im Netz rückgängig machen und nicht versuchen das Netz noch weiter mit Infos vollzustopfen oder mit Optimierung "das Problem zu lösen"..
Man sollte schon bei der Entwicklung daran denken wie man vorgeht,wenn das Netz erneut justiert werden muss. Schließlich soll die Neuausrichtung keine Woche dauern..
So long ...