Hallo zusammen!
@Martin
Danke für Deine umfangreichen Ausführungen! Das Wort "Neuronal" verleitet in der Tat zu Irrglauben und hört sich so an als wenn NN "mit-und weiter denken"! Ich habe einmal irgendwo gelesen das die heutigen Neuronalen Netze, die selbstständig reproduzieren und kombinieren auf dem Stand eines ca. 3-jährigen Kindes sind! Erst wenn NN selbstständig Entscheidungen treffen kann wird es interessant-aber auch sehr gefährlich wie ich finde denn zu viele Steuerungssysteme werden von Computern überwacht-aber das nur am Rande!
Ich hatte bei NN auch sehr wenig Gewichte und Schichten verwendet so dass das NN gezwungen war mit wenig Vorgaben ein gutes Ergebnis zu produzieren. Umso mehr gewichte, schichten und sonstige Funktionen man hinzufügt desto größer wird die Neigung zum Curve Fitting-so meine Erkenntnisse! Ganz schlimm wird es wenn man die Gewichte mit GA hoch optimiert! Aber man könnte das so entstandene Curve Fitting auch nutzen, indem man ein überoptimiertes NN so lange real laufen lässt, bis es zusammenfällt! Aber dazu fehlen uns wiederum statistische Verfahren die beispielsweise eine Abnahme der Prognose-Qualität sehr feinfühlig erfassen. Meistens sind die Raster für solche Messungen zu groß und man verliert zu viel Kapital bis man merkt, das neu trainiert werden muss. Es ist letztendlich m.A. noch nicht so optimal wie man das gerne hätte!Genauso sehe ich das bei SVM-nur das es-wie Du beschrieben hast-alles schneller abläuft und daher das erstellen von Systemen wesentlich interessanter ist, weil man nicht ewig auf ein Ergebnis warten muss. Zudem eröffnen sich damit Vorteile in Bezug auf Dynamik und unter Zuhilfenahme eine Feed-Forward Tests! da geht es dann richtig los.Dr. Paasche schrieb, das die Kernels neu geschrieben wurden weil die von WEKA zur Verfügung gestellten für unserer Zwecke unzureichend wären! Gibt und das jetzt zu denken?
Bei SVM sehe ich primär zuerst den Kernel als entscheidenden Faktor der über Erfolg oder Misserfolg entschiedet-dann den Periodenausschnitt der zum Training verwendet wird und dann erst die Inputs! Es scheint so zu sein, das bestimmte Kernels mit bestimmten Zeitreihenkonstellationen gut zurecht kommen-andere wieder nicht! Herbert,daraus könnte sich auch das gute Ergebnis Deiner beiden Zeitreihen erklären. Beide können wahrscheinlich mit dem gleichen Kernel gut prognostiziert werden,was bei der dritten gezeigten Zeitreihe nicht der Fall ist! Allerdings hat man das Phänomen auch bei ganz normalen GA optimierten Systemen. Wenn man ein System optimiert,passen oftmals von 100 Aktien noch für 10-20 weitere System und liefern Performance! Das kann der Fall sein, wenn die Basiszeitreihen im Verlauf stark korrelieren oder die gleichen Pattern/Muster in gleicher Richtung auftreten! Genetisch Algorithmen ist ein bewährtes Verfahren das viel Software Produkte beinhalten. Aber durch die Zunahme der Marktdynamik wird es m.A. immer wichtiger, das man die Systeme in hohen maß adaptiv gestalten kann. Gut, man kann Systeme jetzt schon adaptiv gestalten aber nicht unter Verwendung eines Algorithmus in Realtime! Und gerade Realtime ist m.A einer der mit entscheidenden Punkte!
Beim Newstrading habe ich einige Varianten die ich je nach Marktstimmung und Signifikanz der Wirschaftskennzahl anwende (Eine Erklärung dazu passt hier leider nicht ganz zum Thema und würde den Thread sprengen)! Ich würde- so wie auch Herbert- kein vollmech. Intraday-System über die Wirtschaftstermine rollen womit sich die Frage nach einer Funktion stellt, die Lernzeiträume (ähnlich NN) bei SVM ausklammert! Nehmen wir an,es wird der FDAX gehandelt. Dieser Indices hat ca.3-4 Std /Handelstag die man effektiv handeln kann-wenn viel "Feuer" drin ist, vielleicht mal 5 Stunden! Die andere Zeit ist oftmals sinnlos dahinvegetieren! Zeiten an denen nicht passiert sind m.A. für effiziente Muster sinnlos und sollten ausgeklammert werden. Es könnte sein das "Null-Sinn"- Daten zum verrauschen der SVM-Prognose führen! Ob das so ist oder sein könnte kann uns vielleicht Martin verraten? Aber ohne es genau zu wissen denke ich,das man jeden Algorithmus der aus historischen Datensätzen lernt in die Irre führen kann. Es kommt halt darauf an, mit was ihn wann und wo füttert...
Zu Punkt 2:
Ich meinte hier etwas ganz Simples: Angenommen man hat ein 5er Momentum und die Crosslinie,bei der ein Signal geliefert werden soll liegt auf 100. bewi den Angaben kann man die Perioden (5) und die Zonen (100) variabel gestalten. Anschließend muss man mit GA n-Durchläufe fahren und die Generationen selektieren. Im Grunde suchen wir Optimal dessen, was mit dem Indikator möglich ist- gemessen an den Kennzahlen des Kapitalzuwachses, Risiko und der Effizienz. Wir starten unser System mit der Einstellung: 5 Momentum-Perioden und Overcross100~~BUY/SELL. Nach 10 (realen) Perioden optimieren wir via SVM die Perioden des Momentums so wie die Overcross-Schwelle neu (nach diversen Verfahren mit einem Feed-Forward Test)! Da dass Prognose-Ergebnis sofort zur Verfügung steht, könnte man ohne Zutun die neu ermittelten Variablen für das nächste Signal erhalten und unmittelbar handeln! Tests für diese Variante müssten natürlich auch per FW-Test durchgeführt werden. Andererseits kann ich mir vorstellen, das man mit SVM zeigen lassen kann welche max. Performance der gewählte Indikator mit optimaler Einstellung in der Historie brachte. Nimmt man nur einen einzigen Indikator und optimiert diesen ist das zwar auch Curve Fitting -aber ich verstehe es eher als Information weil man betrachtet was mit den gewählten Einstellungen überhaupt realisierbar ist. Klar,man sollte natürlich dazu keine drei Indikatoren und zwölf Variable verwenden und das Ergebnis real handeln!
Aber ich meine auch hier gilt der Grundsatz: Weniger ist mehr!