Hallo
Du liesst eine Datenzeitreihe in Origin 8Pro ein, die du anschliessend mittels (vorzugsweise) Wavelets oder SSA so glättest, damit das "Rauschen" möglichst gut entfernt wird.
Für SSA verwende ich ein anders kleines Programm! SSA ist kein typischer Filter sondern ein Forecaster! Das heißt man kann damit n-Perioden in die Zukunft projizieren-ähnlich der typischen Zeitreihenanalyse wie man sie in vielen Statistikprogrammen durchführen kann und auf HappyJuppy.com angeboten wird! Mit Hilfe von SVM ließe sich ein ähnliches Schema fahren wobei sich die Algorithmen unterscheiden! Wie schon in einem anderen Thread geschrieben benötigt man für überproportionale Gewinnmöglichkeiten bei NNs lediglich eine Periode Vorlauf. Um die Qualität des Vorlaufes zu testen benötigt man einen Feed Forward Test der die Zeitreihe nach unterschiedlichen Kriterien abtastet! Somit kann man die Qualität von Forecast-Indikatoren oder SVM-Algorithmen ermitteln. Im Backtest funktioniert das nicht, da es sich um einen starren und nicht dynamischen Test handelt! Die Dynamik bei diesen Methoden besteht darin,das die Historie mitgeschleift wird! Das heißt die Daten die vorne verlängert werden,fallen am Ende raus! Umfangreiche FW-Testplattformen können aber noch ein bisschen mehr...
Diese "Entrauschten" Daten ziehst du danach als Basis für deine Imputschablonen heran und versuchst die Robustheit des mittels Data Scrambling (bspw. Monte Carlo Simulation) zu validieren. Inwiefern unterscheidet sich (theoretisch) ein entrauschen der Datenbasis mit Wavelets zum Beispiel von dem glätten der Daten mit einem OMA?
In der Regel entsteht Rauschen immer um den Mittelpunkt..Point of Control,wenn man so will! Filter sind Transformationen die zwar nicht genau den Mittelpunkt treffen (kommt auf die Berechnungsformel an) aber auch nicht meilenweit davon entfernt sind! FFT haben den Nachteil das sie zum über-oder unterschwingen neigen. Daher sind FFT-Transformationen im Bandpassfilter besser aufgehoben! Das Prinzip der Bandpassfilter ist mit Hülleninidikatoren wie Bollinger Bänder vergleichbar! Die Zeitreihe wird in ein Frequenzfeld zerlegt,die Ausreißer die über die Bänder des Filters hinaus gehen abgeschnitten und das ganze wieder retransformiert! Das Ergebnis,eine transformierte Frequenzwelle wird auf einer Zero-Linie abgetragen um die der so entwickelte Filter oszilliert! Die Glättung kann via FFT erfolgen! Wavelets neigen nicht wie FFT dazu,heftig zu über-untersteuern und orientieren sich stärker an der tatsächlichen Zeitreihe ohne wichtige Informationen zu verlieren oder Sektionen zuzudecken! Data Scrampling nutze ich kaum,da meiner Ansicht Ansicht nur die Daten und Ergebnisse widergespiegelt werden die man im Modell eingegeben hat! Wenn man mit komplett verrauschten Daten arbeitet wird Data-Scrampling an dieser Tatsache nichts ändern. Also muss man zunächst den ersten Schritt versuchen so gut wie möglich umzusetzen und dann eventuell ein bisschen mit DS testen! GDs habe den Nachteil,das sie die Y-Achse verkleinern und die X-Achse verlängern! Das Resultat ist ein TimeLag und teilweise heftige Ablenkungen von der primären Bewegung! Es gehört schon viel Glück dazu einen GD so einzustellen das er den Mittelweg zwischen wichtigen Informationen und Kursrauschen findet! Ob der OMA neben den x-GD Formen die es sonst noch gibt das NonPlus Ultra ist, kann ich nicht beurteilen. Wichtig bei GDs ist, das sie die Y-Achse nicht zu sehr strecken,die Y-Achse nicht zu stark stauchen und der allgemeine Verlauf, von Datenpunkt zu Datenpunkt, nicht übermäßig stark Ausreißer zeigt,wie das z.B. Beim LR-GD der Fall ist! Da jeder GD hinter dem Kurs herläuft,ist einen optimale Lösung,so wie vorstehend beschrieben kaum erreichbar! Und man sollte auch darauf achten,das für das NN nicht alles optimal ist,was für das Auge optimal erscheint! Manchmal sind es unscheinbare Filter welche die Performance bringen und nicht diejenigen die im Chart eine gute Figur machen! Das Auge "denkt" linear" und kann Muster aus nicht linearen Datenquellen kaum erkennen!
Darf ich fragen, was du unter "optimal entrauscht und aufbereitet" (siehe Beitrag 6646, Data-Scrambling - einsetzbar zur Selektion von zukünftig erfolgreichen HS?) verstehst? Wie kannst du das messen, oder handelt es dabei um eine "subjektive" Einschätzung? Ich bin ja wirklich sehr sehr froh, dass du dich noch immer hier im Forum tummelst, dennoch finde ich es schade, dass du die Signale in diesem Posting nicht exakt umsetzen kannst. Was sind den die Gründe dafür keine zeitlich synchrone und stablie Signale produzieren zu können?
Zunächst ist es leider so,das man nur das testen und präsentieren kann für was man die Mittel hat-leider! Ich würde auch lieber mit ein paar Statistiken,Graphen und Flash-Filmchen zu Live-Training aufwarten! Entrauschen ist eigentlich keine subjektive Einschätzung sondern das Ergebnis von Filtern! Es gibt eine Möglichkeit Kurszeitreihen subjektiv zu filtern indem man die Peaks manuell festlegt! Das geht am schnellsten mit Datendigitalisierung! Dir Gründe für Instabilitäten liegen zum einen Teil in der Origin-Bererchnung der Filter. Das Programm ist natürlich nicht für Börsenkursaufbereitung spezialisiert! Hier müsste man erst eine Lösung finden! Und man kann mit Origin nicht an Investox andocken-oder analog.Das gleiche Problem habe ich mir den SSA-Analysen,die heute wieder hervorragend funktioniert haben! Im Anschluss habe ich eine Grafik vom FDAX,die das typische Ausreißer-Problemchen zeigt! Wenn ein NN diesen Peak in die Näherung einbezieht, liegt es in der Gesamtheit falsch weil dieser Peak untypisch ist! Gleichzeitig kann man sehen wie Zahlen die Kurse beeinflussen. Das sind Momentaufnahmen die von trägen Systemen nicht erfasst werden können. Dazu ist es nötig, ein Modell zu entwickeln das bis in die Nischen folgt. Aber gleichzeitig sind solche Systeme extrem verrauscht und eher für Patternsysteme geeignet!
Ist es in der Tat so, dass eine entrauschte Datanbasis einen höheren Einfluss als Inputs auf die Qualität der NN hat?
Das kannst Du selbst testen: Glätte in Deinem Modell den Output und beobachte im Investox Trainingsfenster die Korrelation und den t-Test.Verwende die Crossvalidation mit 3-5 Samples. Nach dem Test nimmst Du die Glättung raus und beobachtest die Zahlen wieder. Der t-Test wird sich kaum verändern aber die Korrelation wird im Evaluierung-und Testfeld erheblich an Performance verlieren! Es sein denn Dein Modell ist optimal. Dann werden alle drei Felder ungefähr synchrone Ergebnisse während des Trainings zeigen. Das Training kann man in der Regel sofort beenden, wenn die Zahlen im Testfeld erheblich von der Kontrolle abweichen!
Beispiel: Training Korell.: 0,400 Eva.:0,150 Kontrolle: 0,20 (Crossvalidation)
Hier kann man das Training so langsam einstellen.....