Freitag, 19. April 2024, 19:15 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

1

Donnerstag, 31. Juli 2008, 18:04

Data-Scrambling - einsetzbar zur Selektion von zukünftig erfolgreichen HS?

Hallo,

hat vielleicht schon jemand Erfahrungen gesammelt, wie man DC zur Bewertung von HS einsetzen kann?

Beispiel:
Man hat 10 HS, die z.B. auf NN basieren und auf Kursmuster trainiert wurden (d.h. keine Intermarketbeziehungen enthalten) und zum aktuellen Zeitpunkt alle sehr schöne KK aufweisen.
Aber welches nun handeln? Mit Sicherheit wird bei einigen HS die KK "abschmieren". Kann man über DC, indem man z.B. 100 ähnliche, synthetische Kursreihen generiert und dann auf die HS anwendet ermitteln, welches HS höchstwahrscheinlich das robusteste sein wird und wo die KK am ehesten weiter steigen wird?

Vielleicht hat in der Richtung schon jemand mal experimentiert und kann was dazu erzählen.

Viele Grüße
Torsten

PS:
Anstatt z.B. die ersten 100 sythetischen Kursreihen zu verwenden, könnte man sich die 5-10 besten sythetischen Kursreihen merken, dann wieder 100 neue generieren, die besten selektieren, usw. bis man 100 gute sythetischen Kursreihen. Diesen "verbesserten" Testset könnte man anschließen als Vergleichsmaßstab zur Bewertung alle HS verwenden. Das HS welches die beste Portfolio-KK liefert, wäre dann der Gewinner.
Aber wäre die Selektion der jeweils besten sythetischen Kursreihen nicht eine Art Optimierung???? Und ist es wirklich möglich auf diesen Weg das zukünftig am ehesten erfolgreiche HS zu ermitteln? Wenn es hier schon Langzeiterfahrungen gäbe, würde das sehr weiter helfen.

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

2

Donnerstag, 31. Juli 2008, 18:54

Aber welches nun handeln? Mit Sicherheit wird bei einigen HS die KK "abschmieren". Kann man über DC, indem man z.B. 100 ähnliche, synthetische Kursreihen generiert und dann auf die HS anwendet ermitteln, welches HS höchstwahrscheinlich das robusteste sein wird und wo die KK am ehesten weiter steigen wird?

Torsten,wer eine Methodik gefunden hat bei der diese Vorstellung reibungslos klappt geht bestimmt mit G.Sorros Golf spielen! Ich denke hier ist der Wunsch Vater des Gedankens!
Data Scrampling ist dazu meiner Ansicht kaum geeignet-bestenfalls noch ein diverse statistische Messgrößen aber auch hier sind Grenzen gesetzt wie man das anhand Reiners Modell gesehen hat! Bevor man diese Mammuttest durchführt von denen man nicht weiss wie sie enden ist es auch manchmal sinnvoll, kleine und schlanke Modelle zu entwickeln die einen überschaubaren Horizont haben und nicht letzendlich das nachjustieren in eine Fleißarbeit ausarten lassen...
Happy Trading

zentrader

unregistriert

3

Freitag, 1. August 2008, 09:29

Data scrambling, data simulation...

...rein methodisch gesehen ist "data scrambling" m.E. sogar sehr geeignet, ein Handelssystem zu validieren bzw. dessen Robustheit abzuschätzen, abhängig natürlich von den möglichen Methoden der Datensimulation bzw. der Fähigkeiten der entsprechenden Software-Tools.

Der Vorteil dieser Methode ggü. anderen konkurrierenden Ansätzen wie der Verwendung von klassischen "out-of-sample"-Ansätzen oder der Verwendung unterschiedlicher historischer Märkte liegt einfach darin, dass eben noch wesentlich mehr (potentielle) Marktszenarien getestet werden können, als alleine mit existierenden historischen Daten.

In dem "mehr" liegt aber auch der von Udo bereits angesprochene Nachteil, der mögliche Aufwand der Methode. Diesen Zyklus "Datensimulation - HS-Test - Systemsimulation" etc. kannst Du mit schier unendlichem Aufwand treiben und wirst trotzdem niemals sicher sein, ein entscheidendes potentielles Marktszenario eventuell nicht berücksichtigt zu haben.

Trotzdem halte ich diese Methode für einen wesentlichen Bestandteil eines HS-Tests oder einer HS-Bewertung, insb. wenn dieses HS auf unterschiedlichen Märkten und auf unterschiedlichen Zeitebenen einsetzbar sein soll.

Habe mich diesbzgl. ja auch schon mal in Traders' geäussert:

http://www.zentrader.de/mcs_artikel_traders2007.pdf

ciao,

zentrader

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

4

Freitag, 1. August 2008, 11:28

Hallo zentrader,

Die Theorie ist mir soweit bekannt. Danke für Deinen Artikel. Den Artikel hatte ich damals schon bei der Veröffentlichung im Traders verschlungen und überlegt, ob sich damit folgendes Problem eventuell lösen läßt.

Ziel:

Zitat

Man hat 10 HS, die z.B. auf NN basieren und auf Kursmuster trainiert wurden (d.h. keine Intermarketbeziehungen enthalten) und zum aktuellen Zeitpunkt alle sehr schöne KK aufweisen.
Aber welches nun handeln? Mit Sicherheit wird bei einigen HS die KK "abschmieren". Kann man über DC, indem man z.B. 100 ähnliche, synthetische Kursreihen generiert und dann auf die HS anwendet ermitteln, welches HS höchstwahrscheinlich das robusteste sein wird und wo die KK am ehesten weiter steigen wird?


Überprüfung
Man ermittelt nach einer Methode X eine Rangfolge:
1.HS, 2.HS, 3.HS, usw. Die HS sind so angeordent, dass das wahrscheinlich zuverlässigste HS das 1. ist. Das letzte HS ist dass voraussichtlich schlechteste (=abschmierende) HS.
Nun wartet man einfach 100 Perioden und füttert die HS mit den täglichen Kursen und kann am Ende feststellen, ob sich die Hypothese bestätigt hat oder nicht.

Nach welcher Methode X mit DC die Reihenfolge ermitteln?
Methode 1)
- man generiert 100 synthetische, ähnliche Kursreihen (synKR) auf Basis des Tradingwertes
- ermittelt pro HS-Testkandidaten für alle 100 synKR die Gesamt-Kapitalkurve (GKK)
- das Ergebnis ist leider eine heftig fallende GKK
- das beste HS wäre dann das, wo die GKK nicht so stark gefallen ist, z.B.
1.HS=-20.000€, 2.HS=-30.000€, 3.HS=-33.000€, usw.

ABER was ist, wenn man die nächsten 100 synKR generiert und sich die Reihenfolge der HS jedesmal ändert? Entweder müsste man dann den Vorgang mehrmals wiederholen und hoffen, dass sich eine Gruppe von Favoriten herausbildet. Und/Oder man müsste die Anzahl der synKR trastisch erhöhen, z.B. auf 10.000 oder 100.000. Aber ich kann unmöglich 100.000 mal für jeden synKR-Titel die minimale Preisänderung eintippen, siehe diesen Thread minimale Preisänderung (z.B. 0.005) beim txt-Import von mehreren Kursdateien bitte nur einmal eingeben und sollte dann für alle Titel übernommen werden
, d.h. im Moment bin ich mit der Anzahl synKR noch stark limitiert. Hoffe aber, das Herr Knöpfel den ersten Eingabewert der minimale Preisänderung demnächst für alle zu importierende Kursreihen übernimmt.

Merthode 2)
Man testet nicht auf eine willkürliche Testmenge von synKR, sondern auf eine selektierte Anzahl von synKR.
Wie könnte nun eine solche Testmenge von synKR ermittelt werden, die eine faire Beurteilung aller HS ermöglich, ohne ein einzelnes HS zu begünstigen?
z.B. könnte man die 10 besten synKR für jedes der 10 Testkandidaten-HS ermitteln und daraus einen "Best-Testsatz" mit 100 synKR zusammenbauen.
Dann wird mit diesem "Best-Testsatz" alle Testkandidaten-HS getestet und das HS mit der besten KK ist der Gewinner, d.h. das 1.HS, usw.

Man könnte sich noch weiter Gedanken machen, wie man einen möglichst optimalen "Best-Testsatz" ermitteln könnte. Es gibt sehr viele Möglichkeiten, die ich unmöglich alle
ausprobieren kann.

Deshalb auch meine Frage hier im Forum, ob sich vielleicht schon mal jemand damit beschäftigt hat und konkrete praktische Erfahrungen hat, um die Vielzahl von Möglichkeiten einzugrenzen. Zentrader, wie würdest Du die synKR für den "Best-Testsatz" am geschicktesten auswählen?

Danke.

Viele Grüße
Torsten

PS:
Mir geht es also nicht darum das 100% sicher HS zu entwickeln/selektieren, sondern nur ein paar %-Punkte Wahrscheinlichkeit auf meine Seite zu holen, also statt 50:50 auf 52:48 oder so zu kommen :D

Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von »sten« (1. August 2008, 11:54)


Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

5

Freitag, 1. August 2008, 11:39

Hallo Volker,

ich bin mit Dir einer Meinung das man mit DS Robustheit von Systemen testen kann,keine Frage! Torsten meinte ,so wie ich es verstanden habe,das man mit DS eine Ableitung auf die Bewegung der Kapitalkurve erstellen kann! Das heißt im Fall der NNs, das man mit Hilfe von Data Scrampling darauf schließen kann, wann die Kapitalkurve des entsprechenden selektierten Generation abschmieren wird.

Dazu seine Frage:Aber welches nun handeln? Mit Sicherheit wird bei einigen HS die KK "abschmieren". Kann man über DC, indem man z.B. 100 ähnliche, synthetische Kursreihen generiert und dann auf die HS anwendet ermitteln, welches HS höchstwahrscheinlich das robusteste sein wird und wo die KK am ehesten weiter steigen wird?

Bei stat. Messverfahren ist es m.A.aber auch so,das sie stark von der Historie abhängig sind. Das zukünftig robusteste Generation muss aber in der Vergangenheit nicht die Beste gewesen sein! Mit dieser Annahme würde die Selektion der "besten" Generation kippen und die Chancen auf 50:50 schmelzen. Daher war meine Meinung das im Fall der Selektionsverfahren DS nicht unbedingt zum ersehnten Ziel führt! Eventuell könnte man die Daten noch in Frequenzen zerlegen und rücktransformieren wie man das beispielsweise mit High-Lowpassfiltern anwenden kann. Leider sind diese Filter verschiebbar und passen die Frequenzen über die gesamte Historie gesehen mit dem zufügen neuer Datenpunkte immer wieder an! Gesucht wird ein Verfahren,das Bewegungen in Frequenzen zerlegt,die Ausreißer findet und aufgrund der anwachsenden Frequenzamplituden die Bewegungsrichtung frühzeitig ändert so das man abschätzen kann, wann die KK einbricht-bzw. einbrechen könnte.Dieser so berechnete "Indikator läuft parallel zur KK und kann beispielsweise via Spreadergebnis eingesetzt werden!Wenn der Indikator weiterhin mit der KK parallel läuft, besteht für die selektierte NN-Generation noch keine Gefahr das sie in Kürze abschmiert.Man würde aus den vielen Generationen die auswählen,welche durch den Indikator als Robust bestätigt werden-oder besser gesagt für die nächsten N-Perioden als Robust deklariert sind...

@Torsten
Der Nachteil jeder statist. Zeitreihenanalyse ist das plötzliche Einbrechen lieneraer Berwegung kaum erfasst und prognostiziert werden können. In 90% der Fälle liegt man mit den Verfahren falsch und die Prognose geht danaben! Bei Bewegungen um den Zero-Punkt (Schwingungen), sind einige Verfahren wiederum sehr gut und man bekommt eine überaus gute Prognose-wie zum Beispiel mit SSA (Spectral-Analysen)...

Und überhaupt Torsten,schau doch mal auf einen Sprung bei NRCM vorbei-hier leigt die Lösung Deines Problems...:)
Happy Trading

frank sinatra

unregistriert

6

Samstag, 2. August 2008, 11:54

Hallo,

dem Thema Data-Scrambling stehe ich etwas zwiespältig gegenüber. Das große Problem dabei ist halt das das Im Endeffekt keine richtigen Kurse mehr sind auf denen das System getestet wird. Meine "Theorie des Systemhandels" ist das sich in den Kursreihen systematische Muster befinden und Rauschen (zufällige Schwankungen die Keinerlei Muster aufweisen). Das Ziel ist es natürlich ein HS zu entwickeln das sich möglichst gut an die vorhandenen Muster anpasst ohne eine Anpassung an das Rauschen vorzunehmen. Das was wir Curve Fitting nennen ist in Wirklichkeit das Anpassen eines Modells an die Zufallskompnente, das Rauschen. Wenn ich jetzt die Daten selbständig verändere in denen ich die Up-tick Wahrscheinlichkeiten, die Vola oder Kusspannen Spannen wie High zu Low, CLose zu Open durch einen Algorithmus anpasse, dann kann ich mir nicht sicher sein ob ich das Rauschen anpasse (gewollt) oder ob ich das eigentlich Kursmuster zerstöre. In diesem Fall kann das Modell natürlich nicht mehr funktionieren, obwohl es im realen Handel super gelaufen wäre. Um selbständig eigene Daten zu kreieren müsste man ja schon wissen was an der Kursreihe rauschen ist und was das eigentliche Muster - aber dann hätte man ja schon das perfekte HS und bräuchte auch kein DS mehr. Das ist halt so wie wenn ein Förster im Wald zwei Hirsche hat der eine ist weiss und der andere ist braun - er möchte den braunen erschiessen aber dem weissen soll auf keinen Fall was passieren. Der Förster ist aber Blind und ballert zufällig drauf los - da weiss man auch nicht was eliminiert wird...

So long Leute

Frank

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

7

Samstag, 2. August 2008, 12:27

@Frank

Sehe ich ähnlich deshalb müsste das Rauschen so gut wie möglich unterdrückt werden. Allerdings kann man keine rauschfreien Daten erzeugen und bestimmen-es sei denn man ist "Insider" und kennt den nächsten "linearen Hype"! Letztendlich geht man davon aus, das bei erfolgreichen DatatScrampling Test das HS eine gewisse Stabilität zeigt-aber man kann es nie garantieren! Zumindest poliert man damit die Statistik des Modells auf und beruhigt die Nerven! Der Statistik ist es egal ob der Hirsch braun oder weiß ist,aber es ist nicht egal ob es ein Hirsch oder ein Bär ist und genau das weiss man auch nicht so genau... :D ;)

Da alle Daten nachweislich mehr oder mnder verrauscht sind kann man die Bedeutung des Ris- und Money Management eines vollmech. Modells vielleicht besser ableiten und verstehen! Handelt man wirklich den oder die verrauschten Samples bricht das NN oder konventionelle HS fürher oder später rigoros ein. Das ist nur eine Frage der Zeit und der Zyklik!
Happy Trading

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

8

Samstag, 2. August 2008, 13:02

Dieses Modell zeigt zu was ein NN im Stande wäre (eine einzige Inputschablone) wenn die Daten optimal entrauscht und aufbereitet sind. Leider habe ich es mit der mir zur Verfügung stehenden Software noch nicht geschafft,zeitlich synchrone und stabile Signale zu erzeugen.... sonst säße ich jetzt bestimmt nicht mehr hier...;)

Happy Trading

frank sinatra

unregistriert

9

Samstag, 2. August 2008, 14:19

Hi Udo,

sieht interessant aus - was für eine Statistik Software verwendest du? Habe mal eine Zeit lang mit SPSS experimentiert aber habe da nicht so den Durchbruch gehabt. Wie hast du dir das angegeignet mit den Wavelets etc. ? Das sieht spannend aber auch ziemlich kompliziert aus. Aber interessiert hats mich schon immer - habe mich nur noch nicht dazu aufraffen können das mal in Angriff zu nehmen..

Grüße

Frank

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

10

Samstag, 2. August 2008, 23:59

Hallo Frank,

ich schreibe die Einzelheiten in den Thread,den Roger (chied) eröffnet hat weil das genau das Thema ist! Ich verwende dazu Origin 8Pro! Die Wavelets habe ich mit Origin ermittelt! Das ist ein mächtiges Programm und beinhaltet neben Wavelets auch FFT;ROC-Kurve,ANOVA,Lebensdauer,Hypothesentests,Datenmanipulation;Deskriptive Statistik;Hilpert Transformation;Mann-Whitney Test,Curve Fitting,Integration; uvm...das volle Programm eben! Natürlich benötigt man nicht alles, und mein Ziel ist, Daten hinsichtlich des rauschens zu untersuchen und eventuell zu transformieren-z.B. auch mit High-Low-Bandpass Filtern!

Anhand der Histogramme in Markt Plus kann man erkennen das Charts über weite Strecken normalverteilt sind,teils mit Links- oder Rechtsgefälle! Was die Charts und Prognosen aus der Bahn wirft sind News welche überhaupt erst die Bewegungen entstehen lassen. Ohne News würde die Börse abends ähnlich schließen wie sie morgens eröffnet und wahrscheinlich könnte man die Gausskurve darüber legen..;) Wenn man Intradaymodelle entwirft sind die Daten enorm verrauscht weil sich bei News extreme Peaks bilden können (Überreaktion) und somit den eigentlichen Kursverlauf verrauschen! Diese kurzfristigen Peaks dürfen,nimmt man es genau,nicht in eine Modellbewertung einfließen,um die regelrechten Daten nicht zu überlagern! Wenn relativ rauschfreie Daten überlagert werden kann ein NN diese immer ungenauer erkennen und zieht folglich falsche Schlüsse-bzw.die Datenfehlerminimierung baut auf verrauschten Daten auf! Somit ist das Modell von Beginn an angeschlagen weil es auf falschen Annahmen aufbaut! Eine Glättung bringt nicht immer den gewünschten Erfolg,da man wichtige Segmente,die wichtige Informationen liefern können "wegfiltern" könnte! FFT ist auch nicht das NonPlus Ultra da sie teils heftige Über-und Unterschwinger liefern! Also bin ich bei den Wavelets gelandet! Einzelheiten dann im anderen Thread...

Einem Backprop- NN genügt lt. meinen Tests eine einzige Periode "Vorsprung" aus um überproportionale Ergebnisse zu erzielen.Diesen Vorsprung erhofft man sich eben durch transformieren oder Intermarkets zu bekommen! Aber gerade bei Intermarkets ist es nicht einfach da sich die Korrelationen der Weltmärkte ständig etwas ändern und somit das Modell phasenlang scheitern lassen können! Mit Data-Scrampling,um auf das Eingangsthema zurückzukommen könnte man einen Filter testen um zu prüfen wie gut der Filter unbekannte Zufallszeitreihen entrauschen kann! Schneidet er hier gut ab,ist es vermutlich ein optimaler und stabiler Input! Dieser Filter sollte aber nicht nur mit GA optimiert funktionieren da man damit wieder ganz am Anfang steht und Deine Bedenken hinsichtlich Data Scrampling wieder zum tragen kommen. Man passt das NN den verrauschten Daten an..
Happy Trading

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 070

Wohnort: Iringsweg

11

Sonntag, 3. August 2008, 03:40

Hallo Udo

genügt lt. meinen Tests eine einzige Periode "Vorsprung" aus um überproportionale Ergebnisse zu erzielen.

Genau das haben meine Tests auch ergeben 8)
Gruss
Bernd

testeritis der zweite

unregistriert

12

Sonntag, 3. August 2008, 10:52

Verschiedene Märkte vs. Data-Scrambling

Der Vorteil dieser Methode ggü. anderen konkurrierenden Ansätzen wie der Verwendung von klassischen "out-of-sample"-Ansätzen oder der Verwendung unterschiedlicher historischer Märkte liegt einfach darin, dass eben noch wesentlich mehr (potentielle) Marktszenarien getestet werden können, als alleine mit existierenden historischen Daten.

Hallo,

Anfängerfrage, kann ich dies nicht auch durch Verwendung vieler verschiedener Märkte und langen Historien auch erreichen? Ich weiss jeder Markt hat so sein eigenes Charakteristika, nur so als Gedanke. des weiteren, jeder mech. Handelssystem stirbt irgendwann, auch wenn das Testen noch so erfolgreich war, hier müssen zusätzlich Kontrollparameter eingebaut werden um rechtzeitig auszusteigen, zumindest sollte dies beachtet werden.

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

13

Sonntag, 3. August 2008, 12:19

Hallo "testeritis der zweite",

"... kann ich dies nicht auch durch Verwendung vieler verschiedener Märkte und langen Historien auch erreichen? "

Ja, theoretisch schon, aber praktisch wieviele reale Kursreihen mit z.B. der Charakteristik *.??0 bzw. *.??5 Kursen kennst Du?
Solche Kursreihen bräuchte man für den Test von Schatz- und Bobl-HS.
Und ich meine nicht 10 oder 20, sondern eher mehrere 1000 ...

Viele Grüße
Torsten

Ähnliche Themen