Dienstag, 16. April 2024, 19:08 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: INVESTOX-Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

1

Montag, 2. November 2009, 23:23

Modell-Feinjustierung

Einige der althergebrachten Systementwicklung-Leitsätze lassen sich mi tNP teils widerlegen,wie man das in der Grafik sieht! Im abgebildeten System wurde überwiegend in einem Lernzeitraum trainiert, der dem Testzeitraum vom Verlauf her nur in Ansätzen ähnelt! Dennoch ist die Performance im Testzeitraum relativ gut. An dieser Stelle der Hinweis der in vielen Testdurchläufen immer wieder auffällt.

NP hat eine Funktion MaxCluster.Ohne die exakte Begriffserklärung aus der Inv-Hilfe zu wiederholen kann man sagen, das an mit dieser Funktion Überoptimierungen entscheidend entschärfen kann!In der NP-PDF wird das Zusammenspiel der MaxCluster mit der MaxAbweichung beschrieben. Meine Einstellungen sind in vielen Fällen so, das die MaxAbweichung sehr nah am Nullpunkt liegt und die MaxCluster dann via LiveKlick ,angefangen von einem hohen Wert reduziert werden!Bei sehr kleinen zeitbasierten Komprimierungen wird man aber feststellen, das der Testzeitraum immer schlechter wird. Das liegt daran, das immer weniger Cluster für die Signalgenerierung verwendet werden. Das baut Überoptimierung zwar ab-aber in vielen Fällen auch die Performance des Systems! Modelle die mit vielen Clusters entwickelt wurden und auch im Testzeitraum weiter stark performen sind wesentlich anfälliger als Modelle die mit weniger Clusters arbeiten.Mit den mitgelieferten Testsysteme kann man mit dieser Funktion spielen. Es lässt sich beim testen schnell feststellen, das im Lernzeitraum bei Erhöhung der Clusteranzahl die Performance drastisch steigt!Wie kann es dann sein das auch im Lernzeitraum die Performance steigt? In vielen Fällen ist es so, das im Testzeitraum die gleichen-oder viele ähnliche Muster wie im Lernzeitraum vorhanden sind.Wie NP die Muster analysiert und letztendlich auswertet bleibt uns verborgen aber über diese Funktion kann man zumindest die "Curve-Fitting Stärke" beeinflussen. Den "Trick" einen Lernzeitraum in den Testzeitraum zu projizieren kennt man auch bei NNs oder sonstigen optimierten Modellen. Die Folge ist, das die System in Zukunft ab einem fixen Zeitpunkt heftig einknicken, wobei zwischen Lern-Test und OoS-Zeitraum teils erheblich große Zeitspannen liegen können. Man kann dieses Verfahren anwenden wenn man mit den Gegenmaßnahmen vertraut ist! Mit dieser Anwendung ist man dann vertraut, wenn man die Kernfunktionen und das Grundgerüst selbst konstruiert und ausgetestet hat.

Es lässt sich feststellen, das nicht unbedingt die Inputs der ausschlaggebende Faktor für die Performance darstellen. Die Möglichkeiten für die Feinjustierung die NP bietet sollte man auf keinen Fall unterschätzen!Es bringt nicht so viel ,das Modell mit Inputs vollzustopfen (wie man das mitunter bei NNs macht und dann selektiert) sondern mit kleinen,schlanken Modellen beginnt und versucht über die Feinjustierungen,von denen ich versucht habe eine näher zu beschreiben,einstellt!Ein großer Vorteil ist,wenn man die Zeitreihen "säubert" denn noch immer lässt sich jeder Algorithmus fehlleiten!Wie säubert man für Zeitreihen für NP kostengünstig und ohne hohen Aufwand? Nein, nicht mit Jurik-Indikatoren oder sonst hochwissenschaftlichen,käuflichen Instrumenten sondern einfach mit P&F,RENKO und Spannencharts,die-gibt's gratis in INV-XL...;)
»Udo« hat folgendes Bild angehängt:
  • FJ.png
Happy Trading

Rubelroller

unregistriert

2

Dienstag, 3. November 2009, 00:02

Hallo Udo,

Es lässt sich beim testen schnell feststellen, das im Lernzeitraum bei Erhöhung der Clusteranzahl die Performance drastisch steigt!Wie kann es dann sein das auch im Lernzeitraum die Performance steigt? In vielen Fällen ist es so, das im Testzeitraum die gleichen-oder viele ähnliche Muster wie im Testzeitraum vorhanden sind.


Verstehe ich nicht ganz, obwohl schon 5 Mal durchgelesen ;( . Vielleicht liegt es an der späten Stunde, vielleicht hast du Lernzeitraum mit Testzeitraum verwechselt.

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

3

Dienstag, 3. November 2009, 00:41

Hallo Juri,

danke für den Hinweis! Ich habe die Passage oben korrigiert Zweimal Testzeitraum geht nicht..;)
Happy Trading

chied

unregistriert

4

Dienstag, 3. November 2009, 08:06

Hallo Udo



Vielen Dank für deinen Input.



Was meinst du den genau mit säubern? Preprocessing der Datenreihe mittels P&F ect?



Danke & Gruss



Roger

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

5

Dienstag, 3. November 2009, 10:03

Hallo Roger,

ja genau! Das Preprocessing verliert mit NP hinsichtlich der Gesamtperformance der Systeme etwas an Bedeutung aber in Anbetracht der Stabilität ist es m.A. immer noch wichtig, die Zeitreihe von Ausreissern und Anomalien zu säubern-auch mit NeuroClassify! Bei der Neuralen Prognose sollte man das unbedingt tun, da dieser "Indikator" ähnlich einem NN funktioniert- bis auf den Algorithmus, der nicht mehr auf Backprop aufbaut und somit auch nicht dessen Schwächen (oder Stärken) mitbringt! P&F,RENKO und die Spannencharts wurden genau deshalb entwickelt, Anomalien aus den Zeitreihen zu eliminieren,wobei man mit P&F m.M. die meisten Möglichkeiten hat!
Happy Trading

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

6

Dienstag, 3. November 2009, 13:16

Hallo Udo,

Zitat

Ein großer Vorteil ist,wenn man die Zeitreihen "säubert"

Könnte man da nicht vielleicht auch einfach sagen "glätten", z.B. mit dem guten alten GD().

Zitat

Anomalien aus den Zeitreihen zu eliminieren,wobei man mit P&F m.M. die meisten Möglichkeiten hat!

Ist das nicht problematisch bei NP, weil man hierdurch den linearen Zeitachsenbezug verliert, was z.B. bei einem GD() nicht der Fall wäre.
Meinst Du damit das Du bei HS-Titel-Komprimierung P&F einstellst oder
irgendwie P&F als Input bei NP reinbringst, wobei das HS trotzdem auf einer linearen Zeitkomprimierung, z.B. auf 60min weiter läuft?

Ich bekomme einfach die Puzzels noch nicht richtig zusammen, wie Du das meinst.

Bin gespannt auf Deine Antwort.

Viele Grüße
Torsten

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

7

Dienstag, 3. November 2009, 13:47

Hallo Torsten,

zu Frage 1: Das kannst Du gerne nennen wie Du möchtest! :-) Der Indikator/die Komprimierung soll Ausreißer eliminieren. Mit einem GD glättet und eliminiert man Ausreißer und mit P&F,RENKO und Spannencharts in gewisser Hinsicht auch! Allerdings glättet man mit diesen drei Methoden nicht wirklich wie beim GD sondern kapselt einen bestimmten Wertzonen-Bereich auf der Y-Achse in einen Brick, X&O oder als Spanne xy ab! Somit soll ausgeschlossen werden das zwischenzeitliche Ausreißer zu viel Gewicht in der Bewertung finden bzw. Werte liefern und der Algorithmus auf die schwergewichtigen Zonen fixiert werden kann! Wenn man sämtlich Ausreißer in die Bewertung aufnimmt und beispielsweise MAXCluster sehr empfindlich einstellt kann man davon ausgehen, das der OoS-Zeitraum im wesentlichen nur den einen Zyklus eine starke Performance vom Lernzeitraum weiter schreibt,da es sich um ein projiziertes System handelt. Es findet folglich eine versteckte Überoptimierung statt! Das kann man natürlich handeln wenn man weiß,wie man damit umgehen muss!

Die Basiskomprimierung wird auf eine der drei Komprimierungen eingestellt. Ich vermeide grundsätzlich alles, was komplex ist und eine P&F Komp-Berechnung innerhalb einer zeitbasierten Berechnung die mögliche Fehlerquellenquote steigert. Zudem glaube ich das es bei diesem Algorithmus nicht notwendig ist, KOMP in KOMP zu berechnen! NP berechnet das was man vorgibt. Der lineare Zeitbezug geht nicht verloren weil P&%F/R/S mit realen Werten auf der Y-Achse berechnet werden. Würden bei diesen drei Komprimierungen nur tatsächliche Spaltenwerte berechnet,was optional möglich ist, hätte ich auch meine Bedenken. Das Ergebnis wäre dann etwa so wie bei Heikin Ashi,deren Signalausgaben bei unzureichender System-Aufbereitung imaginär sind!
Happy Trading

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

8

Dienstag, 3. November 2009, 14:06

Hallo Udo,

Zitat

Die Basiskomprimierung wird auf eine der drei Komprimierungen eingestellt.

Das ist auf jeden Fall eine gute Idee es so einfach wie möglich zu halten. Bei dem Komp() Indikator muss man verdammt gut aufpassen.

Sobald ich etwas Zeit habe, werde ich es mal probieren. Aber ich muss gestehen ich bin noch nicht mal mit den Standardbsp. von AK durch.

Danke für den Tip.

Viele Grüße
Torsten

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 070

Wohnort: Iringsweg

9

Dienstag, 3. November 2009, 22:23

Und ich muss sagen, dass die Anwendung von höheren Komprimierungen auf die neuen N+ Indis bei niedrigerer Gesamt-Komprimierung die Systeme rockt. Weil auf höhrere Ebene (>= 30. Min) die Mustererkennung über die N+ Kluster spitzenmässig klappt, aber auf niedrigerer Ebene (<= 5 Min.) das Feintuning der Entries über Trigger sowie die Trade Bewachung über das RM besser in Stellung zu bringen ist! Wenn die Anwendung von Komp() auf N+ Indis sowohl technisch (Stichwort Syntax Graph) als auch im Beispiel noch besser dokumentiert wird, wird man einmal viel weniger Zeit mit Versuch und Irrtum verlieren!

Ich hoffe sehr, dass genau dieses interessante Feature, die Anwendung von KOMP() auf die neuen N+ Indikatoren in der Praxis und im Detail Syntax-mässig und im Beispiel noch besser dargestellt wird!

"So einfach wie möglich" ist schon ok, aber einfacher? - darf es halt auch nicht sein ...
Gruss
Bernd

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

10

Dienstag, 3. November 2009, 22:51

Das lässt sich natürlich auch mit dementsprechenden Stopps und Filtern ausbalancieren-ohne Komp in Komp verwenden! Zudem kann man die Schablone dementsprechend aufbauen und bestücken.Die Möglichkeiten sind hier extrem vielfältig! Ich suche die fehlerunanfälligsten aber dennoch erfolgversprechenden Kombinationen. Diese können durchaus simpel aufgebaut sein.
Happy Trading

cnolte

Profi

Registrierungsdatum: 23. November 2006

Beiträge: 399

11

Mittwoch, 4. November 2009, 15:07

Hallo Bernd,

würdest Du einmal ein konkretes Gut/Schlecht-Beispiel zur Syntax der Komp-Anwendung mit N+ posten wollen? Das wäre sicher für einige interessant.

Viele Grüße
Cornelius

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 070

Wohnort: Iringsweg

12

Mittwoch, 4. November 2009, 17:45

Hallo Cornelius

N+ ist ja m.M. schon wegen der vielen tollen Beispiele ein Kauf! Das Tool begeistert mich sehr. In irgendeinem Thread war zu lesen, dass es auch bald Komp() für die N+ Indikatoren geben soll, und das wird dann eine weitere Steigerung der Möglichkeiten des Tools werden!!! Was ich mir davon erhoffe, davon hatte ich oben geschrieben.

Nun ist Komp() schon heute nicht einfach auszureizen in den Möglichkeiten - besonders, weil es mehr gibt als in der "normalen" Investox Doku drin steht (Stichwort: Formeln innerhalb von Komp()). Mit dem Beitrag oben war die Aussage verknüpft, dass ich selbst sehr an einer formellen Beschreibung der Investox Sprache - vor allem in Bezug auf die weniger bekannten Möglichkeiten von Formeln innerhalb von Komp() - interessiert bin.

Idealerweise erwartet man als Programmierer die Spezifikation einer Sprache dazu als sogenannten "Syntax-Graphen", und der muss vom Hersteller kommen, kann nicht von einem der Anwender (wie mir) erstellt werden. Ein Syntax Graph ist eine lückenlose Darstellung eines Befehles mit allein seinen Parametern und Optionen in a) Form einer graphischen Befehlsfolgelinie und b) einer textuellen Beschreibung zu jedem Objekt im Graphen.

Sobald Komp() für N+ verfügbar ist, wünsche ich mir genau diese Syntax Graph Doku für die Verschachtelung von N+ angereicherten Formeln innerhalb von Komp(). Damit diese formelle Syntax-Graph Doku nicht so abstrakt bleibt (wie sie der Sache entsprechend geliefert werden muss), wäre es toll wenn es dazu praktische Beispiele gegeben würden.

Und damit kann man dann wirklich seeehr fein justieren !!!
Gruss
Bernd

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Bernd« (4. November 2009, 18:00)


cnolte

Profi

Registrierungsdatum: 23. November 2006

Beiträge: 399

13

Mittwoch, 4. November 2009, 18:15

Ach so, ich dachte das gäbe es schon, weil Du geschrieben hast es rockt. Also dachte ich, es rockt schon und Du weißt wie.

Ich setze jetzt also noch N+ unter die X-25M auf die Wunschliste ;-)

Viele Grüße in die umsatzsteuerfreie Schweiz!

Cornelius

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 070

Wohnort: Iringsweg

14

Mittwoch, 4. November 2009, 19:28

Grüße in die umsatzsteuerfreie Schweiz!

Nicht ganz, aber im Vergleich nahe dran; auch hier gibt es ein wenig MwSt, die machen Gross-D alles nach am Ende. Aber: die MwSt. in D wurde eingeführt, um die Luftbrücke nach Berlin zu bezahlen. Es wurde damals heilig versprochen, dass es nur eine vorübergehende Sache sei. Nun, ich habe gehört inzwischen sind es vorübegehende 19%. D.h. wenn Du Dir was kaufen willst in Dland für Dein Jahres-Salär, dann wirst Du 2,28 Monate (d.h. bis Mitte März) für die Luftbrücke gearbeitet haben. Neben den anderen 53% Einkommenssteuer, die aufgebracht wurden mit der Arbeit von Mitte März bis Ende September. Also, 3 Monate darf man in Dland für sich selber behalten. Abzüglich Mineralölsteuer, Soli und ein paar weiter klitzekleine Abgabenkleinigkeiten.

Übrigens wegen 10% gab es damals hier Bürgerkrieg :S
Gruss
Bernd

cnolte

Profi

Registrierungsdatum: 23. November 2006

Beiträge: 399

15

Mittwoch, 4. November 2009, 19:36

Ja, so ist das. Und wenn Du Dir vom kümmerlichen Rest eine Flasche Schampus kaufst, finanzierst Du über die Sektsteuer noch Kaiser Wilhelms Kriegsflotte.

Prost!

Viele Grüße
Cornelius

Bernd

Experte

Registrierungsdatum: 5. Juni 2005

Beiträge: 4 070

Wohnort: Iringsweg

16

Mittwoch, 4. November 2009, 19:42

Prost.
Gruss
Bernd

nrwrules

unregistriert

17

Sonntag, 8. November 2009, 03:38

Der Indikator/die Komprimierung soll Ausreißer eliminieren. Mit einem GD glättet und eliminiert man Ausreißer und mit P&F,RENKO und Spannencharts in gewisser Hinsicht auch!
Was ist denn der qualitative Unterschied zwischen P&F, Renko und Spannencharts und Vorteil gegenüber dem Wegbügeln von Ausreißern, wenn man beispielsweise "Dämpfen" vor den weiteren Input schreibt?

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

18

Sonntag, 8. November 2009, 09:23

Die loga. Dämpfung mindert lediglich (Frequenz)Ausschläge z.B. stationärer Datensätze . P&F;Renko und Spanne eliminieren diese Peaks und bereinigen die Datenreihe von Datenbündlungen und Ausreissern. Dem Algorithmus werden demzufolge kleinere und klarere Datensätze vorgelegt die eindeutiger zugeordnet werden können und Fehlinterpretationen, bedingt durch massenhaft Peaks und Ausreißer, vermeiden. Die Dämpfung eliminiert nichts und trotz der Frequenzdämpfung wird jeder Datenpeak vom Algorithmus erfasst! Insbesondere mit P&F kann man komplette Handelssysteme (auch auf die herkömmliche Art) entwickeln da zudem Muster benannt werden können. Wenn man ein NN oder mit NP beispielsweise auf Basis eines GD entwickelt (was real aber nicht handelbar ist) kann man feststellen, wie gut beide auf Preprocessing der Basis (im weiten Sinn) reagieren. Allerdings bezieht sich die "Leistungssteigerung" auf die Komprimierung der Basis und nicht unbedingt auf die Glättung/Dämpfung der Inputs!Das Preprocessing hat im NN nur dann Wirkung, wenn die Glättungsmethode sehr nah am realen Kurs liegt,aber dennoch Peakbündlungen eliminiert und einen hohen Anteil an aufkommenden Ausreißern egalisiert!
Happy Trading

nrwrules

unregistriert

19

Sonntag, 8. November 2009, 23:34

Die loga. Dämpfung mindert lediglich (Frequenz)Ausschläge z.B. stationärer Datensätze . P&F;Renko und Spanne eliminieren diese Peaks und bereinigen die Datenreihe von Datenbündlungen und Ausreissern.
Unter "Ausreisser" kann ich mir etwas vorstellen, aber was sind "Datenbündelungen"? ?(
Btw. welchen Stellenwert hat das Thema "Normalisierung" für NeuroPlus? Hat das zufällig schon jemand getestet?

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

20

Montag, 9. November 2009, 00:27

Ein Datenbündel ist wie der Name schon sagt ein Bündel von Daten auf engsten Raum bzw.ein Anhäufung chaotischer Bewegungen- oder wie der Trader sagt:eine Konsolodierungs-Range! Ich habe Preprocessing nicht getestet sondern wollte mit dem Thema einfach nur mal wieder was schreiben... :D Datennormalisierung und Datenglättung ist ein Unterschied! Der Unterschied besteht darin, das man bei der Normalisierung Absolutwerte in eine stationäres Umfeld packt und bei der Datenglättung eliminiert man chaotische Anhäufungen und Ausreisser um Fehlinterpretationen weitesgehend zu vermeiden.
Happy Trading