Donnerstag, 25. April 2024, 10:12 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: INVESTOX-Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Dago

unregistriert

161

Donnerstag, 23. Oktober 2008, 10:49

Hallo zusammen
gute Ergebnisse bekomme ich mit den Norm-Indis nur dann, wenn ich nur reine Close-Kurse verwende. Das hat allerdings den Nachteil, dass das NN völlig versagt, wenn der Kurs aus dem trainierten Wertebereich herausläuft. D.h. das NN bekommt neue Zahlen vorgesetzt, die es vorher nicht trainiert hat und kann diese nicht mehr zuordnen. Von Sabilität kann also nur innerhalb eines bestimmten Bereiches gesprochen werden. Wenn ich ROC(Close,..) normiere, kann fast nie der trainierte Wertebereich verlassen werden, allerdings ist dann das NN durchgehend unstabil.
Diese Ergebnisse entstehen durch Tests in Kombination mit Pattern. Nur Indikatoren zu normieren hat bis jetzt kein sinnvolles Ergebnis gebracht.
Vielleicht sollten wir den Begriff "stabil" nochmal definieren. Bedeudet es immer die gleich KK im TZR und KZR zu haben, oder im Oos immer die gleiche KK zu haben, oder beides?

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

162

Freitag, 24. Oktober 2008, 11:00

Hallo,

Ich habe gestern Abend den neuen Indikator für die automatische Datennormalisierung hoch geladen! Damit sollte es möglich sein, den normalisierten Wert ständig zwischen 1 und -1 zu halten! Im Anschluss ist ein Netz, das hinsichtlich wiederholten Trainings und variablen Schwellen für den Input im Handelssystem gute Stabilität nachweist! Als Input wurde lediglich eine Schablone verwendet und zur Berechnung Close-Open/normalisiert! Mit der Steigerung der NN-Gewichte sowie der Anhebung der Samples wurde keine Überoptimierung erzeugt, sondern die Performance weiter verbessert! Das Netz funktioniert auch beim cross der Null-Linie! Das NN in der Grafik wurde im Handelssystem auf 0.05 beiderseits (Long-Short) justiert und steigt zum Open Delay 1 ein und aus! Insbesondere hat es mich überrascht, dass die Charakteristik des Testzeitraumes die nur ein einziges Mal im Lernzeitraum vorkam, und dennoch performte! Das Underlyings ist der DAX-Future, End of Day! Ich denke man kann daran erkennen, dass es nicht unbedingt viele Inputs benötigt um ein NN auf Vordermann zu bringen, sondern die wichtigsten Punkte sind die Daten Vorverarbeitung und die Relevanz der Inputs! Zudem stimme ich "datsys", der in einem anderen Thread geschrieben hat, dass auch die Architektur ein entscheidender Punkt ist voll zu!

Happy Trading

datsys

unregistriert

163

Sonntag, 26. Oktober 2008, 19:34

Entrauschen der Kurszeitreihe mit OriginPro durchaus verwendbar

Ein sonntägliches Hallo an alle!

Da wohl eher wenige Investox-User auf OriginPro zurückgreifen können und in diesem Thread auch die Frage der Verwendbarkeit von Wavelets für den Einsatz in Investox-NN's im Hinblick auf sich durch das Aktualisieren der Datenreihe (möglicherweise) ergebender NACHTRÄGLICHER Veränderungen der (mittels Wavelets) entrauschten Datenbasis (wodurch die Datenbasis dann praktisch einen Teil der Zukunft vorwegnehmen könnte!) kommuniziert wurde, habe ich als Anhang zwei Screenshots beigefügt, in welchen die Veränderungen bei sukzessivem Hinzufügen neuer Daten (jeweils eine Periode) sichtbar werden.

Eines vorweg: Als Aufbereitung für NN's können mittels Wavelets entrauschte Datenreihen für Investox-NN's aus diesem Blickwinkel betrachtet mit der Einschränkung des gewählten Verfahrens des Entrauschens dann aber doch durchaus eingesetzt werden.

Zum 1. Screenshot: Ausgehend von einer Datenbasis mit 100 Perioden (DAX-Eod) wurde jeweils eine "neue" Periode zugefügt, um feststellen zu können, ob und inwiefern sich das Hinzufügen der "neuen" Periode auf die bereits bestehende (und somit vor der "neuen" Periode erhaltene) Datenbasis auswirkt. Beim Entrauschen wurden die Standardeinstellungen des Programms beibehalten (HAAR). Fazit: Es sollte nur jede zweite Periode aktualisiert werden, sonst kommt es nämlich zu NACHTRÄGLICHER Veränderung der bestehenden Datenbasis!



Zum 2. Screenshot: Gleiche Vorgehensweise wie oben. Beim Entrauschen wurde (anstatt der Standardeinstellung HAAR) eine andere Verarbeitung gewählt (DB2). Fazit: Hier kommt es zu doch wesentlichen NACHTRÄGLICHEN Veränderungen der jeweils bestehenden Datenbasis, sowohl die Differenzen der Werte wie auch des zeitlichen Auftretens (Veränderungen der bestehenden Datenbasis nach 3 Perioden!) betreffend!



Die Frage, inwiefern ein NN mit durch Wavelet entrauschten Kurszeitreihen (nach etwaiger anschließender Normalisierung) bessere Generalisierungsleistungen erbringt als z.B. NN's, welche mit durch z.B. Kalman-Filter "gefütterten" Kurszeitreihen trainiert werden, muss an dieser Stelle (noch) offenbleiben!...

Udo, mich würde interessieren, wie obige KK ohne Verwendung von Stopps aussieht bzw. wie stabil die KK ohne jegliche "Eingriffe" bleibt. Könntest du dazu etwas anführen (musst ja keinen Screenshot hochladen)?

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

164

Montag, 27. Oktober 2008, 00:28

Hallo Datasys,

Origin ist mir schon ein Begriff! Meiner Ansicht ist ein solches Programm für eine tiefgreifendere NN-Entwicklung empfehlenswert! ORIGIN besticht durch Funktionsumfang und trotzdem sehr einfachen Handling!Die Thematik der Wavelets wurde in früheren Beiträgen schon einmal angesprochen, die Du mit der schön aufbereiteten Analyse erneut bestätigst! Aber es sollte auch möglich sein, die diskrete HAAR Wavelet-Transformation für Investox nutzbar zu machen,wobei auch einmal Herr Knöpfel gefragt ist! Fast alle digitalen Filter legen die Peaks für das NN so, das extrem steigende Kapitalkurven entstehen! Die digitalen Filter untersuchen die initialen Daten in Form von Frequenzen (auch High-Low-Bandpassfilter~~FFT) und wandeln die Ergebnisse in einen ,für unsere Analysen nutzbaren Datenpunkt um-leider im Fall von Origin mit dem "kleinen Blick" in die Zukunft! Dies könnte man dennoch testen wenn man ein Feed Forward Test zur Verfügung stünde! Mit Hilfe des Tests werden die gegenwärtigen Daten ausgewertet und die Tatsache das sich mit Anhäufung der Daten die digitalen Filter ändern können nicht mehr berücksichtigt! Übrig bleibt immer der gegenwärtigen Datenpunkt und dessen Ergebnis in Bezug auf die Systemleistung. Als weiteres Problem sehe ich den permanenten,automatischen Datenimport via Schnittstelle-aber das hier nur am Rande..

Die o.g. Kapitalkurve steigt auch ohne Stopps. Mein persönliches Ziel ist, das man Stopps,GA usw. erst dann einsetzt,wenn die KK in Rohform im Testzeitraum weiter wächst und das komplette System eine nachweisliche Stabilität (so weit man das mit den zur Verfügung stehenden Mitteln beurteilen kann) nachweist! Ich halte wenig, davon instabile, oder bescheiden performende Systeme mittels Manipulation "aller Art" zu verbessern, so das letztendlich doch noch ein guter Testzeitraum erzielt wird!Entweder das NN zeigt schon im primären Training ein positives Bild oder man revidiert die Vorgänge. Die Zielsetzung, das ist klar, ist sehr schwer zu erreichen. Oftmals werden überoptimierte Netze entwickelt und gehandelt bis sie nicht mehr funktionieren! Je nach Börsenverlauf und Verlaufscharakteristik in Bezug auf die Trainingsdaten halten die Netze (so wie auch konventionelle Systeme) über einen kürzeren oder längeren Zeitraum! Vielleicht zieht auch deine Frage,ob das System auch ohne Stopps profitabel ist genau darauf ab,da viele Stopps mitunter ein erstes Anzeichen von vermeintlich,nicht sauber ausformulierten und überoptimierten Netzen ist?

In der nachfolgenden Grafik ist eine kleine "Richtlinie" dokumentiert, wobei ich Punkt 2 (rot) für den wichtigsten überhaupt halte! Investiert man für das rote Feld zu wenig Zeit,gewinnt man außer Zeit nichts-so zumindest meine Meinung ...;)

Happy Trading

datsys

unregistriert

165

Montag, 27. Oktober 2008, 18:27

Hallo zusammen, hallo Udo!

Die Intention meines obigen Beitrags war in erster Linie „nachzuweisen“, dass man einerseits tatsächlich Vorsicht walten lassen muss, wenn man Filter wie Wavelets (trifft wie in den Screenshots ersichtlich bei der nicht symetrischen Daubechies-Klasse noch stärker zu als beim einfachen bzw. diskreten HAAR-Filter!) verwendet, es andererseits jedoch unter Berücksichtigung des Wissens der nachträglichen Veränderung der derart entrauschten Datenreihe (schon aufgrund des Vorteils des besser erkannten „tatsächlichen“ Signals im Vergleich z.B. zu Fourier) Sinn macht, derartige Filter in NN’s bzw. in weiterer Folge in HS zu implementieren.

Bezüglich der Kompatibilität externer Programme sowie der direkten Integration der Möglichkeit von Feed-Forward-Tests mit Investox kann ich mich eurer Aufforderung an Hr. Knöpfel nur anschließen und ebenfalls appellieren, wobei für mich als EoD-Trader der FF-Test grundsätzlich natürlich wesentlich größere Priorität besitzt als die Möglichkeit der Anbindung durch eine Schnittstelle.

Unter folgendem Aspekt – und dies ist der Anknüpfungspunkt zu deinem persönlichen Ziel, Udo – verliert (aus meiner Sicht) aber auch der FF-Test in dem Maße an Dringlichkeit, als die wirklich dringlichen Aufgabenstellungen bei der folgerichtigen Konzeption von NN’s und HS positive Bewältigung erfahren! Zur Verdeutlichung meine Zielsetzung (wobei sich diese bis auf die nachfolgende, jedoch nicht unwesentliche Nuance zur Gänze mit deiner deckt und deine Richtlinie aus meiner Sicht vielmehr mit Rufzeichen anstatt der bescheidenen Apostrophe zu umsäumen ist):

Ziel ist die Konzeption von Handelssystemen, welche nicht ein in KURZEN Phasen nachgeführtes Aktualisieren (sei es durch Veränderung von Parametern z.B. von verwendeten Indikatoren oder – noch schlimmer – deren Wechsel, neues Training der Neuronalen Netze – oder wiederum noch schlimmer! – deren Wechsel bzw. Modifikation durch wesentliche Veränderung der Inputs, …etc.) erforderlich macht, sondern welche nach erfolgter Konzeption über einen LANGEN Zeitraum in Umgebung völlig unbekannter Marktverhältnisse (OoS) stabil bleiben und keine Pilgerfahrt zum Südpol veranstalten. Aus meiner Erfahrung empfiehlt sich für EoD-HS hier mind. ein Zeitraum von 2 Jahren (nicht 2 Monate!) bzw. bezogen auf den Intraday-Handel eine (beschäftige mich nicht damit und deshalb) wahrscheinlich ähnliche Anzahl von Perioden der jeweiligen Komprimierung.

Geht man nun von obiger (zugegeben ambitionierter jedoch weitgehend lösbarer) Zielsetzung aus, so sind 5 bis 10 Stichproben entlang der Kurszeitreihe (unter der Prämisse jeweils möglichst divergierender Marktverhältnisse in Bezug auf Marktrichtung, Trendstärke, Volatilität, etc…!) hinreichend, um feststellen zu können ob das Ziel des erfolgreichen Agierens des NN’s bzw. HS in den jeweils LANGEN OoS-Zeiträumen entsprechend erreicht wird oder nicht, was letztendlich wiederum – sehr überspitzt und damit schon mit einem Augenzwinkern formuliert! – die Dringlichkeit eines FF-Tests beinahe ad absurdum führt.

Ein (sicherlich unkonventioneller doch für mich z.B. als MUSS definierter) Hinweis bezüglich Stabilität: Die KK eines NN’s sollte nicht nur im auf den Trainings- (sowie etwaig verwendeten Evaluierungs-) und Kontrollzeitraum NACHfolgenden OoS-Zeitraum Stabilität zeigen, sonder der DAVOR liegende Teil der Kurszeitreihe ist gleichfalls als ein solcher anzusehen!

Da du, Udo, bezüglich der Stops „zwischen meinen Zeilen“ gelesen hast: Offen gesagt melden sich bei mir erhebliche Bedenken (bezüglich des NN’s und nicht in Bezug auf deine Vorgehensweise!), wenn es offenkundig notwendig ist den Markt mit einer Quote von über 90% via Stops zu verlassen (hoffentlich nicht auch noch im HS optimierten?). Die Verwendung von Stops in einer derartig frühen Entwicklungsphase sollte man meiner Ansicht nach ausschließlich entbehren. Womit ich z.B. sehr gute Erfahrungen gemacht habe ist das Verwenden von (nicht optimierten!) Trendfiltern: Diese geben deutlicher Auskunft darüber, ob ein NN (ob der kleinen Richtungsvorgabe) sodann künftiges Weiterentwicklungspotenzial hat oder nicht…

Welchen Stellenwert nimmt die Monte-Carlo-Simulation bei dir ein?

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

166

Dienstag, 28. Oktober 2008, 00:30

Hallo datsys,

aus langen Zeitreihen ein Segment auszuscheiden und in die Zukunft, so wie in die Vergangenheit zu testen ist meiner Ansicht ein gute Strategie! Ich vermeide diesen Test immer aus Bequemlichkeit, weil man die Zeiträume meiner Ansicht nach in Investox noch nicht bequem variieren kann, und alles manuell eingeben, ändern und synchronisieren muss (NN-HS)! Grundsätzlich sollte man diesen Test aber durchführen, da bin ich ganz deiner Meinung!

Noch einmal kurz zu dem oben genannten System: Die von mir genannten Kriterien der Stabilität sollten vor Einsetzen von Stopps und zusätzlichen Filtern, erfüllt sein! Handelssysteme insbesondere diejenigen , welche mit neuronalen Netzen arbeiten, und der Testzeitraum nur in eine Richtung läuft, sollten grundsätzlich nicht zu viele Stopps benötigen! Viele Stopps in einem Trend lassen vermuten, dass das neuronale Netz überoptimiert wurde und nur solange partizipiert, wie der Trend, beziehungsweise die Musterfolge anhält! Wobei sich bei diesen Gegebenheiten die Frage stellt, ob das Netz überhaupt generalisieren kann oder nur einen Zeitraum projiziert, der zufällig längere Zeit so weiterläuft wie der Lernzeitraum! Projizierte Zeiträume die hinsichtlich der Performance nicht einer Generalisierung entspringen, können Jahre andauern! Das ist aber nur der Fall, wenn sich die nachfolgenden Handelsmuster ähneln. Das neuronale Netz ist relativ elastisch und kann immer den Eindruck vermitteln die Fähigkeit zum generalisieren zu haben, haben obwohl die Wahrheit völlig anders aussieht! Für mich persönlich ist es nicht sonderlich beeindruckend, wenn ein neuronales Netz ein halbes Jahr und länger Performance liefert ohne nachjustiert zu werden. Das Thema Nachjustieren führt allerdings schon wieder in die Überoptimierung, da ein gutes Netz weder nachjustiert noch mit vielen Stopps arbeiten sollte. Das Drehen oder schließen der Position sollte über Enter-EXIT erfolgen- sprich durch ein Signal vom Output! Ein neuronales Netz, das eine Performance ohne jegliche Optimierung und ohne Stopps auch in Stresstests aufrecht hält, könnte man auf jeden Fall in derSchublade "stabil" ablegen, weiteren Tests unterziehen und die "Finish-Modellierung" beginnen! Das vorher genannte ist ein schwieriges,zeitraubendes und oftmals zähes Unterfangen!Aber nach meinen bisherigen Tests und daraus gewonnenen Erkenntnissen, ein wichtiger Schritt für alle nachfolgenden Arbeitsschritte!

Monte Carlo Simulation:

Dieser Test spielt bei meiner Entwicklung eine eher untergeordnete Rolle! Grund ist, dass in den meisten Fällen die Monte Carlo Simulation genau das zeigt, was man eigentlich erwartet! Das heißt, wenn die Kapitalkurve im Vorfeld steigt wird sie in der Monte Carlo Simulation nicht gnadenlos fallen! Ich habe diverse Tests mit SSA durchgeführt, die am linear steigenden Verlauf ähnliche Ergebnisse brachten! Würde man hingegen die Kapitalkurve in einer Wellenform, also oszillierend abtragen, würden beide genannten Methoden wesentlich besser funktionieren! Statistische Tests funktionieren an linearen Verläufen sehr mäßig und ihrer Aussagekraft würde ich mit relativ gering bewerten! Die genannte Vorgehensweise, statistische Tests an linearen sowie oszillierenden Linienverläufen habe ich mithilfe der SSA durchgeführt und auch oszillierenden Verlauf ein wesentlich besseres Prognoseergebnis festgestellt! Ich glaube ähnliches kann man auf die Monte Carlo Simulation umlegen! Eine wesentlich aussagekräftigere Methode ist meiner Ansicht eine Chart-Spiegelung! Dabei spielt es keine Rolle ob man den Chart horizontal oder vertikal spiegelt! Ein neuronales Netz an synthetischen Daten zu testen ist so eine Sache! Oftmals beinhalten die synthetischen Daten nicht die typischen Zeitreihen-Charakteristiken der zu Grunde liegenden Datenreihe an der das neuronale Netz trainiert wurde! Zudem wird mit Crossvalidation im Grunde Boot-Strapping durchgeführt. Ich verwende ausschließlich Crossvalidation für das Training!

An dieser Stelle eine kurze Info zur Crossvalidation für alle die es interessiert und vielleicht nicht so viel damit anfangen können:

Die Modelldaten werden in zwei sich gegenseitig ausschließende Mengen aufgeteilt, in eine größere (die Trainingsmenge) und eine kleinere (die Testmenge). Die größere Datenmenge wird dazu verwendet, ein Modell aufzustellen, während die kleinere Datenmenge dazu dient, das Modell zu bestätigen, indem man das Modell auf die kleinere Datenmenge anwendet und die Ergebnisse mit den tatsächlichen Werten vergleicht. Dieser Prozess wird mit verschiedenen Untermengen so lange wiederholt, bis jedes Objekt der Datenmenge einmal für die Testmenge verwendet wurde.

Was noch von Vorteil wäre, ist visualisiertes Training! Beim visualisierten Training wird die Basisdaten Zeitreihe ständig mit dem Output verglichen oder der Output als lineare Zeitreihe, entweder mit dem Prognoseziel- oder direkt als Ergebnis (Vergleichs- Datenreihe im Chart) mit der zu Grunde liegenden Zeitreihe verglichen. Hier kann schon in einem sehr frühen Stadium erkannt werden, ob es sich überhaupt lohnt das Training fortzuführen! Ein weiterer interessanter Test wäre, und hier beziehe ich alle Handelssysteme (konventionell und neuronale Netze) ein, die Manipulationsmöglichkeit der Kennzahlen! Das hat zwar nicht direkt Aussagekraft auf Qualität und Stabilität des neuronalen Netzes, jedoch kann man damit die mögliche zulässige Schwankungsbreite (bis zur persönliche Schmerzgrenze) des Handelssystems, indem das neuronale Netz eingesetzt wird, simulieren! Dies würde so ablaufen, dass die historische Schwankungsbreite ausgewählte Kennzahlen gemessen- und ständig mit der aktuellen Schwankungsbreite verglichen wird! Für mich persönlich sind Tests, die an gegenwärtigen Situationen angewendet werden wesentlich interessanter, als historische Tests mithilfe der Monte Carlo Simulation oder sonstigen statistischen Prognosemodellen, welche die Zukunft widerspiegeln und prognostizieren sollen! Wie man aktuell sieht, und auch in den letzten Jahren verfolgen konnte, ändern sich die historischen Handelsmuster bei einigen Underlyings drastisch! Aus diesem Grund ist es meiner Meinung ein nicht unwichtige Aspekt, auf welches Underlying man ein neuronales Netz überhaupt entwickelt. Wenn man bei einem Broker handelt, bei dem man grundsätzlich Handelsfreiheit hat, spielt die Auswahl des Underlyings eigentlich keine Rolle, Hauptsache es bewegt sich nach oben oder unten....
Happy Trading

chied

unregistriert

167

Mittwoch, 29. Oktober 2008, 17:23

Hallo Zusammen

es scheint als hätte sich das NRCM auch mit der Thematik auseinandergesetzt:

Preprocessing:
[url=' http://www.nrcm.de/preprocessing/index.php']

Normalisierung:
[url='http://www.nrcm.de/wissen/normalisierung.php']

Vielen Dank für die tollen Erläuterungen und grafischen Impressionen an das NRCM!

Roger

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

168

Mittwoch, 29. Oktober 2008, 23:25

Hallo Roger,

ich finde die Darstellung auch sehr interessant, besonders die grafische Veranschaulichung was ein Wavelet (NN-Input Vorverarbeitung bzw. Entrauschen) eigentlich macht.
Irgendwie kam mir die geglätteten Datenreihen bekannt vor, das sieht doch fast aus wie Heikin-Ashi Chart.

Gibt es vielleicht eine Möglichkeit in Investox auf beliebige Datenreihen (NN-Inputs) eine Heikin-Ashi Glättung durchzuführen?

Viele Grüße
Torsten

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

169

Donnerstag, 30. Oktober 2008, 07:44

Hallo Roger,

es wäre verwunderlich wenn NRCM einen anderen Weg wählen würde,da man mit Backprop Algorithmen in der Regel nur über diesen Weg zu stabilen Netzen kommt! Leider hören die Informationen genau da auf wo es ins Eingemachte geht (danach wird es kostenpflichtig) und es wird statt dessen ein Videospiel angeboten! :D Einige andere Software verwenden andere oder zusätzliche Algorithmen oder integrieren die mühsamen Zwischenschritte als kompaktes,vordefinierte Interface und der User muss nur noch die Indikatoren zufügen! Für diverse US-Software kann man Wavelet PlugIns dazukaufen!

@Torsten

Mit den Berechnungstiteln kann man jede Zeitreihe manipulieren-auch mit Heikin Ashi,GDs usw. Es ist schön das man sieht was ein Wavelet macht (im Grunde das,was man von digitalen Filtern erwartet),aber wie bekommt man Wavelets direkt in Investox so das sie sauber arbeiten??..das ist die bizarre Frage! Ich glaube hier ist auch mal Herr Knöpfel gefragt,vielleicht kann er integrierte Lösungen anbieten...
Happy Trading

Zweistein

unregistriert

170

Donnerstag, 30. Oktober 2008, 11:36

Zitat

Ich glaube hier ist auch mal Herr Knöpfel gefragt,vielleicht kann er integrierte Lösungen anbieten...



Grüß Euch,


die Frage die sich mir gerade stellt ist, ob es wirklich der
richtige Weg wäre, immer neue immer komplexere Analysemethoden fest in Investox
zu integrieren.

Es gibt so viele andere wichtige Baustellen (Anbindung mehrerer Broker und
Datenlieferanten, Walk Forward Tests, vereinfachte Programmbedienung,
Schnelligkeit …)

Grundsätzlich begrüße ich zwar, dass auch außergewöhnliche
neue Ansätze hier im Forum diskutiert werden.
Problematisch finde ich aber den Ruf nach fester
Implementierung in das Programm für schlussendlich vielleicht eine Handvoll
Interessenten mit ausschließlich akademisch- theoretischen Handelsergebnissen.

Trader ohne Hochschulabschluss und Englisch-Kenntnisse verstehen
diese Diskussion sicherlich schon jetzt nicht mehr.

Ich meine das „ohne Hochschulabschluss“ im Zusammenhang mit dem
Trading nicht abwertend. Die von High-Potentials der Finanzbranche ersonnenen genialen
Produkte zur Risikoabsicherung brachten den globalen Finanzmärkten gerade in jüngster Zeit
alles andere als „Heil und Segen“.

Die erfolgreichen Software-Lösungen der letzten Jahre sind auch
nicht jene, welche die am meisten komplexen
Nischen-Setups ermöglichen.

Wer im Bereich dieser speziellen Setups forschen will, kann
das doch mit Hilfe von Drittsoftware oder selbst entwickelten Tools tun.

Der Gedanke daran, dass „Investox“ perspektivisch zur „Hobbysoftware“
für Finanzmarkt-Theoretiker auf der Suche nach einem neuen Wirkungskreis mutieren
könnte, stimmt mich als aktiven Trader nicht wirklich hoffnungsfroh.

Aber vielleicht irre ich mich auch und schätze das allgemeine
Interesse anderer Praktiker an der festen Implementierung der hier diskutierten
Tools in Investox völlig falsch ein.

Dann wird mein Beitrag reichlich Widerspruch provozieren.

Grüße Zweistein

chied

unregistriert

171

Donnerstag, 30. Oktober 2008, 14:48

Hallo Zweistein

vielen Dank für deinen Beitrag.

Es ist sicherlich so, dass es einige wichtige Erneuerungen an Investox nötig sind.
Wie wichtig aber welche ist, und ob diese nur theoretisch oder praktisch von Bedeutung sind
hängt wiederum vom individuellen Entwicklungsansatz ab.

Fakt ist jedoch. das Investox sich vor Jahren dazu entschloss, sich gegenüber den Konkurrenzprodukten mittels neuronalen Netzen
zu differenzieren.

Für jemanden der sich noch nicht besonders mit der Robustheit eines neuronalen Netzes auseinander gesetzt hat, mag die
Diskussion in diesem Thread rein theoretischer Natur zu sein. Setzt man jedoch Summen im fünf- bis sechsstelligen Euro
Bereich für seine Handelssysteme ein, so verblasst dieser theoretische Anstrich ganz plötzlich und man versucht alles daran zu setzen,
möglichen Robustheitsrisiken so gut wie möglich frühzeitig zu identifizieren und zu beseitigen.

Die Komlexität einer Software steigt natürlich mit der Anzahl Funktionen. Jedoch kann der neue User diese auch umgehen in dem er
sie einfach nicht nutzt. Hat man dann nach einer Weile die ersten Fuktionen verstanden und festgestellt, dass man an die natürlichen Grenzen des Systems
gestossen ist, wird er zu einem erfahreren User und kann von zusätzlichen Fuktionen nur profitieren in dem er Lernt und sich Entwickelt.
Deshalb denke ich nicht, dass sich ein dynamisches Konstrukt wie Investox nicht nicht mit seinen Usern wachsen sollte, da diese ansonsten zum Stillstand verdamt sind und Wohl oder Übel umsteigen müssten. Diese würde dann wohl über kurz oder lang zum Untergang des Produktes führen.

Inwiefern Neuerungen innerhalb der Software erfolgreich in HS integriert werden können steht und fällt mit den Fähigkeiten des Entwicklers. Für die einen mögen NN schon eine
überflüssige und rein therotische Komplexitätsfalle darstellen, für die anderen sind sie jedoch Quelle von intellektuelen Herausforderungen und profitablen HS.

Deshalb bin ich der Meinung, dass sich die Software ausschliesslich an der Kompetenz der Besten und nicht am der Unfähigkeit der weniger guten orientieren sollte, da ansonsten der Mangel an Entwicklungsmöglichkeiten definitv zum Versagen führt. Würden wir uns umgekehrt verhalten würden wir nicht im Internet kommunizieren sonder uns wohl mit
Steinen und Holzknüppeln à la Steinzeit bekämpfen.

Aus eigener, praktischer, Erfahrung kann ich sagen, dass die Themen die in diesem Thread diskutiert wurden alles andere wie rein theoretischer Natur sind.
Deshalb bedanke ich mich herzlich bei allen, die Zeit und Wissen investieren um andere in ihrem Entwicklungsprozess zu unterstützen.

Viele Grüsse

Roger

datsys

unregistriert

172

Donnerstag, 30. Oktober 2008, 17:33

Hallo zusammen!

--> Udo

Bin (ebenfalls) ganz deiner Meinung, und zwar in zweierlei Hinsicht: 1. Ein NN (mit je weniger Optimierungsvariablen desto besser!) muss VOR der Hinzunahme von Stops, etc. robust bzw. stabil arbeiten, sonst ist die Zeit, welche man in die weiteren Schritte investiert, verschenkte Zeit. 2. Betreffend der Monte-Carlo-Simulation (man bekommt wahrlich das vorgesetzt was man erwartet!) stimme ich nicht nur zu, sondern würde einen Schritt weiter gehen: Für die Beurteilung der Stabilität eines NN's bzw. HS völlig ungeeignet! In meiner NN- und HS-Entwicklung spielt die MCS zumindest keinerlei Rolle...

--> sten bzw. Torsten

Mittels Wavelets transformierte bzw. entrauschte Daten sehen in der Tat Heikin-Ashi-Candlesticks ähnlich. Nachfolgender Screenshot zeigt einen direkten (visuellen) Vergleich. Im obersten Teilchart ist der DAX zu sehen, im mittleren der DAX durch Wavelets entrauscht und im unteren Teilchart der DAX in der Heikin-Ashi-Darstellung. Durch den direkten Vergleich wird auch der Nachteil von Heikin-Ashi deutlich: HA zeigt (begründet durch die Berechnungsmethode) ein zeitliches Lag im Vergleich zum DAX. Dadurch wiederum wird ein Vorteil von Wavelets ebenfalls deutlich: KEIN zeitliches Lag im Vergleich zum DAX bzw. zu anderen Indikatoren oder Filtern!



--> chied bzw. Roger

Deinen Ausführungen betreffend Theorie/Praxis sowie der Notwendigkeit der Integration komplexer Analysemethoden mit Verweis auf persönliche Weiterentwicklung, welche sodann mit der Weiterentwicklung des genutzten Instruments korrespondieren muss, ist nichts hinzuzufügen. Oder doch das Eine: Auch Grönemeyer meint "Stillstand ist der Tod" ;)

Wie bekommt man nun durch Wavelets entrauschte Daten in Investox?

Vorweg: Für EoD-Trader (mit der Bereitschaft zu 10 bis 15 Minuten Zeitaufwand pro Tag) ist dies auf indirektem Wege möglich, für Daytrader wird meine Vorgehensweise sicherlich zu zeitintensiv.

Voraussetzung bei der Nachbildung "meiner Lösung" ist das externe Programm OriginPro, dann ist die Vorgangsweise folgende:

1. Ich führe (neben dem bestehenden Datenabo) in Excel die Open-, High-, Low- und Close-Kurse mit, welche sodann direkt in OriginPro kopiert werden können. Dort werden diese mittels Wavelet-Transformation entrauscht und wieder in Excel zurückgeführt.

2. Von Excel wandern die Daten sodann (wiederum durch einfaches Kopieren) in eine herkömmliche Textdatei.

3. In Investox werden die Daten sonach über die Funktion "Neuen Titel hinzufügen" --> "Tabelle (ANSI/ASCII)" importiert und stehen in weiterer Folge auch für das Training von NN's zur Verfügung.

Wenn Interesse besteht, lade ich eine Textdatei mit den entrauschten Daten des DAX (Eod) in der Datenbank hoch, welche dann durch Import in Investox zugänglich werden...

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

173

Donnerstag, 30. Oktober 2008, 20:17

Hallo datsys,

Zitat

Mittels Wavelets transformierte bzw. entrauschte Daten sehen in der Tat Heikin-Ashi-Candlesticks ähnlich. Nachfolgender Screenshot zeigt einen direkten (visuellen) Vergleich. Im obersten Teilchart ist der DAX zu sehen, im mittleren der DAX durch Wavelets entrauscht und im unteren Teilchart der DAX in der Heikin-Ashi-Darstellung. Durch den direkten Vergleich wird auch der Nachteil von Heikin-Ashi deutlich: HA zeigt (begründet durch die Berechnungsmethode) ein zeitliches Lag im Vergleich zum DAX. Dadurch wiederum wird ein Vorteil von Wavelets ebenfalls deutlich: KEIN zeitliches Lag im Vergleich zum DAX bzw. zu anderen Indikatoren oder Filtern!


Danke für den direkten Vergleich der beiden Berechnungsmethoden.

Ich habe es mir halt so gedacht, solange eine interne- bzw. VB-Wavelet-Funktion noch nicht zur Verfügung steht, dass man mit HA vielleicht schon die NN-Inputs glätten und anschließend über die von Udo vorgestellte Normierungsfunktion noch auf -1..+1 justieren kann. ich denke man müsste damit schon eine spürbare Verbessereung der NN-Lernergebnisse erreichen, hat keine Probleme mit in die Zukunft schauende Wavelets und alle Berechnungen werden vollständig in Investox abgewickelt.

Der Hacken ist die zeitliche Verzögerung, aber die Kröte muss man dann halt schlucken. Das Leben besteht aus Kompromissen und man muss versuchen mit den JETZT vorhandenen Dingen das Beste daraus zu machen ;)

Viele Grüße
Torsten

chied

unregistriert

174

Freitag, 31. Oktober 2008, 10:29

Hallo Datsys

vielen Dank für deine Zustimmung : )

Im folgenden würde ich deine Ausführungen zu
-->Wie bekommt man nun durch Wavelets entrauschte Daten in Investox?

- Origin Pro ist sicher die beste Variante. Falls man jedoch nicht gleich EUR 800 für ein paar Tests ausgeben möchte, kann man auch eine ein Excel Modell für Wavelets im Internet
runterladen (den Link findet man in einem früheren Post)

- Über Pinnacle kann man die Daten gleich im Format ANSII in dieses Execlmodell reinlinken und somit automatisch updaten. An dieses Waveletmodell ist dann ein weiteres, selbst
gebasteltes Excelmodell geknüpft, die die Waveletberechnungen summiert und die Open, High, Low und Close kurse in einer Tabelle darstellt. Dieses Modell kann man als .csv Datei
abspeicher und in INV als Titel einfügen. Dadurch das es eine .csv Datei und keine Textdatei ist, erkennt INV die zusätzlichen Daten automatisch und aktuallisiert diese beim Neustart von INV selbstständig.


Viele Grüsse

Roger

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

175

Freitag, 31. Oktober 2008, 10:48

Hallo datsys

Wenn Interesse besteht, lade ich eine Textdatei mit den entrauschten Daten des DAX (Eod) in der Datenbank hoch, welche dann durch Import in Investox zugänglich werden...
Sehr gerne! Du kannst die Datei alternativ anhängen. Ich denke das sie die geforderte Mindestgröße nicht überschreitet und txt. sollt vom Format zulässig sein!

@Torsten

Ich weiß nicht ob man "die Kröte" unbedingt schlucken muss! Ich denke es gibt Lösungen um den Time Lag zu entfernen! Die Wavelets blicken nicht unbedingt in die Zukunft aber sie benötigen minimal 2 Perioden und den Datenpunkt stabil zu berechnen und zu transformieren! Wenn das NN-Signal zwischen die beiden Datenpunkte gerät, wird es u.U. revidiert!Andererseits bricht die Performance bei korrekter Signalausgabe ein wenig zusammen.Im Gegensatz zu HK oder GD-BTs ist der Wavelet-LAG nicht vorhanden. Digitale Filter arbeiten sehr zeitnah,was man von normalen Glättungsarten nicht gerade behaupten kann-auch dann nicht wenn man versucht den Time-Lag zu beseitigen (Zero-Lag). Sehr zeitnah arbeiten auch Differenzberechnungen da ständig die Abstände zweier Datenpunkte gemessen werden. Dabei radiert man eine mögliche zeitliche Verzögerung quasi aus! Es sollte aber beachtet werden, das in dem Fall auch Kursrauschen berechnet wird! Plötzlich auftretende Anomalien werden genauso ausgewertet wie wichtige Datenpunkte! Daher sollte die Zeitreihe bereinigt werden! Die Datennormalisierung muss nicht bei jedem Input eingesetzt werden,das Investox die Daten skaliert. Bei Differenzen beispielsweise ist eine Normierung schon sinnvoll. In einem Teilchart kann man vorab testen,in welcher Form letztendlich der Input dem NN vorliegt!

@Zweistein

Es ist völlig ok das Du bedenken anmeldest. NN ist eine andere Sparte als konventionelle Systementwicklung aber auch ein Teilgebiet von Investox das weiter entwickelt werden sollte,müsste,könnte...;) Aber Deinem Paket für Tools die Priorität haben stimme ich auch uneingeschränkt zu. Es brennt eben an vielen Ecken und vieles müsste/könnte zeitgleich eingepflet werden! Da fällt die Entscheidung wahrscheinlich nicht einfach aber wie schon gesagt wird man sicher ausklammern,was in der aktuellen Version 5 nicht machbar oder unzureichend eingepflegt werden kann-so meine PERSÖNLICHE Annahme! Eine kleine Vorschlag-Ergänzung von meiner Seite: Ein echtes Depot aus dem man uneingeschränkt MM/RM/Pyramiden heraus steuern kann und das vereinfachen von immer wieder kehrenden Strategien und Funktionen!

Vom FW-Test könnten meiner Ansicht alle profitieren und ich habe auch oft versucht diesen Vorschlag zu unterstützen weil dieser Test für ein weiterkommen und die Weiterentwicklung der Software m.M. wichtig ist! Andererseits muss man in Erwägung ziehen, das völlig neue Tools vielleicht erst mit einer neuen Version eingepflegt werden können (ist nur eine wage Vermutung von mir!)! Alles andere haben datsys und Roger aausgiebig und treffend geschildert und ich schließe mich dem an!
Happy Trading

Lenzelott Männlich

Experte

Registrierungsdatum: 30. Dezember 2002

Beiträge: 3 051

Wohnort: Giessen

176

Freitag, 31. Oktober 2008, 11:33

kann man auch eine ein Excel Modell für Wavelets im Internet
runterladen (den Link findet man in einem früheren Post)

- Über Pinnacle kann man die Daten gleich im Format ANSII in dieses Execlmodell reinlinken und somit automatisch updaten. An dieses Waveletmodell ist dann ein weiteres, selbst
gebasteltes Excelmodell geknüpft, die die Waveletberechnungen summiert und die Open, High, Low und Close kurse in einer Tabelle darstellt. Dieses Modell kann man als .csv Datei


Ich habe mir das Excelmodell noch nicht angeschaut, ist das so kompliziert, dass man es nicht in einen Berechnungstitel integrieren kann ?
If you think it´s expensive to hire a professional, wait until you hire an amateur.

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

177

Freitag, 31. Oktober 2008, 12:47

Hallo,

ich hatte vor kurzem - oben im Tread - mal mit dem Excel-Modul "gespielt" und begonnen es nach Investox zu übertragen. Dabei fiel mir rasch auf, dass es fleißig den gesamten Zeithorizont bis zur letzten Periode ausnutzt. Damit schaut es bei allen Experimenten in die Zukunft. Nur in einer wirklichen Simulation in Investox kann es so gebraucht werden.

Aber ich werde mal sehen, ob es nicht eine Lösung gibt, dass das Modul vielleicht nur bis zu einem definierbaren Zeitpunkt die Daten zieht.

Gruß

martin

chied

unregistriert

178

Freitag, 31. Oktober 2008, 15:29

..das wäre echt klasse Martin. Da sich mein Verdacht damals ja leider bestätigte..

viele Grüsse

Roger

datsys

unregistriert

179

Freitag, 31. Oktober 2008, 21:59

Hallo zusammen!

--> Roger (bzw. alle an Wavelets Interessierten)

OriginPro lässt sich für Versuchszwecke auch gratis testen - einen Monat lang, wenn ich nicht irre. Versteh ich vollkommen, wenn man nicht auf's Geratewohl knapp EUR 1.000,- ausgeben möchte! Aus meiner Erfahrung heraus kann ich es aber in jedem Fall empfehlen...

--> Torsten und Udo (bzw. wieder alle)

Zeitliche Lags sollten (auf welche Art auch immer) in jedem Fall entfernt werden, da wenn es nicht geschieht, man in ineffizienter Weise den Kursen nachläuft. Die Kröte muss man auch bei mit Wavelets transformierten Daten NICHT schlucken, wenn man folgenden "Kunstgriff" anwendet:

METHODE ZUR VERWENDUNG VON WAVELETS OHNE BLICK IN DIE ZUKUNFT UND OHNE ZEITLICHES LAG

Damit die Methode gleich an einem (mit den Daten des DAX versehenen) Beispiel Erklärung findet, folgender Screenshot in welchem ich versucht habe den "Kunstgriff" möglichst verständlich zu beschreiben:



Nachfolgend findet sich eine Textdatei, welche (die Spaltenreihenfolge beim Importieren lautet Datum-Open-High-Low-Close) den direkten Zugriff auf die (nach oben beschriebener Methode) entrauschten DAX-Daten (EoD) von 11/2000 bis aktuell ermöglichen (mehr Daten gehen sich mit 100kB leider nicht aus!). Für das Trainieren von NN's ist im nächsten Schritt eine Normalisierung der Daten sehr empfehlenswert!

DAXwavelet_Daten.txt

Schönes WE und viel Erfolg (und natürlich auch Spaß)!

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

180

Samstag, 1. November 2008, 13:39

Hallo,

zur Implementierung von Wavelets habe ich eine Diplomarbeit "Wavelet Toolbox in Java" mit Quellcode gefunden:
http://www.uni-stuttgart.de/gi/education…ten/wengert.pdf
Den Quellcode habe ich leider nicht seperat gefunden, den müsste man sich dann am besten rauskopieren.

Es ist zwar "nur" Java und VB wäre besser für einen extern berechneten Wavelet-Investox-Indikator, aber für erste Untersuchungen an Intraday-HS sicher recht nützlich.
Ich favorisiere Intraday-HS deshalb, weil man hier schon nach ein paar Tagen abschätzen kann, wie stabil die HS im OoS-bereich tatsächlich weiter laufen.

Viele Grüße
Torsten

PS:
Hier wird an einem einfachen Zahlenreihe mal die Haar-Wavelet-Transforamtion veranschaulicht: http://www.welfenlab.de/fileadmin/lehre/…gdv2_folien.pdf

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »sten« (1. November 2008, 14:01)


Ähnliche Themen