Samstag, 20. April 2024, 22:32 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: INVESTOX-Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Rajob

unregistriert

41

Mittwoch, 30. Januar 2008, 16:56

Hallo Alex,

Hast Du die beiden Dateien gacutil und RegAsm kopiert?
Ich hatte zuerst die gleiche Fehlermeldung, weil Windows die dlls nicht registrieren konnte. Versuch mal diese beiden Dateien aus dem Odner für 5.1.4 nach C:\Windows zu kopieren und danach die Registrierung nochmals durchzuführen.

Hope that helps.
Ralf

Alex73 Männlich

Profi

Registrierungsdatum: 9. Oktober 2007

Beiträge: 211

Wohnort: Niederbayern

42

Mittwoch, 30. Januar 2008, 18:00

Hallo Ralf,

hab Deine Anweisungen gerade durchgeführt. Leider aber ohne Ergebnis.
Es kommen immer noch die gleichen Fehlermeldungen.
Bin schon ein wenig verzweifelt.
Vielen Dank aber trotzdem für Deine Hilfe.

Gruß

Alex

Alex73 Männlich

Profi

Registrierungsdatum: 9. Oktober 2007

Beiträge: 211

Wohnort: Niederbayern

43

Freitag, 1. Februar 2008, 09:04

Hallo,

bei der Registrierung des Indikators hab ich mal das DOS-Fenster kopiert.
Da stehen auch einige Fehlermeldungen. Womöglich funktioniert der Indi. deswegen
bei mir auch nicht.
Kann damit einer was anfangen? (Siehe Zip Datei)
Evtl. ist es bei der Weiterentwicklung hilfreich.

Gruß

Alex
»Alex73« hat folgende Datei angehängt:
  • Registrierung.rar (65,66 kB - 430 mal heruntergeladen - zuletzt: 8. April 2024, 19:19)

Alex73 Männlich

Profi

Registrierungsdatum: 9. Oktober 2007

Beiträge: 211

Wohnort: Niederbayern

44

Samstag, 2. Februar 2008, 19:45

Hallo zusammen,

kann es sein dass man für die reibungslose Installation des Indikators evtl. doch den
Investox Entwicklerkit benötigt? Hans-Jürgen hat es ja in der Installationsanleitung schon erwähnt.
Wie seht Ihr das?
Kann mir evtl. einer von auch den Entwicklerkit für XL5 zukommen lassen. Ich habe ihn zwar
schon bei Investox angefordert. Aber so könnte ich am So. schon Testen ob die Pobleme von
daher kommen.

Gruß

Alex

Hans-Jürgen Männlich

Administrator

Registrierungsdatum: 10. Juli 2002

Beiträge: 1 712

45

Sonntag, 3. Februar 2008, 10:08

Hans-Jürgen hat es ja in der Installationsanleitung schon erwähnt.


Hallo Alex,

ich glaube, da verwechselst du etwas. Ich habe nur Martin's Arbeit zum Download bereitgestellt. Die Anleitung ist demzufolge von Martin. Dies nur zu Kklarstellung - ichwill mich nicht mit fremden Federn schmücken.

Zur Installation:
Bei mir lief die Installation so ab, wie es Martin beschreib. Es dauert zwar einige Minuten, bis die DOS-Box verschwand, aber es läuft, trotz 2 Fehlerhinweisen in der DOS-Box. Evtl. habt ihr das Fenster zu früh geschlossen, in der Annahme, dass schon alles erledigt sei. Die Installationsdateien, die Martin im Paket hat sind für VISTA - es kann sein, dass man für XP andere Dateien zu Veröffentlichung braucht. Meine Installation lief unter VISTA und OHNE Entwicklerpaket durch.
Viele Grüße,
Hans-Jürgen

Mike

unregistriert

46

Sonntag, 3. Februar 2008, 15:47

Hallo,

hat von euch jemand das system unter xp installiert, braucht man da andere dateien oder was muß man für xp gegenüber vista beachten,

gruß mike

Tobias Männlich

Meister

Registrierungsdatum: 3. September 2002

Beiträge: 663

Wohnort: NRW / Paderborn

47

Sonntag, 3. Februar 2008, 21:09

habe unter xp professional installiert. service pack2. ohne entwicklerkit, ohne vb express2008 usw. einfach so installiert wie beschrieben. in der dos box kamen ein, zwei fehlermeldungen und es hat etwas gedauert bis diese verschwand. aber der indikator lief sofort ohne probleme.
Gruss Tobias

Chemie262

unregistriert

48

Sonntag, 3. Februar 2008, 22:03

Hallo Mike,
ich habe heute mal wieder mein XP Professional neu installiert, da die Performance doch spürbar in die knie gegangen ist, wie das bei dem Betriebssystem wohl als Alterungserscheinung immer passiert. Nach der Neuinstallation die Dateien aus der wekaIndikatorInvestox514.zip nach C:/Weka/ entladen und dann die Registrieren.bat angeworfen. 5 Minuten später lief dann bereits mein Testsystem wie gewohnt mit der Datenfeedsimulation.
Tschüß,
Herbert

Alex73 Männlich

Profi

Registrierungsdatum: 9. Oktober 2007

Beiträge: 211

Wohnort: Niederbayern

49

Montag, 4. Februar 2008, 11:33

Hallo Mike,

Du schreibst.
Nach der Neuinstallation die Dateien aus der wekaIndikatorInvestox514.zip nach C:/Weka/ entladen und dann die Registrieren.bat angeworfen.
Ich hatte gedacht es soll nur die wekaIndis.Weka Datei ins verzeichnis C:/Weka kopiert werden?

Gruß

Alex

Chemie262

unregistriert

50

Montag, 4. Februar 2008, 17:19

Hallo Alex,
das wäre ja zu einfach. Da müssen doch wohl all diese DLLs angemeldet werden. Und das passiert wohl in dem Batchprozeß, der bei einigen zu kleinen Fehlern führt Und dann hat man wohl zuweilen Pech, daß dann der Indi nicht funktioniert.
Aber keiner hat wohl bisher herausgefunden, was die Ursachen für diese Fehler sind. So weit ich das verfolgen konnte, gab´s bei mir in dem Dos-Fenster keine Fehlermeldungen.
Tschüß,
Herbert

Alex73 Männlich

Profi

Registrierungsdatum: 9. Oktober 2007

Beiträge: 211

Wohnort: Niederbayern

51

Montag, 4. Februar 2008, 20:25

Hallo zusammen,

jetzt läuft der Indikator auch bei mir.
Hab VB Express 2008 neu installiert und seitem geht es.

Gruß

Alex

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

52

Dienstag, 12. Februar 2008, 11:28

Hallo zusammen,

bin aus meinem Urlaub zurück und hoffe natürlich, dass hier alle glücklich und reich geworden sind 8)

Wenn's Probleme gibt kann ich vielleicht wieder weiterhelfen.

Viele Grüße

Martin

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

53

Dienstag, 12. Februar 2008, 12:28

Hallo Martin,

hoffe Du hattest einen schönen Urlaub! :) Ich habe zwei "stressige" Fragen und stelle sie gleich Anfangs wo Du noch (so hoffe ich) gut erholt bist!

1) Wäre es grundsätzlich möglich den Algorithmus ähnlich wie GA-z.B. für Indikator-Schwellen einzusetzen und damit optimale Einstellungen des Indikators so wie der Handelsschwellen zu finden (Input ist nicht eine Regel oder ein Indikator sondern eine numerische Schwelle)?

2) Du und auch NRCM beschreiben das SVM weniger zum Curve Fitting neigen! Wenn ich mir die historischen Ergebnisse einer SVM Auswertung betrachte, grenzen viele "Optimierungen" beinahe an Optimal dessen,was man aus den zugefügten Inputs und Einstellungen aus dem System herausholen kann. Manchmal würde es man mit einem ZICK-ZACK System (in die Zukunft blickend) auch nicht besser hin bekommen! Nun stellst sich ernsthaft die Frage, ob SVM die historische Zeitreihe nicht heillos überoptimiert und das ganze nur Erfolg verspricht, so lange der "Trend" des Gelernten anhält! Daraus würde sich mir auch der Nutzen eines Feed Forward Tests erschließen! Aber was ist, wenn die Zeitreihe Forward flippt und das eben Gelernte so gut wie nicht abgebildet wird? Oder ist es so, das SVM-Systeme stabil laufen können, auch wenn die Zeitreihe flippt? Zeitreihen neigen extrem nach Wirtschaftszahlen zu irrationalen Schwankungen-gerade beim FDAX! was meinst Du-wird SVM so etwas unter Kontrolle haben oder oder ist es damit genauso überfordert wie jeder andere Algorithmus auch so das man besser Filter einsetzt und diese Zeitperioden meidet?
Happy Trading

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 690

Wohnort: Köln

54

Dienstag, 12. Februar 2008, 13:05

Hallo Udo,

deine Fragen sind keinesweg stressig sondern sehr interessant.

zu 2: Ich bin der Meinung, dass SVM (aber auch NN) extrem zum Curve Fitting neigen. Vor vielen Jahren hatte ich mal mit NN für wirtschaftliche Prognosen (Kostenschätzung für Industrieproduktion) gearbeitet. Meine Erfahrungen haben mir damals von der allgemeinen Literatur recht abweichende Ergebnisse geliefert. Folgte ich den Angaben über die Größe und Trainingszeiten für Backpropagation Netze waren meine Ergebnisse damals stets 1a für die Trainingsdaten aber absolut unbrauchbar für Prognose- und auch Testintervalle. Gute Ergebnisse habe ich damals jedoch erzeugt als ich mich auf sehr kleine Netze (1 Hidden Layer, 1 - 2 Knoten, keine Rekurrsion) beschränkte. Die Struktur dieser Netze war zu simpel, um zu "überoptiomieren" bzw. sich an die Kurve der Trainingsdaten anzuschmiegen (curve fitting).

Die Aufgabenstellung hatte zur Konsequenz, dass ich mit sehr geringen Datenmengen auskommen musste. Die Ergebnisse waren jedoch deutlich besser als klassische statische Verfahren. Das Verfahren wurde lange bei einem Kooperationspartner aus der Industrie eingesetzt. Später fand es seinen Weg bis zur Lufthansa.

In Zusammenarbeit mit einem anderen Lehrstuhl habe ich das Verfahren damals für die Schätzung volkswirtschaftlicher Daten eingesetzt. Mein Counterpart hatte dort lange mit optimierten statistischen Verfahren gearbeitet. NN waren - korrekt eingesetzt - jedoch deutlich besser.

Diese Vorteile führe ich nicht auf das neuronale oder so einen Quatsch zurück. NN sind ein effizientes mathematisches Verfahren das gegenüber vielen statistischen Verfahren den Vorteil bietet, dass bezüglich der Verteilung der Grundgesamtheit keine strengen Annahmen z.B. Normalverteilung existieren.

Bei unseren Zeitreihen haben wir deutlich längere Historien. Wo hier die richtigen Größen liegen ist natürlich eine andere Frage.

SVM passen sich auf eine im weitesten Sinne vergleichbare Weise an die Trainingsdaten an und können dann zur Prognose verwendet werden. Hier gibt es genauso das Problem des curve fittings. Ob SVM wirklich besser als NN arbeiten kann ich persönlich bisher nicht beurteilen. Wenn ich der Literatur zu diesem Thema Glauben schenken darf sind die Prognoseraten etwas besser. Dies gilt es aber für unsere Praxis erst zu beweisen. Daher bin auch ich ein Freund von sehr einfach gehaltenen SVM - kleiner Komplexitätswert (cValue) - und kürzeren Trainingsdauern.

Praktische Erfahrungen erhoffe ich mir eigentlich von den Interessierten hier aus dem Forum.

zu 1:
ich muss gestehen, dass ich nicht genau verstehe worauf du hinaus willst.
Ich versuche jedoch mein Verständnis des Problems darzustellen.
SVM in der momentan verwendeten Form geben kontinuierlich skalierte Ergebnisse. Für Fuzzy Logic oder ähnliche Ansätze benötigt man jedoch diskret skalierte Werte.
Eine Transformation für eine diskrete Formatierung ist in Investox aber jederzeit möglich. So könnte man Stufen definierten und die Ergebnisse der SVM auf diese Stufen abbilden.
Es gibt jedoch auch im Rahmen der Verfahren in Weka eine Reihe von mathematischen Ansätzen, die mit diskret skalierten Ergebnisse arbeiten. Testweise hatte ich mit diesen gearbeitet. Meine Ergebnisse waren jedoch enttäuschend.
Hab ich damit etwas zu deiner Frage beitragen können?

Viele Grüße

Martin

Chemie262

unregistriert

55

Dienstag, 12. Februar 2008, 14:47

Oder ist es so, das SVM-Systeme stabil laufen können, auch wenn die Zeitreihe flippt? Zeitreihen neigen extrem nach Wirtschaftszahlen zu irrationalen Schwankungen-gerade beim FDAX! was meinst Du-wird SVM so etwas unter Kontrolle haben oder oder ist es damit genauso überfordert wie jeder andere Algorithmus auch so das man besser Filter einsetzt und diese Zeitperioden meidet?


Hallo Udo,
ich habe nun schon wirklich reichlich Datenfeedsimulationen mit den SVMs hinter mir. Dabei kann ich nicht bestätigen, daß die Ergebnisse so überragend sind, wie ich sie z.B. beim NRCM sehe. Vielleicht liegt das an unserer begrenzten Auswahl an Kernels oder daran, daß ich ausschließlich Währungen als Datenreihen benutze. Aber im Gegensatz zu NNs haben sie den Vorteil, daß sie über lange Zeit funktionieren und wohl auch ohne große Anpassung auf andere Datenreihen übertragbar sind.Ich gebe mal hier ein Beispiel:
Ich habe dieses Rohsystem für EURJPY ausgewählt.

Danach habe ich durch zahlreiche Datensimulationen eine Ergänzung des HS durch ADX-Limits und einen Verluststop sowie einen Trailingstop erreicht.

Ohne jede weitere Änderung habe ich nun dieses System auf GBPJPY laufen lassen.

Hier war das Resultat sogar besser als beim vorigen Währungspaar. Aber beide beinhalteten den Yen. Bei dem Test dieses Systems mit dem EURUSD sah die KK allerdings nicht mehr so prickelnd aus. Hier müßte sicher noch einiges an Arbeit investiert werden.

Aber es wäre bei meinen NNs auch nicht annähernd möglich, sie so einfach auf andere Währungspaare einzusetzen und zumindest eine positive Prognose auf längere Sicht zu bekommen. Außerdem konnte ich nie ein NN ein Jahr lang ohne neues training durchlaufen lassen. Übrigens sind die Simulationen alle über 1 1/4 Jahr bei 4 h Komprimierungen durchgeführt worden. Die Einstellung des Indis seht ihr in dem Titel der 2. Grafik.
Aber ich suche immer noch nach einem System, das so eine schöne KK produziert wie das NRCM-System.

Hinsichtlich der News kann ich als sehr intensiver Nutzer des Newshandels nur davor warnen, irgendein mechanisches Handeslsystem während der Zeit laufen zu lassen, wenn zu erwarten ist, daß in der Vergangenheit größere Kursbewegungen durch diese Wirtschaftsnachrichten erfolgten. Zumindest die Auswirkung des kurzfristigen Spikes sind für die HS nicht voraussehbar. Und die Chancen stehen hier 1:1 daß man verliert oder gewinnt. Nun könnte man bei einem Broker, der die Stops garantiert, hier zumindest die Verluste begrenzen. Das ist aber bei Interactive leider nicht möglich. Daher sollte man hier besser vorher glattstellen und gegebnenfalls einige Zeit danach wieder einsteigen. Ich persönlich bleibe aber für einige Stunden draußen, bis sich der Markt wieder beruhigt hat.

Tschüß,
Herbert

Chemie262

unregistriert

56

Dienstag, 12. Februar 2008, 15:01

Martin,
ich sehe bei meinen Datenfeedsimulationen folgendes Phänomen. Wenn ich die Kompression in dem Berechnugstitel auf 4 h einstelle und mein HS auch auf 4 h komprimiert ist, erhalte ich folgende KK.

wenn ich aber den Berechnungstitel mit niedrigerer Komprimierung laufen lasse (hier 2h) und das HS weiterhin mit 4h, bekomme ich eine ganz andere KK.

Nach meiner Logik dürfte das nicht passieren, da ja das HS nur am Ende einer Periode das Signal berechnet. Damit sollte es doch egal sein, wie hoch der Titel in der DFS komprimiert ist. Das ist in sofern ein Problem, da wir bis jetzt keinen gangbaren Weg haben, Stops in einem schnellen Test zu prüfen. Man bräuchte hier eine Kompression in der DFS von mindestens 1 Minute oder gar Tickdaten. Aber wenn ich das versuche, schmiert die KK völlig ab. Woran kann das liegen?
Tschüß,
Herbert

Tobias Männlich

Meister

Registrierungsdatum: 3. September 2002

Beiträge: 663

Wohnort: NRW / Paderborn

57

Dienstag, 12. Februar 2008, 15:57

@Chemie : Das hat was mit den EInstiegen im ORM zu tun. Schau mal, ob es richtig einsteigt - und der EInstieg realistisch ist.

HIer meine KK vom Eurostoxx50 :
78,5% Trefferquote ab 1.1.2007
An den Inputs habe ich nichts Spektakuläres geändert.
Hauptsächlich einige Roc´s und das wesentliche ist eine dynamische Grenze in den Enter Bedingungen, also nicht nur SVM>0, sondern dynamisieren !
»Tobias« hat folgendes Bild angehängt:
  • kk.JPG
Gruss Tobias

Tobias Männlich

Meister

Registrierungsdatum: 3. September 2002

Beiträge: 663

Wohnort: NRW / Paderborn

58

Dienstag, 12. Februar 2008, 16:08

Hier nochmal der FDAX mit den gleichen Einstellungen und denselben Inputs :
Trefferquote 75,97 % aber 18.929 größter Verlust ... huhuhuhuh nix für mich ... :engel:
»Tobias« hat folgendes Bild angehängt:
  • kk.JPG
Gruss Tobias

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

59

Dienstag, 12. Februar 2008, 21:24

Hallo zusammen!

@Martin

Danke für Deine umfangreichen Ausführungen! Das Wort "Neuronal" verleitet in der Tat zu Irrglauben und hört sich so an als wenn NN "mit-und weiter denken"! Ich habe einmal irgendwo gelesen das die heutigen Neuronalen Netze, die selbstständig reproduzieren und kombinieren auf dem Stand eines ca. 3-jährigen Kindes sind! Erst wenn NN selbstständig Entscheidungen treffen kann wird es interessant-aber auch sehr gefährlich wie ich finde denn zu viele Steuerungssysteme werden von Computern überwacht-aber das nur am Rande!

Ich hatte bei NN auch sehr wenig Gewichte und Schichten verwendet so dass das NN gezwungen war mit wenig Vorgaben ein gutes Ergebnis zu produzieren. Umso mehr gewichte, schichten und sonstige Funktionen man hinzufügt desto größer wird die Neigung zum Curve Fitting-so meine Erkenntnisse! Ganz schlimm wird es wenn man die Gewichte mit GA hoch optimiert! Aber man könnte das so entstandene Curve Fitting auch nutzen, indem man ein überoptimiertes NN so lange real laufen lässt, bis es zusammenfällt! Aber dazu fehlen uns wiederum statistische Verfahren die beispielsweise eine Abnahme der Prognose-Qualität sehr feinfühlig erfassen. Meistens sind die Raster für solche Messungen zu groß und man verliert zu viel Kapital bis man merkt, das neu trainiert werden muss. Es ist letztendlich m.A. noch nicht so optimal wie man das gerne hätte!Genauso sehe ich das bei SVM-nur das es-wie Du beschrieben hast-alles schneller abläuft und daher das erstellen von Systemen wesentlich interessanter ist, weil man nicht ewig auf ein Ergebnis warten muss. Zudem eröffnen sich damit Vorteile in Bezug auf Dynamik und unter Zuhilfenahme eine Feed-Forward Tests! da geht es dann richtig los.Dr. Paasche schrieb, das die Kernels neu geschrieben wurden weil die von WEKA zur Verfügung gestellten für unserer Zwecke unzureichend wären! Gibt und das jetzt zu denken?

Bei SVM sehe ich primär zuerst den Kernel als entscheidenden Faktor der über Erfolg oder Misserfolg entschiedet-dann den Periodenausschnitt der zum Training verwendet wird und dann erst die Inputs! Es scheint so zu sein, das bestimmte Kernels mit bestimmten Zeitreihenkonstellationen gut zurecht kommen-andere wieder nicht! Herbert,daraus könnte sich auch das gute Ergebnis Deiner beiden Zeitreihen erklären. Beide können wahrscheinlich mit dem gleichen Kernel gut prognostiziert werden,was bei der dritten gezeigten Zeitreihe nicht der Fall ist! Allerdings hat man das Phänomen auch bei ganz normalen GA optimierten Systemen. Wenn man ein System optimiert,passen oftmals von 100 Aktien noch für 10-20 weitere System und liefern Performance! Das kann der Fall sein, wenn die Basiszeitreihen im Verlauf stark korrelieren oder die gleichen Pattern/Muster in gleicher Richtung auftreten! Genetisch Algorithmen ist ein bewährtes Verfahren das viel Software Produkte beinhalten. Aber durch die Zunahme der Marktdynamik wird es m.A. immer wichtiger, das man die Systeme in hohen maß adaptiv gestalten kann. Gut, man kann Systeme jetzt schon adaptiv gestalten aber nicht unter Verwendung eines Algorithmus in Realtime! Und gerade Realtime ist m.A einer der mit entscheidenden Punkte!

Beim Newstrading habe ich einige Varianten die ich je nach Marktstimmung und Signifikanz der Wirschaftskennzahl anwende (Eine Erklärung dazu passt hier leider nicht ganz zum Thema und würde den Thread sprengen)! Ich würde- so wie auch Herbert- kein vollmech. Intraday-System über die Wirtschaftstermine rollen womit sich die Frage nach einer Funktion stellt, die Lernzeiträume (ähnlich NN) bei SVM ausklammert! Nehmen wir an,es wird der FDAX gehandelt. Dieser Indices hat ca.3-4 Std /Handelstag die man effektiv handeln kann-wenn viel "Feuer" drin ist, vielleicht mal 5 Stunden! Die andere Zeit ist oftmals sinnlos dahinvegetieren! Zeiten an denen nicht passiert sind m.A. für effiziente Muster sinnlos und sollten ausgeklammert werden. Es könnte sein das "Null-Sinn"- Daten zum verrauschen der SVM-Prognose führen! Ob das so ist oder sein könnte kann uns vielleicht Martin verraten? Aber ohne es genau zu wissen denke ich,das man jeden Algorithmus der aus historischen Datensätzen lernt in die Irre führen kann. Es kommt halt darauf an, mit was ihn wann und wo füttert...

Zu Punkt 2:

Ich meinte hier etwas ganz Simples: Angenommen man hat ein 5er Momentum und die Crosslinie,bei der ein Signal geliefert werden soll liegt auf 100. bewi den Angaben kann man die Perioden (5) und die Zonen (100) variabel gestalten. Anschließend muss man mit GA n-Durchläufe fahren und die Generationen selektieren. Im Grunde suchen wir Optimal dessen, was mit dem Indikator möglich ist- gemessen an den Kennzahlen des Kapitalzuwachses, Risiko und der Effizienz. Wir starten unser System mit der Einstellung: 5 Momentum-Perioden und Overcross100~~BUY/SELL. Nach 10 (realen) Perioden optimieren wir via SVM die Perioden des Momentums so wie die Overcross-Schwelle neu (nach diversen Verfahren mit einem Feed-Forward Test)! Da dass Prognose-Ergebnis sofort zur Verfügung steht, könnte man ohne Zutun die neu ermittelten Variablen für das nächste Signal erhalten und unmittelbar handeln! Tests für diese Variante müssten natürlich auch per FW-Test durchgeführt werden. Andererseits kann ich mir vorstellen, das man mit SVM zeigen lassen kann welche max. Performance der gewählte Indikator mit optimaler Einstellung in der Historie brachte. Nimmt man nur einen einzigen Indikator und optimiert diesen ist das zwar auch Curve Fitting -aber ich verstehe es eher als Information weil man betrachtet was mit den gewählten Einstellungen überhaupt realisierbar ist. Klar,man sollte natürlich dazu keine drei Indikatoren und zwölf Variable verwenden und das Ergebnis real handeln! ;) Aber ich meine auch hier gilt der Grundsatz: Weniger ist mehr!
Happy Trading

Peratron

unregistriert

60

Mittwoch, 13. Februar 2008, 08:30

Nehmen wir an,es wird der FDAX gehandelt. Dieser Indices hat ca.3-4 Std /Handelstag die man effektiv handeln kann-wenn viel "Feuer" drin ist, vielleicht mal 5 Stunden! Die andere Zeit ist oftmals sinnlos dahinvegetieren! Zeiten an denen nicht passiert sind m.A. für effiziente Muster sinnlos und sollten ausgeklammert werden.


Hallo Udo!
Sind Deiner Meinung nach die Zeiträume fest oder variiren die von Tag zu Tag. Wenn fest welchen Zeitraum bevorzugst Du?
Grüße Peratron