@roger
Zunächst empfehle ich Anfangs nicht einmal an GA Optimierung zu denken,geschweige ein NN damit zu optimieren,aber ich möchte mal von Anfang an beginnen!
Viele die erstmals mit NN arbeiten gehen davon aus, das ein NN Regeln in Inputschablonen mittels KI sinngemäß wie im konventionellen HS in die Zukunft projizieren! Damit das Ergebnis verbessert ,eine steigende KK verbessert wird,setzt man GA ein um die vielen Gewichte (umso mehr desto besser
) optimal zu verschieben! Natürlich hat man in dem Paket kaum einen annähernden Überblick der Vorgänge und Abläufe im NN und man weiß nicht, wie der Output entstanden ist. Gut, das weiß man nie den im Rechenzentrum ist das NN eine Blackbox die man nur unzureichend haargenau steuern kann!
Was ich an Investox an dieser Stelle bemängele ist, das Features für die statistische Datenvorbereitung gänzlich fehlen und man keinen Einblick hat, wie die Daten von Investox skaliert und vorbereitet werden! Wenn man sich ernsthaft mit NN auseinandersetzt kommt man meiner Ansicht an einer Statistiksoftware zur Datenmanipulation,-Glättung und Vorbereitung nicht gänzlich vorbei! Zunächst sollte man sich Gedanken machen, ob man das Underlying vorbereiten kann oder ob man die Inputs dementsprechend vorbereitet. Wie kann man die Daten vorbereiten? Vor einigen Jahren hat man beispielsweise FFT für die Vorbereitung eingesetzt (Bernhard "hungerturm" ist bei dem Thema Experte). In letzter Zeit hat man Wavelets eingesetzt. Diese Art von Glättung ist setzt man ein,um die Form eines realen Signals zu bewahren was sogar bei Signalen mit plötzlichen Änderungen funktioniert -zumindest soll!So sieht das ungefähr aus:
Es gibt auch bei den Wavelets unterschiedliche Verfahren. Leider habe ich noch nicht die Möglichkeit gehabt, das ganze live zu testen!
Wen das ganze vom mathematischen Hintergrund interssiert kann die
PDF näher betrachten!
Es gibt noch weitere statistische Glättungsverfahren aber man muss darauf achten das die Approximation hoch ist,das Signal weitestgehend erhalten bleibt und trotzdem kein Curve Fitting provoziert wird! Die klassischen gleitenden Durchschnitte haben diese Vorteile nicht und verzögern bei starker Glättung zu sehr,so dass das Resultat der Annäherung nicht gerade berauschend ist!
Wenn man Unmengen Daten in das Netz leitet und es überinformiert sollte man annehmen,das es nicht sehr lange funktioniert-wenn überhaupt! Stelle es Dir so vor: Du betrachtest zwei Charts. Im einen sind zwei GDs und im anderen sind zwei GDs und noch 10 Indikatoren! Aus welchem Chart kannst Du ein klares Signal auslesen? Das Brain kann keine 12 Signal auf einmal erfassen und verarbeiten und das NN kann es ,neigt aber zunehmend zu auswendig lernen und kann die Informationen nicht mehr generalisieren..Ableitungen für die Zukunft projizieren!
An dieser Stelle sind wir immer noch bei der Datenvorbereitung und haben das NN noch nicht mal trainiert! Ich könnte hier jetzt noch viele Punkte ansprechen bevor man überhaupt zur GA-Optimierung kommt! Ich glaube in den meisten Fällen ist die GA-Optimierung gar nicht notwendig! Wenn man Generationen via GA selektieren muss, ist es für mich kein typisches NN mehr denn bei einem stabilen und gut sortierten NN muss in der Regel nichts selektieren! Jede Selektierung mittels statistischen Berechnungen bringen zusätzliche Zufallsvariable ins Spiel! Wenn Du auf den Seiten von NRCM einmal genauer liest wirst Du einige stat. Glättungsvarianten und Datentransformationen finden...warum wohl?
GAs basieren im Gewissen Sinn auf Zufall, da Pseudoeinstiege berechnet werden! GAs gehören genau genommen nicht in die Gruppierung KI und bringen zu dem vorher genannten noch eine zufällige Variante in das Paket! Letztendlich kommt eine überoptimierte Output heraus bei dem es eine Frage der Zeit ist, bis die Drawdowns "quadratisch" anwachsen und für den Entwickler der Zeitpunkt kommt, wo er ein total hochgezüchtetes System wieder in die Spur bringen muss. Das dies kein einfache Aufgabe ist, kann man sich vorstellen und nicht selten muss man das System komplett zerreißen und neu aufbauen! Dann fängt man wieder von vorne an!
In der Umfrage zu NNs wurde viele Wünsche geäußert! Leider ist das jetzige Inv-NN Paket,gerade für den Einsteiger aber auch für den fortgeschrittenen Eigenentwickler, und da betrachte ich User die NN s nicht im wissenschaftlichen und zertifizierten Institut in München kaufen,nicht sehr informationsfreudig und ein großer Teil auf Ausprobieren und Glück aufbaut! Wesentliche visuelle Features oder statist. Testmöglichkeiten und Datenvorbereitungs-Tools fehlen-zumindest dem Eigenentwickler! Es wäre wünschenswert, das nach den vielen Jahren auch das NNs Paket insgesamt rundereuert wird, und den neusten Stand der Möglichkeiten anbietet! Dazu gehören u.a. auch unterschiedliche Algorithmen,Graphen,visuelle Kontrolle usw....die Liste ist lang....und wird immer länger!