Dienstag, 11. Dezember 2018, 00:17 UTC+1

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

Lieber Besucher, herzlich willkommen bei: INVESTOX-Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Udo Männlich

Vize-Administrator

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

1

Sonntag, 19. Oktober 2008, 12:04

Input-Selektion

Hallo Herr Knöpfel,

Das wichtigste Kriterium bei der Suche nach guten Variablen ist ihr Gehalt an relevanten Informationen, das heißt, Informationen, die es dem System ermöglicht, eine vorgegebene Zielgröße zu erreichen!. Der definitive Entscheidungsfaktor ist es schließlich, was und wie viel eine Variable zum Gelingen des neuronalen Netzes beiträgt. Es gibt einige US-Softwares, die es dem Entwickler ermöglichen, die Bedeutung jeder einzelnen Variablen zu bestimmen! Nicht funktionierende Variable werden aus dem System entfernt, um die Korrelation des System Output zu vorgegebenen Zielgröße erneut überprüft-das heißt berechnet und visualisiert!

Beispiel:

Angenommen, man entfernt eine Variable aus einem Modell und dessen Output/die Korrelation sagt von 0.5 auf 0.2 ab. Man weiß dann, dass es sich um eine sehr wichtige Variable handelt und wird sie wieder in das System integrieren. Verringert sich andererseits die Korrelation des Systems nur von 0.5 auf 0.48 so trägt die Variable augenscheinlich nur wenig zum Erfolg des Systems bei.

Ziel ist es, dem Systementwickler zu ermöglichen, das denkbar einfachste Modell zu konstruieren. Zu viele Variable führen zu Überoptimierung, vor allem dann, wenn der Informationsgehalt korreliert! Mit dieser Methode könnte man alle unbrauchbaren Variablen ausfiltern bis schließlich nur noch die, für die Leistungsfähigkeit des Systems wirklich entscheidenden Variablen übrig sind! Ist so etwas realisierbar?
Happy Trading

chied

unregistriert

2

Sonntag, 19. Oktober 2008, 17:00

...das wäre wirklich sehr sehr Hilfreich!

Udo, darf ich fragen, um welche Software es sich dabei handelt?

Viele Grüsse

Roger

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 685

Wohnort: Köln

3

Sonntag, 19. Oktober 2008, 17:05

Hallo,

rein zur Info. Entsprechende Verfahren zur Auswahl der Faktoren gibt es zum Beispiel ebenfalls in dem Standardpaket Weka. Es handelt sich um im Data Mining vielfach anzutreffende Verfahren.

Gruß

martin

Lenzelott Männlich

Erleuchteter

Registrierungsdatum: 30. Dezember 2002

Beiträge: 2 904

Wohnort: Giessen

4

Sonntag, 19. Oktober 2008, 17:26

Ich beschäftige mich aktuell zwar nicht mit neuronalen Netzen, habe das früher aber auch ausgiebig getan.

Genau diese Funktion würde dem Entwickler von NNs sehr helfen nützliche von unnützen Inputs unterscheiden zu können.
If you think it´s expensive to hire a professional, wait until you hire an amateur.

Udo Männlich

Vize-Administrator

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

5

Montag, 20. Oktober 2008, 01:06

Hallo zusammen,

Der Vorschlag ist eigentlich nicht neu! Vor circa sechs Jahren habe ich diesen Vorschlag im alten Forum schon einmal geschrieben. Herr Knöpfel stellte damals in Aussicht, eventuell eine Sensitivitätsanalyse zu integrieren! Mit dieser Analyse sucht man Variable die einen relativ geringen Einfluss auf das Modellverhalten haben, um sie zu eliminieren! Man änderte geringfügig den Wert einer Inputvariablen und beobachtet, wie sich das auf dem Systemoutput auswirkt! Aber dennoch ergeben sich hier einige Probleme. Dazu ein Beispiel:

Angenommen man stellt fest das von drei Inputs einer keine relevanten Daten für das neuronale Netz liefert! Input zwei und drei liefern gute Informationen für das neuronale Netz! Laut der Analyse könnte man Input eins entfernen, da er nicht zur Relevanz des neuronalen Netzes beiträgt. Nachdem eliminieren des Inputs stellt man fest, dass die Performance des Netzes erheblich absackt. Wir stellen fest, dass trotz niedriger Sensitivität Input 1 einen Beitrag dazu geleistet hat, dass entweder Inputs zwei oder Input drei oder beide im Verbund funktionierten! Ich hoffe das kleine Beispiel zeigt, auf welche Problematik ich hinaus wollte! Dennoch bin ich der Meinung, dass man zumindest einen Anhaltspunkt benötigt um die Relevanz der Inputs annähern zu bestimmen! In den meisten Fällen beinhalten die Netze zu viele Inputs und viele Inputs benötigen große Datensätze. Die vielen Daten werden benötigt damit man aufgrund vieler Inputs nicht sofort in der Überoptimierung landet! Zudem benötigt eine breit angelegte Suche sehr viele Fakts.

Martin, weil linearen Modellen die man beispielsweise mit der Standard-Regression erhält ist es relativ einfach die Sensitivität einer Variablen zu erkennen! Das Maß ist einfach nur die Grüße des Koeffizienten. Hohe Koeffizienten bedeutet hohe Sensitivität, gleichbedeutend mit großen Einfluss auf das Modell. Niedrige Koeffizienten signalisieren geringe Sensitivität und somit wenig Einfluss! Bei nicht linearen Vorgängen, wie das bei der Wirtschaft und folglich im Börsenumfeld der Fall ist, wird es schwieriger! Daher ist es relativ schwer die Variablen zu sondieren, die das neuronale Netz maximal-oder überhaupt nicht beeinflussen! Man sollte verdeutlichen, dass bei der Entwicklung neuronaler Netze die Mathematik/Statistik einen Endpunkt erreicht, und nur durch Versuche weitere Fortschritte erreicht werden! Das Problem ist, dass die Relevanz die für das neuronale Netz wichtig sind, nicht greifbar ist und somit nachvollzogen werden kann! Ein gutes Beispiel hat die SSA-Analyse geliefert. Im Trainingszeitraum wurden zwischen 80% um 90% Treffer mit einer einzigen Inputschablonen erzielt! Das Netz war 100% stabil. Visuell kann nicht nachvollzogen werden weshalb das Netz genau die Datenpunkte als relevant betrachtet hat. Ein gleitender Durchschnitt, mit dem ein zweiter Test durchgeführt wurde und dessen Datenpunkte nahe am SSA-Filter lagen, versagte gänzlich!

Data Mining halte ich durchaus für eine zukunftsorientierte Prognosemöglichkeit für Finanzmärkte! Allerdings sollte man berücksichtigen das man für eine hochwertige Analyse eine Menge Daten, Fakts und für Realtimeanalysen eine enorme Bandbreite für Datentransfer benötigt! Es gibt mittlerweile schon einige Softwareprodukte die beispielsweise Zahlen und Meinungen auswerten können. Aber ich denke Martin sprach in erster Linie eine Selektion für relevante Daten an.Die Software die ansprach heißt N-Train. Ein kleines Freeware-Tool liefert ebenfalls erstaunliche Funktionen, die ich im Blog einmal mehr vorstellen werde!

Im allgemeinen, finde ich zumindest, sind die Funktionen für Übersichtlichkeit und visualisieren beim neuronalen Netz etwas spärlich! Gerade in dem Bereich wäre ein weiterer Einblick in Kennzahlen und Funktionen notwendig, da das neuronale Netz zum Teil eine Blackbox ist! Ich glaube die Popularität der neuronalen Netze die in den letzten Jahren verloren, da aufgrund mangelnder Darstellung- und Information Funktionen jeglicher Anhaltspunkt fehlt, und man im Nebel stochert! Es ist klar, dass ein neuronales Netz hohen Testaufwand bedeutet und man, wie oben bereits geschrieben, an einem Punkt kommt, an dem Mathematik und Statistik nicht mehr weiterhelfen und das nackte testen beginnt! Aber ohne Unterstützung der Software wird auch das testen zum Marathon und Blindflug....
Happy Trading

Dago

unregistriert

6

Montag, 20. Oktober 2008, 12:40

Hallo zusammen,

da kann ich Udo nur Recht geben. Anfangs stochert man immer blind im Unbekannten. Doch bin ich mir nicht sicher, ob so eine Funktion einen wirklich weiter bringt. Es besteht auf jeden Fall die Gefahr, dass man sich wieder auf etwas verlässt, ohne vorher seine Hausaufgaben gemacht zu haben, welche aus ein paar grundlegenden Punkten bestehen:

1. Es müssen Inputs sein, die sich auch in einem konventionellen HS bewährt haben. Wichtig ist, dass man dem NN aussagekräftige Argumente liefert. Der Vorteil eines NN ist eigentlich nur, dass man diese Argumente nicht mehr selbst in einem HS verknüpfen muss. Und selbst da muss man aufpassen, dass man dem NN nicht zu viele Freiheiten gibt, um einer Überoptimierung vorzubeugen.
2. Die Inputs dürfen keine Optimierungsvariablen enthalten. Das hat Udo immer wieder gepredigt und ich kann es nur bestätigen. Eine wirkliche NN-Stabilität kann nur so erreicht werden. Auch die Anfangs angesprochene Funktion einer Inputselektion funktioniert mit Optimierungsvariablen nicht.
3. Die Inputs sollten normiert sein. Das kann, wie Udo schon gezeigt hat außerhalb des NN durch diverse Tools geschehen, oder innerhalb z.B. durch Inputs, die nur den Wert 1, 0 oder -1 annehmen können. Von solchen Inputs dürfen es dann auch ruhig ein paar mehr werden, vor allem dann wenn nur selten ein Signal kommt. Meine NNs haben ca. 50 mögliche Inputs, von denen aber nur maximal 5 gleichzeitig auftreten können.
4. Alle Inputs, die man dem NN vorhält müssen auch zugelassen und nicht in der Anzahl begrenzt werden. Die Qualität eines NN kann nur beurteilt werden, wenn immer wieder die gleichen Voraussetzungen vorhanden sind.

Ich hab am WE noch mal alle NNs überarbeitet und alle Punkte umgesetzt. Das Ergebnis ist erstaunlich. Die NNs werden nur mit 10 Eltern, 20 Nachkommen und 10 Generationen trainiert. Trainingszeit 15 min . Auch nach 20 Trainingsdurchläufen in verschiedenen Zeiträumen sind 85% aller Generationen im Out of Sample deutlich im plus und die Nieten hätte man zum Teil auf Anhieb vorher erkannt. Somit entfällt die überaus lästige NN-Selektion.
Vielen Dank Udo, dass Du mich durch Deine Beiträge auf die richtige Spur gebracht hast.

MartinP Männlich

Meister

Registrierungsdatum: 13. März 2007

Beiträge: 685

Wohnort: Köln

7

Montag, 20. Oktober 2008, 15:59

Hallo zusammen,

die Normierung von Inputs verbessert die Ergebnisse von NN deutlich. Der Beitrag von Dago läßt mich darüber nachdenken, ob eine Diskretierung bei einigen Inputs vorteilhaft sein könnte.

Als Beispiel: Man möchte die Information ausnutzen, dass der Kurs seit dem letzten Tag gestiegen ist.
Bei der wahrscheinlich am häufigsten Implementierung in HS wird ein ROC verwendet. Dieser kann dann noch normiert werden (Intervall 0..1 oder -1..1). Aber die Werte innerhalb des Intervalls sind kontinuierlich. Alternativ ist mit diskreten Werten vorzugehen. Dabei kann man es sich einfach machen
ROC => 0 => 1
ROC < 0 = -1.

Man könnte auch eine dritte Klasse für "unentschiedener Markt" ROC zwischen -0,5 % und 0,5 % einführen. Ein Input könnte dann wie folgt aussehen:
Roc < -0,5 => -1
-0,5 <= ROC <= 0,5 <= 0
Roc > 0,5 0 => 1
(bei einem solchen Vorgehen landet man übrigens leicht bei der Fuzzylogik ;) ).

Hat hier jemand mal mit solchen diskreten Werten für Inputs experimientier?

Gruß

Martin

chied

unregistriert

8

Montag, 20. Oktober 2008, 16:31

Hallo Dago

vielen Dank für deine tolle Zusammenfassung.

Ich würde deine Liste noch um folgenden Punkt ergänzen:
5. Das NN sollte auch ohne GA Optimierung im Out of Sample Zeitraum profitable Signale liefern

Interessanterweise werden meine Intermarket NN mittels GA Optimierung nur verschlechtert. Das Training ohne GA Optimierung
führt jedoch des öfteren zu höchst interessanten Ergebnissen!
Erklären kann ich das aber leider nicht...

@Udo
>> einem Punkt kommt, an dem Mathematik und Statistik nicht mehr weiterhelfen und das nackte testen beginnt!
Welche mathematischen und statistischen Methoden setzt du zur Inputselektion ein?

Viele Grüsse

Dago

unregistriert

9

Montag, 20. Oktober 2008, 16:33

Hallo Martin,
damit habe ich zur Genüge experimentiert. Man kann das Spiel auch weiter treiben und einem Input die Möglichkeit geben mehr als 3 Werte an zu nehmen. Damit kann man wesentlich mehr Informationen aus einer Zeitreihe extrahieren. Es ist allerdings ein 2-schneidiges Schwert. Wenn ein Input statt 2 nun 3 Werte annehmen kann, steigt, je nach Anzahl der möglichen Inputs, die Anzahl der möglichen Kombinationen dramatisch. Damit rutscht das NN wieder in eine klassische Überoptimierung, wenn man nicht auf anderer Seite dem Verknüpfungshunger des NN Einhalt gebietet. Kurz gesagt: TZR und KZR performen damit besser, Generalisierung wird schlechter.

Dago

unregistriert

10

Montag, 20. Oktober 2008, 16:51

Hallo Roger,
danke für den Hinweis, damit ist natürlich noch besser und früher zu erkennen, ob es sich lohnt weiterhin Zeit in ein NN zu inverstieren. Habs auf die Schnelle mal ausprobiert. Die Trainigszeit verkürzt sich auf 3 sec und die Performance bleibt bei 10 Durchläufen erfreulicher Weise gleich (schwitz). Nur die KK wird etwas holpriger, doch die kann man ja noch filtern.

sten

Erleuchteter

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

11

Montag, 20. Oktober 2008, 22:30

Hallo,

Zitat

Die Inputs sollten normiert sein.

Das ist eine interessante Idee. Vielleicht können wir diese mal an einen praktischen Beispiel ausprobieren, ob die Normierung wirklich soviel ausmacht.
Am besten ist es, wenn man ein NN mit konventionellen Inputs (z.B. von der Homepage von Hr. Knöpfel) einem überarbeitet NN mit normierten Inputs gegenüberstellt.

Das ist das original Pivot-NN von der Homepage mit folgenden Inputs.

Zitat

calc Pivot: (LastDP(close)+LastDP(high)+LastDP(low))/3; {Pivot-Basiskurs}
calc W1: 2*Pivot-LastDP(low); {Widerstand 1}
calc W2: Pivot+LastDP(high)-LastDP(low);{Widerstand 2}
calc U1: 2*Pivot-LastDP(high); {Unterstützung 1}
calc U2: Pivot+LastDP(low)-LastDP(high); {Unterstützung 1}

W1-close; {Abstand Kurs zu Wiederstand1}
close-U1; {Abstand Kurs zu Unterstützung1}
W2-close; {Abstand Kurs zu Wiederstand2}
close-U2; {Abstand Kurs zu Unterstützung2}

DailyPrice(high)-close; {Abstand zum Tageshoch}
close-DailyPrice(low); {Abstand zum Tagestief}

ROC(close,10,$);{letzte Kursänderungen über 10 Perioden}

MOM(close,1200); {Trend der letzten 20 Stunden}


Habe nur ein paar kleine Änderung vorgenommen (z.B. Slippage im HS von 12.5€ eingetragen und KontrollZR im NN eingestellt) und das NN auf den aktuellen FDAX-Kontrakt (IB-Kursaufzeichnung) neu trainiert. Ab dem 13.10. läuft das HS mit unbekannten Kursdaten. So schlecht schaut es für den Anfang nicht aus.

Jetzt müsste man die Inputs des NN's normieren (z.B. auf den Wertebereich {0,1}) und dann sehen, ob die KK stabiler läuft und etwas mehr steigt. Leider schaffe ich das heute nicht mehr, aber vielleicht hat ja jemand Lust an der Stelle weiter zu experimentieren.

Viele Grüße
Torsten

PS:
Falls die user Normierung wirklich eine entscheidente Verbesserung bringen sollte, könnte man vielleicht Hr. Knöpfel überreden in dem Bereich Erweiterungen vorzunehmen ...
»sten« hat folgende Bilder angehängt:
  • 081020_NNpivotHS.gif
  • 081020_NNinputs.gif

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »sten« (20. Oktober 2008, 22:47)


chied

unregistriert

12

Dienstag, 21. Oktober 2008, 09:15

Hallo Dago
>>Die Trainigszeit verkürzt sich auf 3 sec und die Performance bleibt bei 10 Durchläufen erfreulicher Weise gleich (schwitz)
Das kling super! Freut mich sehr für dich! Es scheint als hättest du in der Tat sehr robuste Inputs eingesetzt.

>>Meine NNs haben ca. 50 mögliche Inputs, von denen aber nur maximal 5 gleichzeitig auftreten können.
Wie setzt du das um? Mit der OR funktion? Setzt du auch ganze Handelsregeln als Inputs ein?

Vielen Dank und beste Grüsse

Roger

Dago

unregistriert

13

Dienstag, 21. Oktober 2008, 09:30

Hallo Roger,
ganze Handelsregeln setze ich nicht ein. Ich hab Candlestick-Muster progammiert, von denen ich weiß, dass aktuell nur maximal 2 zusammen auftreten können. Damit das NN jetzt noch die richtigen Schlüsse daraus ziehen kann, in welcher Marktlage diese Muster auftreten, laufen noch 2-3 Indikatoren mit.

chied

unregistriert

14

Dienstag, 21. Oktober 2008, 09:46

..ahh. Ok Dago. Vestanden. Damit arbeite ich auch. Ich habe die Candlesticks jedoch nicht selbst programmiert, sondern von Wiwu (Ascunia) erworben.
Das kann ich nur empfehlen!

Udo Männlich

Vize-Administrator

Registrierungsdatum: 30. August 2002

Beiträge: 8 155

Wohnort: Trade-Planet

15

Dienstag, 21. Oktober 2008, 10:41

Hallo,

man kann für das neuronale Netz unterschiedliche Inputaufbereitungen verwenden! Ein binärer Wert einer Berechnung (eins-minus eins-null) ist eine Methode die miteingesetzt werden kann. Bei Indikatoren sollte man darauf achten, dass sie dem Netz nicht alle die gleiche Informationen liefern. Das kann man unter anderem herausfinden wenn man die Indikatoren normalisiert und auf Korrelation überprüft. Gleitende Durchschnitte kann man auch mit dem Detrend() vorbereiten. Der Detrend, wie er in Investox vorprogrammiert zur Verfügung steht, sollte allerdings normalisiert werden! Binäre Werte können auch als Filter für die Lernbeschränkung eingesetzt werden.
Happy Trading

datsys

unregistriert

16

Donnerstag, 23. Oktober 2008, 14:32

Zustimmung, Einschränkung und Widerspruch

Hallo zusammen!

Da sich hier eine interessante Diskussion zum Thema des (offenkundig als vornehmlich angesehenen und damit - aus meiner Sichtweise - vermeintlichen) Herzstücks der Konzipierung Neuronaler Netze, nämlich den Inputs, zu ergeben scheint, an dieser Stelle ein kurzer Beitrag meinerseits auch mit Blick über den "Input-Tellerrand" hinaus.

Eingedenk dessen, dass z.B. Udo (dessen Beiträge mir sowohl in Umfang wie auch Qualität immer wieder bemerkenswert erscheinen) sicherlich für sich den notwendigen Blick über den genannten "Tellerrand" hinaus gemacht hat, sei im folgenden Beitrag doch vor allem auch auf diesen hingewiesen, da er zum Einen einen wesentlichen Beitrag zum (späteren Handels-)Erfolg eines NN leistet und zum Anderen hier noch nicht genannt worden ist.

Dieser Beitrag trägt auf der einen Seite in jenem Ausmaß Zustimmung zum bisher Kommunizierten in sich, wie er auf der anderen Seite (aufgrund differierender Sichtweise, welche wiederum auf differierenden Erfahrungen fusst) deutliche Einschränkung bis hin zum Widerspruch zu Teilen des "Postulierten" erforderlich macht:

Eine Implementierung wie bespielsweise einer Sensitivitätsanalyse (wie von Hr. Knöpfel in Aussicht gestellt) ist grundsätzlich zu begrüßen und würde den Beginn des Rückzugs des Ausweichens auf andere Lösungen (im Hinblick auf Software, die dies bietet) in diesem Bereich einläuten, was wiederum angesichts der Alternative des durch rein heuristische Verfahren langwierigen "im Nebel stochern" als notwendig anzusehen ist. Hier kann ich mich nur anschließen.

Ebenfalls anschließen kann ich mich bezüglich der von Dago angesprochenen Wichtigkeit der Verwendung von Inputs, welche sich auch in konventionellen bzw. rein technisch (also ohne Hinzunahme von künstlicher Intelligenz) konzipierten HS bewähren.

Die (aus meiner Sicht) zu treffende Einschränkung folgt hier jedoch dem weiter Ausgeführten sofort auf den Fuß (und soll als Input und nicht Kritik aufgefasst werden):

Freiheiten in Form von Optimierungs-Variablen stellen (auch und gerade wenn sie z.B. nicht binär normiert sind) keinen Nachteil, sondern vielmehr einen Vorteil dar! Gerade dies ist der Vorsprung beim Einsatz von künstlicher Intelligenz: Sie sucht selbständig nach (besseren bzw. noch besseren) Lösungsmöglichkeiten innerhalb der vorgegebenen Bandbreite von Optimierungs-Variablen der wiederum jeweils angebotenen Inputs. Fuzzy-Logik-Technologie z.B., welche gerade im Einsatz von Handelssystemen mit Neuronalen Netzen zu sehr stabilen und beeindruckenden Ergebnissen beiträgt, wird gerade aufgrund Vorgenanntem erst möglich und widerspricht aus sich heraus einer z.B. binären Normierung, weil gerade ein Neuronales Netz dadurch in die Lage versetzt wird, nicht nur schwarz und weiß bzw. 1 und -1 für die "Beurteilung" bzw. die Lösungsmöglichkeit heranzuziehen, sondern eben auch die dazwischenliegenden (sehr wichtigen!) nuancierten Ebenen der verschiedenen Grautöne zwischen schwarz und weiß. Dago hat angeführt, eine Inputselektion (durch Sensitivitätsanalyse) funktioniere bei Verwendung von Optimierungs-Variablen nicht. Stimmt! Jedoch wenn man das Pferd von vorne aufzäumt werden Opimierungs-Variablen plötzlich zum Vorteil: Zuerst muss die Identifikation von Inputs erfolgen, aus welchen ein NN geeignete Rückschlüsse für das vor uns liegende und damit unbekannte Marktverhalten ziehen kann. Die nachmalige Verwendung von Optimierungs-Variablen bzw. Verwendung von Fuzzy-Logik auf bereits als geeignet identifizierte Inputs hat sich für uns allerdings als (positiver) Turbo im Hinblick auf die Erfolgsskala von NN's erwiesen.

Dies führt sogleich auf direktem Wege (neben der Kurszeitreihen-Verfremdung durch sogenanntes "Input-Rauschen") zur sehr wohl erfolgreichen Bekämpfung von Überoptimierung durch Beschränkung im Sinne der Auswahl von Inputs durch das Neuronale Netz selbst: Wenn ein Neuronales Netz durchgängig Inputs angeboten bekommt, welche - für sich und auch unabhängig von den jeweils anderen verwendeten - stabile und profitable Ergebnisse (in rein technischen HS) erzielen, so hat man als Ausgangsbasis eine (wie von Dago in Pkt. 4 angesprochene bzw. von chied indirekt) zwar nicht idente aber sehr wohl qualitativ hochwertige Basis zur Beurteilung von NN's. Liegt diese erst einmal vor, so kann ich ebenfalls auf Erfahrung zurückgreifend folgendes sagen: Die Auswahl der Inputs durch das NN selbst endet auf diese Weise nicht in einer Überoptimierung sonder erweist sich auf diesem Gebiet ebenfalls als positiver Turbo im Hinblick auf die Erfolgsskala.

Da damit der erste Blick über den "Tellerrand" eigentlich schon erfolgt ist, sei auf die weitere und wesentliche Komponente im Bezug auf den künftigen Erfolg eines NN's im realen (und unbekannten) Markt verwiesen, welche noch ein Stückchen weiter blicken lässt: Die Architektur. Hier liegt viel Effizienz und vor allem ein weiterer wesentlicher Scheideweg zwischen dem künftigen Funktionieren oder Versagen eines NN's verschüttet, den es zu entdecken gilt!...

Ähnliche Themen