Donnerstag, 18. April 2024, 12:48 UTC+2

Sie sind nicht angemeldet.

  • Anmelden
  • Registrieren

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

1

Freitag, 18. Dezember 2009, 00:40

automatische Verteilung der Robustheitsberechung auf alle verfügbaren Rechnerkerne

Hallo,

Dank N+ ist jetzt die sehr schnelle Berechnung von neuronalen HS möglich. Es wäre super, wenn es so einen Leistungschub auch beim Robustheitstest geben würde. Eigentlich müßte hier eine Parallelisierung der Berechnungen sehr einfach möglich sein, weil alle Berechnung völlig unabhängig voneinander erfolgen. Werden z.B. 10.000 Berechnungen bei einem Robustheitstest benötigt, dann könnten sich 4 Kerne die Arbeit teilen und jeder übernimmt 2500 Berechungen, d.h. das Ergebnis würde fast 4x schneller zur Verfügung stehen. Zum Schluß wird dann die Grafik zusammengebaut.

Es wäre sehr schön, wenn man in dieser Richtung etwas machen könnte.
Danke.

Viele Grüße
Torsten

Lenzelott Männlich

Experte

Registrierungsdatum: 30. Dezember 2002

Beiträge: 3 051

Wohnort: Giessen

2

Freitag, 18. Dezember 2009, 00:51

naja, das Thema hatten wir ja nun mehr als 10 mal.
Klar wär das schön.

Robustheitstest, Optimierungen, NN Training sind eigentlich "schön" parallelisierbar.
Thema gibt´s hier, seit dem die erste Hyperthreading CPU auf den Markt kam.
Ich such Dir die links aber jetzt nicht raus, findest Du bestimmt über die Boardsuche.
If you think it´s expensive to hire a professional, wait until you hire an amateur.

sten

Experte

Registrierungsdatum: 6. September 2002

Beiträge: 2 879

3

Freitag, 18. Dezember 2009, 10:59

Hallo Lenzelott,

mir ist das vor ein paar Tagen wieder ganz stark aufgefallen, wo ein Robustheitstest 15h dauert.

Zitat

Robustheitstest, Optimierungen, NN Training sind eigentlich "schön" parallelisierbar.

-Bei NN Training gibt es jetzt den NC und damit ist der Punkt schon abgehackt, d.h. man hat eine elegante Ausweichmöglichkeit.
-Parallelisierung von GA ist nicht so einfach, weil diese Berechnungen nicht unabhängig voneinander laufen, z.B. muss der Erfolg der Optimierung irgendwie global überwacht und justiert werden
-Robustheitstest ... würde sehr viel bringen und ist einfach auf mehrere Kerne aufzuteilen (siehe Erklärung oben).

Viele Grüße
Torsten

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »sten« (18. Dezember 2009, 20:55)