Neuronales Netz

Hatte gerade einen AHA - Moment:

ich nehme ja oft Daten auf bei den nicht wirklich viel passiert. Diesen Daten kommen überproportional häufiger vor als die Daten in dennen was dramatisches/wichtiges passiert. Ich muss also Datenfilterung betreiben...

Ideen?
 
Hallo @Feeder , habe mich jetzt etwas näher mit Neuroph beschäftigt und ich denke , es liegt an dem max error...

Java:
		BackPropagation bp = new BackPropagation();
		bp.setLearningRate(0.005);
		bp.setMaxIterations(50000);
		bp.setMaxError(0.001);
		System.out.println(bp.getLearningRate());
		System.out.println(bp.getMaxIterations());
		System.out.println(bp.getMaxError());
der ist bei neuroph zu hoch eingestellt. Wenn der max error zu hoch ist, learning rate zu hoch ist und max iterations zu klein oder gar nicht eingestellt ist, so bricht er das Training ab - bevor es wirklich sinnvoll ist.

Meine zweite Idee ist, dass Du zu viele hidden layer hast, die Effekte im NN gegenseitig "aufheben" und wodurch das NN zu komplex wird.
 
Passende Stellenanzeigen aus deiner Region:

Neue Themen

Oben