Neuronales Netz

Feeder

Bekanntes Mitglied
Ich habe nun eine extrem kleinen Lernrate: 0.0001
Ich wiederhole 20000 mal. Aber das Feintuning funktioniert nicht, ich habe die Anzahl ähnlicher Werte verkleinert.
 
X

Xyz1

Gast
Wir müssen mehr über NN s wissen und mehr über das bislang unbekannte Spiel wissen. :( sonst wird Dir keiner helfen können
 

Feeder

Bekanntes Mitglied
Entschuldigt bitte die schlechte Audioqualität, aber ich habe keinen Weg gefunden das Rauschen so schnell zu beheben:


Grüße Niclas
 
Zuletzt bearbeitet:
X

Xyz1

Gast
Ok vielleicht zwei "Ideen"/Tipps dazu.
"R" startet die Trainingsmenge, dann nochmal "R" stoppt das Training....
Wenn aber in der Trainingsmenge ein oben oder unten über den Rand schreiten gar nicht vorkommt , dann kann er das ja auch nicht lernen, denke ich
 

Feeder

Bekanntes Mitglied
Ok vielleicht zwei "Ideen"/Tipps dazu.
"R" startet die Trainingsmenge, dann nochmal "R" stoppt das Training....
Wenn aber in der Trainingsmenge ein oben oder unten über den Rand schreiten gar nicht vorkommt , dann kann er das ja auch nicht lernen, denke ich
Nochmal r stoppt das Training, das ist korrekt.
wie meinst du das, er versucht ja eine Funktion zu approximieren die bei unbekannten Werten was sinnvolles macht...
 
X

Xyz1

Gast
ich meine das so, das er gerade gelernt hat, das er sich dorthin bewegt, wo keine Vögel sind, und das ist außerhalb des Spielbereichs ;)
Kannst du das Spiel so ändern, das ein Überschreiten von "oben/unten" nicht möglich ist?
 

Feeder

Bekanntes Mitglied
ich meine das so, das er gerade gelernt hat, das er sich dorthin bewegt, wo keine Vögel sind, und das ist außerhalb des Spielbereichs ;)
Kannst du das Spiel so ändern, das ein Überschreiten von "oben/unten" nicht möglich ist?

Ich verstehe was du meinst, wenn ich das ändern würde würde es vermutlich besser funktionieren. Aber cooler wäre es natürlich wenn es anhand meiner Daten auch lernt, dass ich nie die Spielgrenzen überschreite :)
 

Feeder

Bekanntes Mitglied
ja
hab ich noch nie :(

also zuerst müsste ich einen Spielplatz bauen, indem mehrere Spieler spielen können. Dann sollte ich die genetische Mutation multithreaden, sonst bekommt man ja Augenkrebs bevor da mal was sinnvolles passiert. Dann sollte ich ein Netz vorfertigen, was möglichst viele Neuronen hat || vielleicht auch ohne grafische Ausgabe iterieren...

Dann bräuchte ich ne Fitnessfunktion das wäre bestmöglich: t oder t^2
Dann würde ich eine eingeschlechtige Fortpflanzung vorziehen, weil Crossingover und sowas Rotz ist...
Dann vielleicht die Liste aller Gewicht:

1
2
3,1
4

in eine Bytekette formattieren:

00000001|00000010|11,0001100110011001100110011001100110011001100110011|00000100

Dann eine Learningrate festlegen.

Und mit dieser Wahrscheinlichkeit jedes Bit flippen.

Dann die neue Kette einlesen...

Das klingt nach einen Haufen Arbeit :(
 

Feeder

Bekanntes Mitglied
Hatte gerade einen AHA - Moment:

ich nehme ja oft Daten auf bei den nicht wirklich viel passiert. Diesen Daten kommen überproportional häufiger vor als die Daten in dennen was dramatisches/wichtiges passiert. Ich muss also Datenfilterung betreiben...

Ideen?
 
X

Xyz1

Gast
Hallo @Feeder , habe mich jetzt etwas näher mit Neuroph beschäftigt und ich denke , es liegt an dem max error...

Java:
		BackPropagation bp = new BackPropagation();
		bp.setLearningRate(0.005);
		bp.setMaxIterations(50000);
		bp.setMaxError(0.001);
		System.out.println(bp.getLearningRate());
		System.out.println(bp.getMaxIterations());
		System.out.println(bp.getMaxError());

der ist bei neuroph zu hoch eingestellt. Wenn der max error zu hoch ist, learning rate zu hoch ist und max iterations zu klein oder gar nicht eingestellt ist, so bricht er das Training ab - bevor es wirklich sinnvoll ist.

Meine zweite Idee ist, dass Du zu viele hidden layer hast, die Effekte im NN gegenseitig "aufheben" und wodurch das NN zu komplex wird.
 

Ähnliche Java Themen


Oben