Hallo,
wir haben gerade in unserem Berufsschulunterricht Javasockets programmiert.
Das ganze unter Linux(ubuntu 8.04).
Ein Klassenkamerad hat dabei einen Server mit ServerSocketChannels programmiert und ich einen Client mit SockeChannels.
Bei dieser Kombination war es so, das die Prozessorauslastung beim Server auf über 90% lag und der Server bei etwa 75 verbundenen Clients ohne Fehlermeldung(!!!) aus einer Endlosschleife rausgeflogen ist und sich beendet hat.
Danach hat der Kollege einen server in Python geschrieben, welcher weniger Probleme damit hatte.
Der Pythonserver hatte ne Prozessorauslastung von unter 10% bei wesentlich mehr Clients und hatte nie irgendwelche Anzeichen das er gleich abstürzen würde.
Woran könnte das liegen? Hat Java da einen Bug?
wir haben gerade in unserem Berufsschulunterricht Javasockets programmiert.
Das ganze unter Linux(ubuntu 8.04).
Ein Klassenkamerad hat dabei einen Server mit ServerSocketChannels programmiert und ich einen Client mit SockeChannels.
Bei dieser Kombination war es so, das die Prozessorauslastung beim Server auf über 90% lag und der Server bei etwa 75 verbundenen Clients ohne Fehlermeldung(!!!) aus einer Endlosschleife rausgeflogen ist und sich beendet hat.
Danach hat der Kollege einen server in Python geschrieben, welcher weniger Probleme damit hatte.
Der Pythonserver hatte ne Prozessorauslastung von unter 10% bei wesentlich mehr Clients und hatte nie irgendwelche Anzeichen das er gleich abstürzen würde.
Woran könnte das liegen? Hat Java da einen Bug?