1
187nitro
Gast
Hallo,
habe ein großes Problem. Habe mal zum üben ein Webcrawler geschrieben und brauche eure Hilfe.
Alles funktioniert, jedoch wenn eine Seite kommt, die Sich nicht meldet dann bleibt der Crawler hängen.
ConnectionTimeout ist eingestellt und funktioniert. Aber es gibt ganz wenige Seiten, die lädt er ewig und dann
bricht er nach 3-5 Minuten mit der Exception
ab. Wenn man die Seite im Firefox öffnet scheint sie in einer Endlosschleife zu stecken!
Die Seite sendet glaube ich weder ein Signal, das sie nicht da ist noch, dass die Seite Probleme hat. Jedenfalls komme ich nicht weiter, da er an den Seiten immer 5 Minuten hängt
Beispielseite : http://www.wikifox.de
Hoffe jemand kann mir einen Tipp geben.
Vielen Dank im vorraus.
habe ein großes Problem. Habe mal zum üben ein Webcrawler geschrieben und brauche eure Hilfe.
Alles funktioniert, jedoch wenn eine Seite kommt, die Sich nicht meldet dann bleibt der Crawler hängen.
ConnectionTimeout ist eingestellt und funktioniert. Aber es gibt ganz wenige Seiten, die lädt er ewig und dann
bricht er nach 3-5 Minuten mit der Exception
Code:
java.net.SocketException: Unexpected end of file from server
Die Seite sendet glaube ich weder ein Signal, das sie nicht da ist noch, dass die Seite Probleme hat. Jedenfalls komme ich nicht weiter, da er an den Seiten immer 5 Minuten hängt
Code:
URL url = new URL("http://www.wikifox.de");
URLConnection urlCon = null;
System.out.println("Verbindung zur URL wird geöffnet!");
urlCon = url.openConnection();
urlCon.setConnectTimeout(5000);
Beispielseite : http://www.wikifox.de
Hoffe jemand kann mir einen Tipp geben.
Vielen Dank im vorraus.