Hallo,
Ich implementiere eine Applikation, die Zugriffe auf Webseiten vornimmt und diese mittels DOM-Schnittstelle verarbeitet. Dabei kommt es oft vor, dass dieselbe Webseite erneut referenziert wird. Um den Traffic etwas zu entlasten, möchte ich mittels Hashtable einen Puffer erzeugen, der mir URL-Document Paare speichert. Wenn ein Zugriff auf eine URL stattfindet, so soll überprüft werden, ob die URL schon als Schlüssel vorliegt, und wenn ja, soll das Document aus der Hashtable gelesen werden, wenn nich, wird mittels HttpClient die Source geholt, das Document neu erzeugt und zusammen mit seinem URL in die Hashtable eingefügt.
Das Problem ist der begrenzte Heap der JVM, also möchte ich die Größe der Hashtable beschränken. Kann man das ganze mit einem FIFO Queue verbinden, um "alte Seiten" wieder aus der Hashtable zu entfernen?
Wär schön, wenn jemand einen Tip, und viell.ein Codebeispiel hat.
Danke, Micha
Ich implementiere eine Applikation, die Zugriffe auf Webseiten vornimmt und diese mittels DOM-Schnittstelle verarbeitet. Dabei kommt es oft vor, dass dieselbe Webseite erneut referenziert wird. Um den Traffic etwas zu entlasten, möchte ich mittels Hashtable einen Puffer erzeugen, der mir URL-Document Paare speichert. Wenn ein Zugriff auf eine URL stattfindet, so soll überprüft werden, ob die URL schon als Schlüssel vorliegt, und wenn ja, soll das Document aus der Hashtable gelesen werden, wenn nich, wird mittels HttpClient die Source geholt, das Document neu erzeugt und zusammen mit seinem URL in die Hashtable eingefügt.
Das Problem ist der begrenzte Heap der JVM, also möchte ich die Größe der Hashtable beschränken. Kann man das ganze mit einem FIFO Queue verbinden, um "alte Seiten" wieder aus der Hashtable zu entfernen?
Wär schön, wenn jemand einen Tip, und viell.ein Codebeispiel hat.
Danke, Micha