Huhu,
ich habe folgendes Problem:
Ich möchte gerne den Zeitraum zwischen 2 Daten in Tagen berechen. ich habe dazu folgenden code geschrieben:
Das Datum von einem bestimmten Event habe ich, bereits in Tag, MOnat und Jahr geteilt, in eine Datenbank geschrieben. Diese wird auch korrekt ausgelesen.
Ich hole mir nun die Zeit in Millisekunden der beiden Daten, subtrahiere sie und rechne sie in Tage um. Allerdings stimmt das Ergebnis nicht. Wenn ich nun aus meiner Datenbank das Datum 29.01.2010 auslese, so bekomme ich als ergebnis 49. Doch eigentlich sollte es 19 sein.
Als weiteren versuch habe ich noch das Datum 03.02.2010 auslesen lassen, wobei ich als ergebnis 51 bekomme. Was ja schon gar nicht sein kann, da zwischen dem 29.01 und dem 03.02 mehr als nur 2 Tage liegen.
Wo genau liegt also mein Fehler?
Vielen Dank für die Hilfe
ich habe folgendes Problem:
Ich möchte gerne den Zeitraum zwischen 2 Daten in Tagen berechen. ich habe dazu folgenden code geschrieben:
Java:
//Tag DIfferenz herausfinden
Calendar dateDB = new GregorianCalendar();
dateDB = new GregorianCalendar(rs.getInt("WannJahr"), rs.getInt("WannMonat"), rs.getInt("WannTag"));
long event = dateDB.getTimeInMillis();
Calendar heute = new GregorianCalendar();
long ergebnis = (event - heute.getTimeInMillis()) / 86400000;
Das Datum von einem bestimmten Event habe ich, bereits in Tag, MOnat und Jahr geteilt, in eine Datenbank geschrieben. Diese wird auch korrekt ausgelesen.
Ich hole mir nun die Zeit in Millisekunden der beiden Daten, subtrahiere sie und rechne sie in Tage um. Allerdings stimmt das Ergebnis nicht. Wenn ich nun aus meiner Datenbank das Datum 29.01.2010 auslese, so bekomme ich als ergebnis 49. Doch eigentlich sollte es 19 sein.
Als weiteren versuch habe ich noch das Datum 03.02.2010 auslesen lassen, wobei ich als ergebnis 51 bekomme. Was ja schon gar nicht sein kann, da zwischen dem 29.01 und dem 03.02 mehr als nur 2 Tage liegen.
Wo genau liegt also mein Fehler?
Vielen Dank für die Hilfe