Hallo,
ich bereite mich gerade auf eine Klausur vor und verstehe eine Aufgabe nicht so ganz. Wir sollten eine Klasse DecimalTime erstellen, bei der ein Tag 10 Stunden, 100 Minuten und 100 Sekunden hat. Dann sollten wir ein paar einfache Funktionen dazu schreiben. Das habe ich auch alles hinbekommen. Aber die letzte Aufgabe verstehe ich nicht so ganz.
In dieser sollen wir aus der DecimalTime eine gewöhnliche Zeit berechnen. Also wahrscheinlich unsere Zeit. Ich dachte mir, dass ich dazu einfach nur die Sekunden und Minuten mit 0,6 multiplizieren muss und die Stunden mit 2,4.
Scheint aber nicht richtig zu sein. Es gibt einen Testfall, den meine Funktion nicht besteht. Dort ist eine DecimalTime(5,55, 56). Laut der Lösung müsste folgendes rauskommen: Time[hour=13, minute=20, second=0], während meine Funktion folgendes errechnet: Time[hour=12, minute=33, second=33].
Ich verstehe nicht, wie ich auf das Ergebnis kommen soll. Wenn man bedenkt, dass die 56 Sekunden in der DecimalTime eine halbe Minute in unserer Zeit sein müsste, was dann ungefähr 30 sein müsste, kommen die 33 aus meinem Ergebnis ja eigentlich hin. Selbiges gilt für die Minute. Und auch die Stunde. 5 Stunden in DecimalTime sind ein halber Tag. Genauso wie 12 Stunden in unserer Zeit. Wie kann es sein, dass in der richtigen Lösung die 33 Sekunden 0 Sekunden ergeben und die 33 Minuten dann plötzlich 20?
Wahrscheinlich ist das eine blöde Frage, aber ich komme einfach nicht drauf. 😭
ich bereite mich gerade auf eine Klausur vor und verstehe eine Aufgabe nicht so ganz. Wir sollten eine Klasse DecimalTime erstellen, bei der ein Tag 10 Stunden, 100 Minuten und 100 Sekunden hat. Dann sollten wir ein paar einfache Funktionen dazu schreiben. Das habe ich auch alles hinbekommen. Aber die letzte Aufgabe verstehe ich nicht so ganz.
In dieser sollen wir aus der DecimalTime eine gewöhnliche Zeit berechnen. Also wahrscheinlich unsere Zeit. Ich dachte mir, dass ich dazu einfach nur die Sekunden und Minuten mit 0,6 multiplizieren muss und die Stunden mit 2,4.
Scheint aber nicht richtig zu sein. Es gibt einen Testfall, den meine Funktion nicht besteht. Dort ist eine DecimalTime(5,55, 56). Laut der Lösung müsste folgendes rauskommen: Time[hour=13, minute=20, second=0], während meine Funktion folgendes errechnet: Time[hour=12, minute=33, second=33].
Ich verstehe nicht, wie ich auf das Ergebnis kommen soll. Wenn man bedenkt, dass die 56 Sekunden in der DecimalTime eine halbe Minute in unserer Zeit sein müsste, was dann ungefähr 30 sein müsste, kommen die 33 aus meinem Ergebnis ja eigentlich hin. Selbiges gilt für die Minute. Und auch die Stunde. 5 Stunden in DecimalTime sind ein halber Tag. Genauso wie 12 Stunden in unserer Zeit. Wie kann es sein, dass in der richtigen Lösung die 33 Sekunden 0 Sekunden ergeben und die 33 Minuten dann plötzlich 20?
Wahrscheinlich ist das eine blöde Frage, aber ich komme einfach nicht drauf. 😭