S
SlaterB
Gast
ich habe eine kleine Menge von Werten, z.B. 6,
und lege die in einem BigDecimal[6] ab,
das Ganze 1000de Male
oft sind aber ein paar der Werte null,
ich frage mich bei sowas, ob es aus Speichersicht nicht vielleicht günstiger wäre,
eine HashMap<Integer,BigDecimal>() zu verwenden, wenns nur 1 oder 2 Werte sind,
die Integer-Keys wären kleine Werte bis 128
Zugriffszeiten und größtenteils auch Dauer der Erzeugung sind egal,
es geht mir hauptsächlich um den Speicherplatz und vielleicht sonstige Beanspruchung des Speichers bei Erzeugung,
bevor ich da groß selber experimentiere, frage ich mal vorher hier,
vielleicht gibts da noch ganz andere Dinge zu bedenken, kennt das jemand?
selbst wenn im einstelligen Bereich das Array nicht zu schlagen ist, wo kann man die Grenze sehen,
am wann lohnt sich eine Map?
bei Integer-Keys über 128 wäre ich durchaus bereit, die Keys zu cachen
(edit: Liste find ich nicht so toll, wenn eben von zehn Werten Index 7 und 8 vorhanden sind, der Rest nicht)
und lege die in einem BigDecimal[6] ab,
das Ganze 1000de Male
oft sind aber ein paar der Werte null,
ich frage mich bei sowas, ob es aus Speichersicht nicht vielleicht günstiger wäre,
eine HashMap<Integer,BigDecimal>() zu verwenden, wenns nur 1 oder 2 Werte sind,
die Integer-Keys wären kleine Werte bis 128
Zugriffszeiten und größtenteils auch Dauer der Erzeugung sind egal,
es geht mir hauptsächlich um den Speicherplatz und vielleicht sonstige Beanspruchung des Speichers bei Erzeugung,
bevor ich da groß selber experimentiere, frage ich mal vorher hier,
vielleicht gibts da noch ganz andere Dinge zu bedenken, kennt das jemand?
selbst wenn im einstelligen Bereich das Array nicht zu schlagen ist, wo kann man die Grenze sehen,
am wann lohnt sich eine Map?
bei Integer-Keys über 128 wäre ich durchaus bereit, die Keys zu cachen
(edit: Liste find ich nicht so toll, wenn eben von zehn Werten Index 7 und 8 vorhanden sind, der Rest nicht)