Hallo zusammen,
ich bin gerade dabei, ein Datenbankdesign für eine sehr dynamische und stetig wachsende Datenmenge zu erstellen. Es geht konkret um die Ablage von jährlich (im Extremfall) 1.800.000 neuen gleichartigen Datensätzen. Als Datenbank wird MySQL (InnoDB) genutzt.
Am liebsten würde ich alle diese Daten in einer Tabelle speichern. Die Definition geeigneter Indizes ist dabei ohne Probleme möglich. Für mich stellt sich aber die Frage, ob der Zugriff auf Dauer performant möglich ist? Oder sollte man die Datensätze lieber gleichmäßig (aber systematisch) auf 10 oder 100 kleinere Tabellen verteilen?
Gibt es in dieser Größenordnung Erfahrungswerte?
Gruß
Hobbes
ich bin gerade dabei, ein Datenbankdesign für eine sehr dynamische und stetig wachsende Datenmenge zu erstellen. Es geht konkret um die Ablage von jährlich (im Extremfall) 1.800.000 neuen gleichartigen Datensätzen. Als Datenbank wird MySQL (InnoDB) genutzt.
Am liebsten würde ich alle diese Daten in einer Tabelle speichern. Die Definition geeigneter Indizes ist dabei ohne Probleme möglich. Für mich stellt sich aber die Frage, ob der Zugriff auf Dauer performant möglich ist? Oder sollte man die Datensätze lieber gleichmäßig (aber systematisch) auf 10 oder 100 kleinere Tabellen verteilen?
Gibt es in dieser Größenordnung Erfahrungswerte?
Gruß
Hobbes