Hallo zusammen,
ich Suche nach einer Möglichkeit eine Tabelle mit ca. 3 Mio. Datensätzen auszulesen und diese Zeilenweise in eine csv-datei zu packen.
Mein Anliegen ist es, diese 3 Mio. Sätze so geschickt wie möglich zu laden.
Dass ich in der Where-Bedingung auf ein Feld einschränke und mit mehreren abfragen arbeite
1. Durchlauf - Feld > 0 und < 1000
2. Durchlauf - Feld >= 1000 und < 2000
ist dabei nicht meine Absicht.
Ich arbeite mit Java 1.5.18 und DB2
Zur Zeit lese so:
Ich schaffe es aber nicht alle Sätze gleichzeitig zu Laden und habe noch keine gute, saubere Lösung gefunden dieses Problem zu umgehen.
Bitte um Hilfe.
ich Suche nach einer Möglichkeit eine Tabelle mit ca. 3 Mio. Datensätzen auszulesen und diese Zeilenweise in eine csv-datei zu packen.
Mein Anliegen ist es, diese 3 Mio. Sätze so geschickt wie möglich zu laden.
Dass ich in der Where-Bedingung auf ein Feld einschränke und mit mehreren abfragen arbeite
1. Durchlauf - Feld > 0 und < 1000
2. Durchlauf - Feld >= 1000 und < 2000
ist dabei nicht meine Absicht.
Ich arbeite mit Java 1.5.18 und DB2
Zur Zeit lese so:
Java:
String sql= .....
final PreparedStatement stm = conn.prepareStatement(sql);
try
{
final ResultSet rs = stm.executeQuery();
try
{
while (rs.next())
{
String str = rs.getString(1);
String abc = rs.getString(2);
usw...
}
}
}
Ich schaffe es aber nicht alle Sätze gleichzeitig zu Laden und habe noch keine gute, saubere Lösung gefunden dieses Problem zu umgehen.
Bitte um Hilfe.