Hallo zusammen,
ich arbeite gerade an einem Projekt, bei dem ich große Datenmengen aus einer MySQL-Datenbank verarbeiten muss. Ich möchte die Daten in Batches (z.B. 1000 Datensätze pro Durchlauf) abrufen und verarbeiten, um Speicherprobleme zu vermeiden.
Meine bisherige Idee ist, PDO zu verwenden und die Ergebnisse in Schleifen zu verarbeiten, aber ich frage mich, ob es eine effizientere Methode gibt, speziell bei sehr großen Tabellen (> 1 Million Datensätze).
Hat jemand Best Practices oder Musterlösungen für eine performante Batch-Verarbeitung in PHP mit PDO?
Vielen Dank im Voraus!
ich arbeite gerade an einem Projekt, bei dem ich große Datenmengen aus einer MySQL-Datenbank verarbeiten muss. Ich möchte die Daten in Batches (z.B. 1000 Datensätze pro Durchlauf) abrufen und verarbeiten, um Speicherprobleme zu vermeiden.
Meine bisherige Idee ist, PDO zu verwenden und die Ergebnisse in Schleifen zu verarbeiten, aber ich frage mich, ob es eine effizientere Methode gibt, speziell bei sehr großen Tabellen (> 1 Million Datensätze).
Hat jemand Best Practices oder Musterlösungen für eine performante Batch-Verarbeitung in PHP mit PDO?
Vielen Dank im Voraus!
Kommentar