[SQL allgemein] Update von tausend Datensätzen gleichzeitig

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • [SQL allgemein] Update von tausend Datensätzen gleichzeitig

    Hallo zusammen,

    bin neu hier im Forum und habe leider gleich eine Frage:

    Für einen Bekannten richte ich gerade einen Internetshop ein. Damit habe ich keine Probleme. Auch die Funktionen des Shops sind mir geläufig.

    Jetzt sagte er mir aber, dass sich jährlich die Preise aller Artikel in seinem Shop ändern würden , und genau das ist das Problem.

    Er zieht sich aus dem Kassenprogramm seines Ladengeschäfts einen Auszug seiner Artikelstammdaten mit den geänderten Preisen, speichert diese als *.csv ab. Mit dem Import und dem explode()... habe ich kein Problem. Das läuft im Skript soweit bestens. Was mir Sorgen bereitet, ist die Vielzahl an Datensätzen (so um die 40.000), die gleichzeitig upgedatet werden müssen. Ich befürchte nämlich, das der Server das Skript vorzeitig wegen timeout oder so beendet, bevor alle Datensätze aktualisiert wurden.
    Ausprobiert habe ich es noch nicht, da mir kein Shop mit dieser Datenmenge zur Verfügung steht.

    Mein momentanes Skript führt die UPDATE() - Funktion momentan (noch) in einer Schleife durch. Bei etwa 20 Testdatensätzen auch kein Problem. Wie sieht es aber mit einer größeren Menge aus?

    Wer kann mir helfen?

    Gruß Holger

  • #2
    du kannst z.B. die Datei aufteilen und stückweise importieren. Such mal im Code-Schnipsel, IMHO hat DSB was geschrieben.

    Kommentar

    Lädt...
    X