file_get_contents() - Server reagiert langsam - Script blockiert

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • file_get_contents() - Server reagiert langsam - Script blockiert

    Hallo Leute!

    Ich habe folgende Absicht: Eine Datei in eine Variable schreiben und zuvor auf Existenz prüfen.

    Soweit kein Ding. Ich prüfe mittels fsockopen ob der Server überhaupt reagiert. Wenn das ok ist, prüfe ich ob die Datei auf dem Server erreichbar ist (fopen) und ob sie meinen Dateigrößenlimits entspricht.
    Danach pumpe ich den Inhalt mittels file_get_contents() in eine Variable.

    Das ganz funktioniert wunderbar. Da es 200 Dateien in einem Script/Schleife sind, dauert es zwar etwas, aber es ist machbar. Ich wüsste auch nicht, wie ich sonst die Dateien alle verarbeiten söllte, als in einer einzigen Schleife.

    Das Problem: Einige Server sind erreichbar, reagieren aber derartig langsam, dass mein Script über die nun schon höher gesetzten MySQL-Timeouts kommt. Mitunter läuft so ein Script Dank ignore_user_abort(true) (Cronjob.de-Pflicht) bis es von irgendeinem Timeout nach Stunden gekillt wird. Wenn das mehrmals passiert, und das tut es, da die Dateien alle 5 Minuten verarbeitet werden, häuft sich schnell ein Berg von Prozessen an und mein Server macht auf Kurz oder Lang die Biege.

    Kennt daher jemand eine Lösung, wie ich diese "Brems-Dateien" abfangen kann? Das ist ein wirkliches Problem, weil ich nicht weiß wie ich vorher die Server als langsam erkenne, wenn sie nicht reagieren, aber dennoch erreichbar sind. Und wenn das Script läuft, dann läuft es. Ich könnte es auch beenden lassen, aber dann komme ich nicht an die Folgedateien.

    Und die Notlösung beim Timeout noch die File-ID einzutragen und das Script danach HINTER dieser Datei zu starten wäre zwar möglich, aber zweite Wahl. Wie gesagt, vielleich hat ja jemand Ansätze.

    Grüße

  • #2
    Soweit kein Ding. Ich prüfe mittels fsockopen ob der Server überhaupt reagiert. Wenn das ok ist, prüfe ich ob die Datei auf dem Server erreichbar ist (fopen) und ob sie meinen Dateigrößenlimits entspricht.
    Ähm, drei Verbindungen???

    Das ganz funktioniert wunderbar. Da es 200 Dateien in einem Script/Schleife sind, dauert es zwar etwas, aber es ist machbar. Ich wüsste auch nicht, wie ich sonst die Dateien alle verarbeiten söllte, als in einer einzigen Schleife.
    Schleife ist schon in Ordnung, aber ansonsten würde ich doch nur eine Verbindung pro Datei aufbauen.

    Kennt daher jemand eine Lösung, wie ich diese "Brems-Dateien" abfangen kann? Das ist ein wirkliches Problem, weil ich nicht weiß wie ich vorher die Server als langsam erkenne, wenn sie nicht reagieren, aber dennoch erreichbar sind. Und wenn das Script läuft, dann läuft es. Ich könnte es auch beenden lassen, aber dann komme ich nicht an die Folgedateien.
    Ein Ansatz wäre es, das Timeout von fsockopen runter zu setzen. Langsame Server sollten so übersprungen werden.

    Und die Notlösung beim Timeout noch die File-ID einzutragen und das Script danach HINTER dieser Datei zu starten wäre zwar möglich, aber zweite Wahl. Wie gesagt, vielleich hat ja jemand Ansätze.
    Naja, dafür sorgen, dass immer nur ein Prozess läuft.

    Kommentar


    • #3
      (... sich nen ordnerlichen Server zulegen ...)
      [FONT="Helvetica"]twitter.com/unset[/FONT]

      Shitstorm Podcast – Wöchentliches Auskotzen

      Kommentar

      Lädt...
      X