Zu großer Dump läßt sich nicht wiederherstellen

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Zu großer Dump läßt sich nicht wiederherstellen

    Ich habe ein Riesen Problem mit einem MySQL Dump der ca. 20MB groß ist. Der dump wurde mit phpMyAdmin erstellt und mit Extended Inserts.

    Es kam wie es kommen musste: Datenbankcrash.

    Nun ja, ich dachte mir kein Problem, ich hab ja ein Dump. Aber da habe ich mich zu früh gefreut denn das Teil läßt sich absolut nicht mehr einspielen.

    phpMyAdmin streikt bei der Größe ohenhin. Also habe ich es per ganz normalem MySQL Line command tool probiert:

    PHP-Code:
    # mysql -f ac_forum < ac_forum.sql 
    Doch das hat auch nicht funktioniert, die folgenden Fehlermeldungen bekomme ich um die Ohren gehauen:

    ERROR 2006 at line 34727: MySQL server has gone away
    ERROR 2006 at line 77668: MySQL server has gone away
    ERROR 2006 at line 77669: MySQL server has gone away
    ERROR 2006 at line 77679: MySQL server has gone away
    ERROR 2006 at line 77687: MySQL server has gone away
    ERROR 2006 at line 77688: MySQL server has gone away

    Also habe ich daraufhin die max_packet_size raufgeschraubt, hat aber auch nichts geholfen. Immer noch die selben Fehler.

    Danach habe ich das PHP Script BigDump ausprobiert, doch leider kann das nicht mit Extended Inserts. Also dachte ich mir probier es mit MySQLDumper, auch ein gutes Script, doch damit geht es auch nicht.

    Und jetzt bin ich an dem Punkt an dem ich keine Ideen mehr habe....
    Grüße
    Andreas

  • #2
    schon gelesen: http://dev.mysql.com/doc/mysql/en/Gone_away.html ?

    Kommentar


    • #3
      Original geschrieben von asp2php
      schon gelesen: http://dev.mysql.com/doc/mysql/en/Gone_away.html ?
      Ja, danach kam ich ja auf die Idee mit der max_packet_size
      Grüße
      Andreas

      Kommentar


      • #4
        vielleicht hilfs: http://www.php-resource.de/forum/sho...threadid=33125

        Kommentar


        • #5
          Leider nicht, ich hatte ja in meinem ersten Post schon geschrieben das ich es damit probiert hatte.

          Wenn ich den Dump wieder einspielen will, bekomm ich die Fehlermeldung:

          Parser-Fehler : zuviele gezählt in Tabelle xxx
          Grüße
          Andreas

          Kommentar


          • #6
            wenn die datei zu gross ist, teil sie doch in mehrere kleine Dateien auf
            mfg
            marc75

            <Platz für anderes>

            Kommentar


            • #7
              Original geschrieben von marc75
              wenn die datei zu gross ist, teil sie doch in mehrere kleine Dateien auf
              Das habe ich schon probiert, das Problem ist hierbei das eine der Tabellen den Bärenanteil ausmacht, von knapp 17MB und diese auch nicht geteilt werden kann da es wegen der Extended Inserts eben auch nur ein SQL Statement ist.
              Grüße
              Andreas

              Kommentar


              • #8
                na und?

                beim trennen kannst du doch brav den INSERT selber wieder an passender stelle eintragen.
                INFO: Erst suchen, dann posten![color=red] | [/color]MANUAL(s): PHP | MySQL | HTML/JS/CSS[color=red] | [/color]NICE: GNOME Do | TESTS: Gästebuch[color=red] | [/color]IM: Jabber.org |


                Kommentar


                • #9
                  Original geschrieben von Abraxax
                  na und?

                  beim trennen kannst du doch brav den INSERT selber wieder an passender stelle eintragen.
                  Ja... aber wir reden hier über knapp 80.000 Zeilen. Von denen ich nicht mal genau weiß in wie weit ich sie aufteilen muss.
                  Wenn es irgendeine Möglichkeit gibt, würde ich das gerne vermeiden.
                  Grüße
                  Andreas

                  Kommentar


                  • #10
                    ich würde einfach ein Progrämmchen schreiben, das die Datei an geeignete Stelle in mehreren Dateien auftrennt.

                    Kommentar


                    • #11
                      also das mit dem aufteilen ist doch nicht so schwer ...

                      zuerst holst du dir alle kleineren tabellen und importierst sie entweder einzeln hoch oder halt wenns geht mehrere ...

                      dann schnappst dir die grosse importierst die struktur und die ersten X-tausend datensätze .,..

                      dann die nächsten (weil ein paar tausend sollten nicht das problemchen sein ) dann die nächsten ....

                      oder schreibst dir ein skript dass dies für die anstellt ....

                      gruss
                      iglo

                      Kommentar


                      • #12
                        Also ich denke, sofern es keine andere Lösung gibt, werde ich da wohl nicht drum herum kommen, aber das ist echt etwas vor dem es mir graut.
                        Grüße
                        Andreas

                        Kommentar


                        • #13
                          Original geschrieben von Maratos
                          Also ich denke, sofern es keine andere Lösung gibt, werde ich da wohl nicht drum herum kommen, aber das ist echt etwas vor dem es mir graut.
                          haste einen guten homerechner? dann mach da mal xamp oder lamp drauf, starte das dort enthaltene phpmyadmin, und probiere, ob du dort das dump hochgeladen bekommst, wenn ja, Nutze dann dort die Exportfunktion um die Daten zu teilen.
                          mfg
                          marc75

                          <Platz für anderes>

                          Kommentar


                          • #14
                            ich würde einfach ein Progrämmchen schreiben, das die Datei an geeignete Stelle in mehreren Dateien auftrennt.
                            --> www.mysqldumper.de/de erledigt genau das.

                            Kommentar


                            • #15
                              Original geschrieben von php_rookie
                              --> www.mysqldumper.de/de erledigt genau das.
                              aber er sagte ja schon, dass er schon damit versucht hat

                              Kommentar

                              Lädt...
                              X