pakete verschlüssel

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • pakete verschlüssel

    hallo, ich habe ma gehört, dass spzielle server im inet pakete verschlüsseln können die dann auf einen rechner geschickt werden und dann wieder dekomprimiert werden um eine Steigerung der downloadspeed zu bekommen, und dazu hab ich mal ne farge:

    1.ist das denn effektiv und was ist be einer 16000 leitung raus zuz holen ?

    2.was brauch man den da für rechenleistung beim dekomprimieren ???

    mfg

    marek

  • #2
    So "speziell" muß ein Server dafür gar nicht sein.

    Wenn es nur um die Downloads geht, dann lege sie doch einfach bereits maximal komprimiert auf den Server. Dabei solltest du natürlich einen gängigen Kompressionsalgorithmus verwenden, so daß deine User die Daten auch dekomprimieren können (Stichwort zip, gz & Co.).

    Wenn es auch um die Webseiten geht, kannst du dir einfach Webspace besorgen, der gzip'ed ausliefern kann. Google mal nach mod_gzip ...

    Ob dein jetziger Webspace das kann, findest du durch eine Analyse der HTTP-Header heraus. Normalerweise bekommst du von denen gar nichts mit, aber mit diversen Firefox-Plugins (z.B. Tamper) kannst du sie dir anzeigen lassen. Traust du dir mehr zu, greifst du gleich zu Wireshark, willst du nur mal einen schnellen Blick drauf werfen, gehst du auf http://web-sniffer.net/ (Häkchen bei "Accept-Encoding: gzip" setzen).

    Kommentar


    • #3
      ...dass spzielle server im inet pakete verschlüsseln können die dann auf einen rechner geschickt werden und dann wieder dekomprimiert werden
      Verschlüsseln und komprimieren ist nicht wirklich dasselbe. Es gibt Verschlüsselungsmethoden wo danach die verschlüsselten Daten wesentlich länger sind als die Ausgangsdaten.
      Wenn es dir um Verschlüsselung und Sicherheit geht, dann schau dich zum Thema SSL und Zertifikate um.
      Komprimierung wie bereits von onemorenerd geschrieben...

      Gruss

      tobi
      Gutes Tutorial | PHP Manual | MySql Manual | PHP FAQ | Apache | Suchfunktion für eigene Seiten

      [color=red]"An error does not become truth by reason of multiplied propagation, nor does truth become error because nobody sees it."[/color]
      Mohandas Karamchand Gandhi (Mahatma Gandhi) (Source)

      Kommentar


      • #4
        ich war wohl gestern serhr müde... :-)

        nein ich habe mich falsch ausf´gerdrückt. es gibt sowas ähnliches wie einen proxy, worüber denn dein ganzes internet laufen soll. das heißt, wenn man aufs internet zugreift geschieht alles über diesen server. alle pakete die über diesen prox ylaufen werden komprimiert, denn zb zu mir geschickt durch ne 2000 leitung und auf meinem rechner wieder dekomprimiert. damit hat man denn eine effektive leistung einer 10000 leitung aus einer 2000 leitung raus geholt, versteht ihr... ich habe das mal irghendwo gfelesen... weiß aber nicht mehr wo.... nur mal aus interesse wollte ich denn auch ma gucken was passiert, wenn ichalle datenpakete von meiner 16000 leritung komprimiere was ich denn für einen effektiven download habe ... :-)

        wisst ihr was ich meine ???

        mfg

        marek

        Kommentar


        • #5
          Ich glaub du bist immer noch müde.
          Hat man dir das im qnet erzählt ?

          Dir ist bewusst dass die packete unkomprimiert zum proxy gehen und also
          da schon mal kein gewinn zu erwarten ist.
          Du kannst allenfalls davon profitieren wenn die verbindung zwischen server und
          proxy ne dicke leitung ist.

          Ansonsten hast du rein gar nichts davon. Wenn der webserver selbst
          komprimiert, dann sieht das natürlich anders aus.

          greets
          (((call/cc call/cc) (lambda (x) x)) "Scheme just rocks! and Ruby is magic!")

          Kommentar


          • #6
            das meine ich ja, ein webserver der alle pakete komprimiert und diese den an deinen rechner schickt......

            geht dass denn auch mit ner software oder muss das eine hardwarekomprimierung sein ???
            ()beim webserevr

            mfg

            marek

            Kommentar


            • #7
              ob_start("ob_gzhandler") schickt komprimierte daten an den browser, falls nicht schon in der php.ini zlib.output-compression angeknipst ist.

              o.g. gilt sicher für html.

              @ all
              mir stellt sich gerade die frage, wie es mit bereits gezippten dateien aussieht, die downgeloadet werden (geiles denglisch)? performance-gewinn/verlust?
              also zip-file per ob_gzhandler tcp/ip zippen ...

              -> mehrfaches zippen, z.b. mit winzip lässt das file ja größer werden.

              Kommentar


              • #8
                Das erneute Anwenden eines Kompressionsalgorithmus auf bereits komprimierte Daten bringt meist wenig. Die Daten werden selten um erhebliche Größenordnungen kleiner. Es ist verschwendete Rechenzeit, sinnlose Last für den Server.

                mod_gzip bzw. mod_deflate für Apache2 sollte man daher nur auf solche Daten loslassen, bei denen durch eine Kompression auch ein Gewinn zu erwarten ist.

                Wie das geht steht auf http://httpd.apache.org/docs/2.0/mod/mod_deflate.html

                Kommentar


                • #9
                  Ich denke kaum das deine Verbindung vom Router zum PC unter 20 mbbits liegt. auch die wlan geschwindigkeit ist meist höher. Ab 20 Mbit datenübertragung von router zu pc ist diese methode für dsl16000 absolut unnützt, da dein internet nicht so schnell ist wie die übertragung von pc zu router..


                  belehrt mich falsch ich falls liege
                  Webdesign und Webentwicklung - Plunix.de

                  Kommentar


                  • #10
                    belehrt mich falsch ich falls liege


                    *belehrt mich FALLS ich FALSCH liege
                    Webdesign und Webentwicklung - Plunix.de

                    Kommentar

                    Lädt...
                    X