Google Pagespeed

Einklappen
X
 
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • #46
    Aber wenn man jemandem rechenschaftspflichtig ist, hat man nach seinen Anforderungen zu arbeiten.
    Das ist eine andere Situation.
    Ob das dann wirtschaftlich ist eine ganz andere Frage.
    Man sollte lieber auf die Thematik zurück kommen.

    Use efficient CSS selectors
    Fast jeder kennt solche Konstruktionen wie diese hier:
    Code:
    ul.menu, ul.menu ul { 
       list-style-type:none; 
       margin: 0; 
       padding: 0; 
       width: 15em; 
     
    } 
     
    
    ul.menu a { 
       display: block; 
       text-decoration: none; 
     } 
     
    
    ul.menu li { 
       margin-top: 1px; 
     } 
     
    
    ul.menu li a { 
       background: #333; 
       color: #fff; 
       padding: 0.5em; 
     } 
     
    
    ul.menu li a:hover { 
       background: #000; 
     } 
     
    
    ul.menu li ul li a { 
       background: #ccc; 
       color: #000; 
       padding-left: 20px; 
     } 
     
    
    ul.menu li ul li a:hover { 
       background: #aaa; 
       border-left: 5px #000 solid; 
       padding-left: 15px; 
     }
    das sind solch typischen CSS Konstruktionen für Menüs auf Listenbasis.

    Diese CSS hat zwei Nachteile

    1. schwer lesbar
    2. extrem schlechte Effizienz

    Eine Umsetzung nach den "Use efficient CSS selectors" - Regeln sieht so aus:

    Code:
    .menu{list-style-type:none;margin:0;padding:0;width:220px;} 
     .menu a{display:block;text-decoration:none;list-style-type:none;} 
     .menu-li{margin-top:1px;list-style-type:none;} 
     .menu-li-ul-li{margin-top:1px;list-style-type:none;} 
     .menu-li a{background:#9cc6ee;color:#000;padding:.75em;} 
     .menu-li a:hover{background:#fff;color:#a9121c;} 
     .menu-li-ul-li a{background:#d5f1fc;color:#000;padding-left:15px;} 
     .menu-li-ul-li a:hover{background:#fff;border-left:5px #a9121c 
     solid;padding-left:15px;}
    Statt nun der CSS - Engine es zu überlassen die Regel zu finden reduziert sich der Einsatz mit der Übergabe eine simplen Klasse und damit reduziert sich der Zeitaufwand für das Rendern einer Seite deutlich sichtbar.

    Solche verschachtelten Selektoren findet man eigentlich überall - da sollte man sich ran setzen und das zu einfachen Klassen machen - es wirkt.

    Kommentar


    • #47
      Zitat von piratos Beitrag anzeigen
      Solche verschachtelten Selektoren findet man eigentlich überall
      Weswegen es ja auch cascading style sheet heißt. Und das was du da beschreibst ist alles andere als Effizient: Du beschränkst die Klassen nicht auf bestimmte Elemente, der Rederer muss jede prüfen –*und lesbarer ist das nun wirklich nicht. Ich behaupte, oberes CSS ist wesentlich schneller, besser zu lesen –*und einfach richtig!
      Zuletzt geändert von unset; 31.12.2009, 14:54.
      [FONT="Helvetica"]twitter.com/unset[/FONT]

      Shitstorm Podcast – Wöchentliches Auskotzen

      Kommentar


      • #48
        Weswegen es ja auch cascading style sheet heißt.
        Ja klar aber die Frage ist Speed und Effizienz und das sind die verschachtelten eben nicht - darum geht es.

        Und wenn man z.B. mal ein Menü umgesetzt hat sieht man es auch deutlich und sofort.

        Ich hatte ja schon mal darauf hin gewiesen das "altbackene" Webmaster mit den Anforderungen so ihre "Problemchen" bekommen werden und tatsächlich muss man so ein paar "Kröten" schlucken, wenn man mit machen will (damit will ich nicht sagen das du ein"Altbackener" bist).
        Zuletzt geändert von ; 31.12.2009, 14:55.

        Kommentar


        • #49
          Zitat von piratos Beitrag anzeigen
          Und wenn man z.B. mal ein Menü umgesetzt hat sieht man es auch deutlich und sofort.
          Die Frage ist - wo sieht man das?

          Als Besucher der Seite? Bei einer durchschnittlichen Seite bezweifle ich das eher.

          Oder in irgendeinem der Tools, die Effizienz „messen”? Das ist fein, aber eigentlich total egal, wenn's der Besucher nicht wirklich mitbekommt.
          I don't believe in rebirth. Actually, I never did in my whole lives.

          Kommentar


          • #50
            Ich merke davon –*ohne zu messen –*nichts. Und wenn ich mit bloßem Auge nichts erkennen kann, dann ist es auch irrelevant. Halte ich darüber hinaus für Micro-Optimierung, und die hat sich –*was Webentwicklung angeht –*noch nie ausgezahlt.

            Edit: wahsaga war schneller.

            Edit2: Statt "altbacken" und "Problemchen" solltest du lieber mal "Anforderungen" in Anführungszeichen setzen. Denn wer fordert das ganze eigentlich? Google? Yahoo? Der liebe Gott? Du? Und ja, ich habe keinen Bock mich für so einen Hokuspokus durch den ganzen Thread zu ackern!
            Zuletzt geändert von unset; 31.12.2009, 15:04.
            [FONT="Helvetica"]twitter.com/unset[/FONT]

            Shitstorm Podcast – Wöchentliches Auskotzen

            Kommentar


            • #51
              Sehe ich auch so. Ist einfach ein Unterschied zwischen dem was möglich ist und dem was für die Praxis relevant ist.

              Wer zeit zum Spielen hat, naja soll er halt tun, das Wetter ist ja heut sowieos nicht so toll.

              Kommentar


              • #52
                Schwer lesbar finde ich eher das reduzierte CSS und das nicht nur wegen der fehlenden Whitespaces.

                Das Beispiel zeigt zwar schön, was gemeint ist und wie sich der Datenumfang reduziert. Aber was der Laie nicht sieht und was man deshalb mal erwähnen sollte: Die Semantik des reduzierten CSS unterscheidet sich signifikant! Das ursprüngliche CSS läßt sich nur auf DOM-Elemente in einer vorgegebenen Struktur anwenden.

                Als Beispiel nehme ich mal den Selektor "ul.menu li ul li a". Der kann nur auf A-Tags angewendet werden, die Kind eines LI sind, das wiederum Kind einer UL ist, die Kind eines LI ist, die Kind einer UL mit der Klasse menu ist.
                Im Vergleich dazu passt der Selektor ".menu-li-ul-li a" zu allen As, die Kind eines beliebigen Elements mit der Klasse menu-li-ul-li sind.

                Mit derart reduziertem CSS ist es also möglich, Auszeichnungen für Elemente zu verwenden, für die sie nicht gedacht sind. Nicht nur möglich, sondern sogar naheliegend, würde doch das hinzufügen einer weiteren Deklaration mit der selben Wirkung das CSS unnötig aufblähen.
                Der Programmierer wird sozusagen dazu verleitet, Deklarationen in Stellen zu verwenden, für die sie nicht gedacht waren. Weils halt grad passt.
                Dumm nur, wenn später das Design von Links in verschachtelten Listen geändert werden soll. Man kann nicht dafür garantieren, dass sich dadurch nicht auch Links an anderer Stelle ändern.
                Derlei reduziertes CSS zwingt also alle Entwickler, sich an die Konvention zu halten, CSS-Auszeichnungen nur auf Elemente anzuwenden, die man am Selektor ablesen kann. Bei nicht-reduziertem CSS wird das durch den Selektor selbst sichergestellt.

                Kurzum: Diese Reduzierung beschneidet CSS um eines seiner Features, ist deswegen semantisch schwächer und zwingt zu bestimmten Konventionen.
                Jeder muss selbst entscheiden, ob der Performancegewinn die Sache wert ist.


                Übrigens hätte ich als Beispiel leiber den Selektor ".menu-li-ul-li" genommen, doch der hat gar keine Entsprechung im Original-CSS.

                Kommentar


                • #53
                  Sehen kann man es deutlich, wenn der Umfang ein normaler ist, ob man nun daran zweifelt oder nicht.
                  Messen kann man es auch.
                  Und - es ist auch eine Maßnahme von vielen die insgesamt echten Speed ausmachen.

                  Wer nicht mit machen will der lässt es sein, es zwingt ihn ja niemand.

                  Es geht auch gar nicht mehr um die Diskussion von für und wieder oder wenn und aber bei z.B. komplexen Selektoraufbau oder simple Klasse, denn das ist von Google und wie auch Yahoo in deren Labs längst probiert und bewertet worden (und es hat sich in Patenten bemerkbar gemacht), es geht schlicht darum wie man es macht.

                  Wer Interesse hat ein paar Punkte in der künftig von Google für 2010 geplanten Speedbewertung innerhalb der Trefferliste ergattern zu wollen oder auch nur um seinen Besuchern eine flottere Seite zu präsentieren, der macht es.

                  Diejenigen die da nichts dran machen wollen die lassen es ganz einfach.

                  Diejenigen die nicht verstehen wie man das im Detail macht die sollten ihre Fragen stellen.


                  Bei mir habe ich das durchgezogen und das Web ist radikal schneller geworden (und auch bewertet Pagespeed 100% - mehr nicht möglich, Yslow 100 - mehr nicht möglich , Aufwand eher gering, optische Veränderungen im Web Null, Google Webmastertools, Webseite-Leistung nun bei 98% aller von Google erfassten Webs (wobei der Satz weiter runter gehen wird, je mehr Leute das machen)).

                  Und - ich bin da garantiert nicht der erste und er einzige der das bemerkt hat, das es funzt.

                  Kommentar


                  • #54
                    Was für Patente sollen das sein? Imho ist das keine schützbare Idee, denn die CSS-Spezifikation gibt es eben her. Dass es weniger zu übertragende Daten bedeutet, ist nur ein Effekt der Idee und dass es in gängigen Browsern schneller gerendert wird, kann sich wenn überhaupt nur ein Browserhersteller patentieren lassen (genauer gesagt die Art, wie er das schafft). Hast du Links zu den Patenten?

                    Übrigens rendern Browser solch "flaches" CSS schneller, weil sie einerseits den CSS-Selektorenbaum schneller aufbauen können (klar, der ist eben flacher), weil es sich in einem flachen Baum schneller suchen lässt und der Suchvorgang ohne tiefe Prüfungen im DOM-Baum auskommt.

                    Wenn man diesen Gedanken weiter denkt, sollte man CSS-Deklarationen, die nur einmal verwendet werden, direkt inline am Element notieren. Außerdem sollte man den DOM-Baum ebenfalls so flach wie möglich halten.
                    Wendet man dieses Sparsamkeitsprinzip auch auf JS an, stellt sich schnell die Frage, ob man überhaupt Frameworks verwenden sollte bzw. ab wann das sinnvoller ist als rein handgeklöppelter Code.

                    Alles in allem sind die Optimierungsansätze, die sich direkt auf die Struktur des Codes und/oder die Arbeitsweise und Flexibilität beim Programmieren auswirken immer mit Vorsicht zu genießen. Ich würde bei Applikationen und Teams ab einer gewissen Größe und Komplexität lieber auf solche Optimierungen verzichten und den Leistungsschub durch Hardware und Setup holen (CDN, Load Balancer, Caches, ...). Wenn eine Applikation bis zum Gehtnichtmehr auf Speed getrimmt ist, kann man an ihr meist kaum mehr vernünftig arbeiten.

                    Als Beispiel sei hier noch einmal die CSS-Optimierung angeführt. Ich kenne keine Tools, die CSS und das zugehörige HTML derart umstricken können. Gäbe es so ein Tool, könnte man es in den Build-Prozess integrieren. Die Entwickler könnten "sauber" arbeiten und die Seite wäre trotzdem flott.
                    Ohne solch ein Tool wird entweder die Arbeit zur Qual oder man geht vorm Deployment per Hand drüber. Beides kostet Zeit und damit Geld, das man ab einer gewissen Projektgröße auch gleich für Hardware ausgeben kann.

                    Alles hat ein Pro und Kontra. Wer einfach nur macht was ein Tool rät, denkt zu kurz. Es gilt nicht nur Transfer- und Renderzeiten zu verkürzen, sondern das kosteneffizient zu machen.


                    Nachtrag: Imo wird mit diesem Pagespeed-Hype gerade mal wieder eine Sau durchs Dorf getrieben. Google mit seinen weltweit verteilten Datacenters und viel eigener Infrastruktur ist schneller als alle anderen. Von diesem hohen Ross herab möchten sie nun "das Web schneller machen". For what? Why now?
                    Sind die eigentlich an User Experience interessiert oder wollen sie nur den Googlebot entlasten?
                    </polemik>
                    Zuletzt geändert von onemorenerd; 31.12.2009, 17:03.

                    Kommentar


                    • #55
                      Zitat von onemorenerd Beitrag anzeigen
                      Ich würde bei Applikationen und Teams ab einer gewissen Größe und Komplexität lieber auf solche Optimierungen verzichten und den Leistungsschub durch Hardware und Setup holen (CDN, Load Balancer, Caches, ...).
                      Genau so ist es. Ich hab es schon mehrfach gesagt und ich kann es nur immer Wiederholen: RAM kostet weniger als ein Entwickler. Das passt hier jetzt nicht wie Arsch auf Eimer, aber die Grundaussage bleibt die gleiche. Code muss wartbar sein, dann kommt erst mal lange nix.
                      [FONT="Helvetica"]twitter.com/unset[/FONT]

                      Shitstorm Podcast – Wöchentliches Auskotzen

                      Kommentar


                      • #56
                        Patente
                        Mal ein wenig lesen da gibt es einen Link.
                        Leistungsschub durch Hardware und Setup holen
                        RAM kostet weniger als ein Entwickler
                        Tolle Hardware ist immer gut, aber leider hat hier wohl niemand den Sinn und Zweck so richtig verstanden mit Sicherheit auch nicht die Hintergründe, ja ich würde sogar sagen, die meisten haben es noch nicht einmal probiert, reden auf blauen Dunst hin.

                        Sagen wir es einmal anders - eine Webseite die unter in 0,03s dynamisch erstellt wird, hat ohne jegliche Maßnahmen eine Renderzeit von 0,6 Sekunden, d.h sie liegt dann fix und fertig beim Besucher vor.

                        Eine Website die in 0,03s dynamisch erstellt wird liegt in dem Bereich 0,04s bis 0,23 Sekunden komplett gerendert vor, wenn alle Maßnahmen ergriffen sind - das sind gemessene Zeiten.
                        Die Schwankungen ergeben sich aus den unterschiedlichen Situationen (z.B. bereits gecachter Teil oder nicht).

                        Nach Pagespeed und Yslow behandelte Webs sind nachweisbar um ein vielfaches schneller als unbehandelte - genau um darum geht es.

                        Das bedeutet aber auch - tolle Hardware hin und her - sie würde hier nichts ändern.

                        Es kann auch nichts ändern da sämtliche Zeiten die nach der Generierung auftreten die gleichen bleiben, wenn man sein Web nicht mit diesen Methoden behandelt.

                        Diese Zeiten danach sind ein vielfaches von dem was eine Hardware - egal wie toll - benötigt um die Seite zu generieren.

                        Kommentar


                        • #57
                          Dass man mit Serverhardware die Zeit fürs Rendering nicht beeinflussen kann, ist wohl jedem hier klar. Sehr wohl aber kann man die Zeit vom Abschicken des Requests bis zur fertig gerenderten Seite verringern, indem man mit Hardware und Setup die Zeitspanne minimiert, die serverseitig verbraten wird oder die Anzahl der Requests, die tatsächlich bis zum Server durchschlagen.

                          Ich hab schon verstanden, dass du gerade nur über die Zeit zum Rendern sprechen willst. Aber warum sollen wir uns darauf beschränken? Deine Tools messen doch auch nicht nur die Zeit vom letzten empfangenen Byte bis zum DocumentReady. Deren Uhr beginnt zu ticken, wenn der Request raus geht.

                          Meinetwegen kannst du weiter über Einzelheiten sprechen. Hat aber nicht viel Sinn, solange keiner mitredet.

                          Kommentar

                          Lädt...
                          X