Einzelnen Beitrag anzeigen
  #256 (permalink)  
Alt 23.04.2009, 21:27
Benutzerbild von Thomas Hey'l
Thomas Hey'l Thomas Hey'l ist offline
Erfahrener Benutzer
XHTMLforum-Mitglied
 
Registriert seit: 25.11.2005
Ort: Frankfurt am Main
Beiträge: 119
Thomas Hey'l befindet sich auf einem aufstrebenden Ast
Standard Browser-Verteilung

Hallo zusammen!

Dies ist ein sehr interessanter und teils sehr emotionaler Thread. Nach ein bisschen Überlegung folgen meine fünf Cent.

Zum Argument von Boris: Alle meine CSS-Anpassungen für die diversen IE-Versionen bringen es auf 1.145 Byte. Wäre ich etwas fleissiger, würden wohl auch 600 Byte genügen. 50% davon frisst ohnehin die komprimierbare Formatierung mit Leerzeichen. Fazit: Ganz so schlimm ist's wohl nicht mit dem Aufriss für IE 6, da gebe ich Boris Recht. IE 5 oder 5.5 - das gebe ich zu - bekommt kein CSS mehr zu sehen außer ein paar minimalistischen Grundeinstellungen. Ich werde Euch auch sagen, womit ich meine Seiten gerne teste: mit einem Netscape Navigator 4.7 (der auch nur ein mini-Style Sheet bekommt).

Meine Besucher sind vorwiegend an Information interessiert. Ich habe Besucher, die sich die Seiten ohne CSS und ohne JavaScript ansehen. Na und? Sie kommen trotzdem wieder. Warum? Weil die Seiten trotzdem einigermaßen gut benutzbar sind.

Folgendes ist nur meine persönliche Vermutung und nicht beweisbar, aus meiner Sicht jedoch ein wichtiger und bisher vernachlässigter Punkt.

In diesem Thread werden viele Statistiken zitiert und aufgeführt. Danach ist der Anteil von IE6 noch sehr hoch, beispielsweise 40%. Nun die Preisfrage: Wie kommen die Statistiken zustande? Welche Analyse-Tools werden benutzt? Wo wurden die Daten erhoben? Ich habe große Zweifel, dass die meisten davon pauschal anwendbar sind. Bei wem werden die über rel="prev", rel="next" etc. nutzlos abgerufenen Seiten ausgefiltert? IE - alle Versionen seit 6 - ist da ganz groß drin, lädt aber zum Glück (meist) nur mit "Mozilla/4.0 (compatible[Semikolon])" nach - aber eben nicht immer.

Es ist eine unbestreitbare Tatsache, dass bei einem Request an den Server kein, der richtige oder irgendein User-agent übertragen werden kann. Die Diskussion hier um Erkennung auf Server- oder Client-Seite ist redundant. Speziell bei Bots - und die sind teils sehr clever - werden dafür gerne die Kennungen verbreiteter Browser benutzt, eben damit keine Webmaster-Tricks greifen. Zumindest aus meinen logs ist klar zu erkennen, dass heutzutage a) manche user und bots gleichzeitig mit verschiedenen, teils fremden IP-Adressen gleichzeitig auf die Website zugreifen, b) auffallend viele - ziemlich sicher - bots mit der selben IP-Adresse, aber ständig wechselnden User-agent-Kennungen unterwegs sind (das werden wohl kaum Entwickler sein, denn dann hätte ich einen enorm hohen Anteil an Entwicklern unter meinen Besuchern) und c) häufig ein Bot bei gleicher oder veränderter IP-Adresse und gleicher oder veränderter Kennung fröhlich weiter grast, und das teils mit programmatischen Verzögerungen beim Wechsel.

Ich habe mir drei Perl-Scriptchen gebastelt (das heißt, so klein sind die nicht), die mir rund 90% der Arbeit abnehmen. Will sagen, sie erkennen mit sehr hoher Sicherheit 90% der maschinell gesteuerten Zugriffe und Abfragen, und mit diesen 90% meine ich den Rest, der nicht durch die Kennung ("GoogleBot") zu erkennen ist. Den fraglichen Rest schau' ich mir einmal täglich "von Hand" an (also nur die verbliebenen Reste, die mir nach Mitternacht über einen cron job handlich verpackt serviert werden). Das ist meist in zehn Minuten erledigt.

Ohne diese Filterung habe ich einen extrem viel höheren IE-Anteil unter den verbliebenen PI. Obwohl meine Besucher einen wahrscheinlich ziemlich hohen Altersdurchnitt haben (darunter sehr viele "Senioren", was auch immer das ist ), sieht die Sache mit dem Filtern von Offline-Browsern, Robotern, image harvestern und so weiter ganz anders aus. Grob nämlich so (hier für März 2009):
  • Anteil ausgefilterter Seitenabrufe: 37,4 % (typisch: um 40 %). Dabei sind "heimgeschickte" Bots, Offline-Browser und Bösewichte schon gar nicht mehr mitgerechnet, von denen bekommt nicht einmal mein Provider mehr 'was mit, sie stehen auch nicht in den Logfiles.
  • Windows 93,4 %, Mac 3,8 %, andere 2,8 %.
  • Alle IE: 49,7 %.
  • Alle FF: 44,9 %.
  • Safari: 2,7 %.
  • Opera: 1,3 %.
  • Andere: 1,3 %.
  • IE 5: 0,4%, IE 6: 17,5%, IE 7: 30,3%, IE 8: 1,5%.

Die im März erzeugten Seitenabrufe stammen von 55 Top level domains, obwohl die Seiten nur Deutsch angeboten werden. Hier noch ein Vergleich, wobei meine Filtermechanismen erst nach und nach besser wurden:
  • März 2005: Alle IE 63,8 %, alle FF 18,2 %.
  • März 2006: Alle IE 56,5 %, alle FF 22,4 %.
  • März 2007: Alle IE 48,2 %, alle FF 33,1 %.
  • März 2008: Alle IE 53,8 %, alle FF 38,9 %.
  • März 2009: Alle IE 49,7 %, alle FF 44,9 %.

Da fällt - Filtern hin oder her - doch auf, dass der Firefox-Anteil in vier Jahren deutlich gewachsen ist und der IE-Anteil deutlich gefallen. Also seid geduldig, das wird schon noch.

Von den Hinweisen, man möge seinen User-agent aktualisieren, halte ich wenig. Wer das nicht kann, darf oder will, wird auch bei der größten Höflichkeit schnell genervt oder verunsichert sein.

Viele Grüße, Thomas
__________________
Eisenbahnmodelltechnik
Mit Zitat antworten