Webkrauts Logo

Webkrauts Webkrauts Schriftzug

- für mehr Qualität im Web

Webstandards erobern das Internet

Wir haben noch nicht alle älteren Artikel nachbearbeitet. Das bezieht sich in der Regel nur auf die Codebeispiele, die noch nicht optimal dargestellt werden.

Webstandards erobern das Internet

Woran liegt es wohl, dass immer mehr bekannte Portale beim Relaunch Ihrer Websites auf die Einhaltung moderner Webstandards achten? Von MTV bis ZEIT, von Barmer bis Pfizer – gute Gestaltung und gute Zugänglichkeit gehen Hand in Hand.

Freilich, es ist nicht alles Gold, was glänzt. Kleinere Macken und unachtsamer Umgang mit den neu erworbenen Websites führen zuweilen dazu, dass die Nachhaltigkeit gefährdet wird, wie zum Beispiel bei MTV. Dort hat man zwar auf nerviges Klickibunti weitestgehend verzichtet und dabei auch gleich Layout-Tabellen den Garaus gemacht, allerdings hat man bei der standardkonformen Umsetzung der neuen Website auch ein wenig geschlampt. In der Folge validieren die Seiten nicht und beim genauen Hinsehen fallen auch die automatisierten Alternativtexte für Bilder sehr unangenehm auf.

Zeit für einen Wandel

Auch die ZEIT hat sich – ebenso wie WELT ONLINE – von Layout-Tabellen verabschiedet, beide Portale sollten nun also rank und schlank sein. Zumindest bei der ZEIT ist das jedoch nicht der Fall: Fast ein Megabyte wiegt der erste Seitenaufruf – wohl dem, der eine DSL-Verbindung sein Eigen nennt. Die Tabellen-Layout-Variante der Seite hatte zwar auch rund 300 Kilobyte, war damit aber immer noch rund zwei Drittel kleiner als die aktuelle Version. Das hat man beim Relaunch der WELT ONLINE deutlich besser hinbekommen: Dort wiegt die neu gestaltete Website rund 350 Kilobyte, die Vorgänger-Version mit Layout-Tabellen brachte es auf stolze 650 Kilobyte. Einen Großteil machen bei beiden Version schlecht optimierte Bilder aus – eine Krankheit großer Portale, die aus Unwissenheit und blindem Technikvertrauen resultiert. Oftmals werden Grafiken direkt im CMS bearbeitet und dann im falschen Format bzw. ohne Weboptimierung gespeichert – mit verheerenden Folgen. Quadratische Mini-Bilder mit gerade mal 100 Pixel Kantenlänge mutieren zu 80 Kilobyte großen Speicherfressern, wo es nur 6 Kilobyte hätten sein müssen.

Best of AccessibilityDoch es gibt auch andere Ladezeiten-Ungeheuer, speziell seitdem hippe Effekte mit jQuery, moo.fx und Co. in Form von JavaScript stark im Kommen sind. Kein Wunder also, dass beide Portale sich mit mächtigen Funktionserweiterungen schmücken, die sich wiederum auf die Ladezeit auswirken. Dies ist sicherlich auch ein Resultat der kollektiven Massenhysterie: Während bei Veranstaltungen wie next07 oder dem WEB 2.0 Kongress der Hype rund um AJAX und schicke Effekte geschürt wird, fristen die Themen Webstandards und Barrierefreiheit in der öffentlichen Wahrnehmung eine Art Schattendasein abseits des Scheinwerferlichts. Zwar gibt es auch hier Veranstaltungen, wie Best of Accessibility – Symposium Barrierefreies Webdesign oder zahllose BarCamps, aber der breiten Öffentlichkeit ist Web 2.0 bekannter als Barrierefreiheit, selbst wenn kaum jemand weiß, was beide Begriffe wirklich bedeuten.

Blogs als Nährboden für aufkeimende Entwicklung

Wer heute ein Weblog sein Eigen nennt und eines der zahlreichen Blogsysteme im Einsatz hat, tut damit zumeist auch etwas für Webstandards – sei es nun wissentlich oder unwissentlich. Fakt ist: Fast alle Weblogs basieren heute auf validem HTML, kommen ohne Layout-Tabellen aus und nutzen Cascading Stylesheets zur Gestaltung. Dies vor allem deshalb, weil zahlreiche frei verfügbare Layouts (Themes) bereits mitgeliefert werden und den zuvor genannten Webstandards entsprechen. Auf der anderen Seite fördert aber ebenso das soziale Miteinander, auch Web 2.0 genannt, diesen Trend: Man tauscht sich intensiver über Technik aus, lernt von anderen Blog-Schreibern und trägt durch den kollektiven Austausch zur Verbreitung der Idee bei.

Vielleicht würde die Entwicklung noch besser verlaufen, wenn man in Studium und Ausbildung endlich die Themen Barrierefreiheit, Usability und Webstandards mit berücksichtigen würde. Scheinbar fällt es den entsprechenden Institutionen nicht leicht, mit den Entwicklungsschüben Schritt zu halten, weshalb es immer an einzelnen Personen liegt, wie und ob die vorgenannten Themenblöcke in den Lehrplan integriert werden. Deshalb ist gerade der Positiv-Trend jener, die Blogs, Wikis oder ähnliches betreiben, von so großer Bedeutung: Sie sind die hoffnungsvollen Keimzellen der Webstandards.

Beispiele, wie WELT ONLINE oder neuerdings auch der SWR, zeigen ganz deutlich, dass Webstandards keine Modeerscheinung sind. Sie sind das Ergebnis langjähriger Erfahrungen und dem daraus resultierenden Wissen, dass die Einhaltung von Standards und Richtlinien allen zugute kommt. Dabei spielt es zunächst keine Rolle, wie sehr präzise diese Standards eingehalten werden, auch wenn das unter Webstandards-Hardlinern gerne anders gesehen wird. Wichtig ist, dass sich mehr und mehr Verantwortliche auf den Weg machen und moderne Webstandards einsetzen.

Kernsanierung im Web

Leider ist die Quote derer, die Webstandards einsetzen, im Verhältnis zu jenen, denen Webstandards noch nichts bedeuten, zum gegenwärtigen Zeitpunkt relativ gering. Weltweit. Hoffnung machen die Entwicklungen des Web 2.0, die nicht mehr aufzuhalten oder umzukehren sind. Zuviele machen bereitwillig mit und verbreiten so, bewusst oder unbewusst, immer auch Webstandards. Das spürt man bei Veranstaltungen, wie der webinale 07, deren Programm mit Webstandards, Usability und Barrierefreiheit nur so gespickt ist. Ein weiterer Schritt ins Rampenlicht für Webstandards.

webinale07 in LudwigsburgNeue Websites sollten, ähnlich wie Wohnhäuser, nicht immer einfach nur renoviert werden. Neue Tapeten und Teppiche ändern nichts daran, dass kein Aufzug in den fünften Stock führt, dass das warme Wasser mit einem Boiler erzeugt werden muss und es im Winter durch die Fenster zieht. Oder um es anders zu sagen: Häufig ist eine Kernsanierung die langfristig bessere und kostengünstigere Lösung. Zugänglichkeit, Komfort, Ausstattung und Lebensqualität verbessern sich häufig automatisch durch den zielgerichteten Einsatz von Webstandards. Dazu muss man allerdings die Grundlagen verstanden haben, sonst kommen Lösungen heraus, wie bei der ZEIT: Lange Ladezeiten, mangelhafte Unterstützung älterer Ausgabegeräte und ohne JavaScript geht fast gar nichts. Die Folge: Frustration beim Nutzer und fast zwangsläufig der Klick zur Konkurrenz. Dieses Verhalten ist so alt, wie das Web. Häufig fehlt es am Wissen um die Basics. Daran tragen jene, die Webstandards nach vorne gebracht haben und bringen leider eine nicht unerhebliche Mitschuld. Diese Vorkämpfer sind der Masse enteilt, befassen sich mit esoterischen anmutenden Spezialfällen und vergessen dabei leider allzuoft die Menschen, die man mit auf die Reise nehmen wollte: Alle, denen Webstandards noch nicht in Fleisch und Blut übergegangen sind, die den Anfang des Fadens suchen. Wer den roten Faden einmal gefunden hat, sei es in Form eines Buches, eines Symposiums oder eines BarCamps, dem offenbaren Webstandards einen Ozean neuer Möglichkeiten, in den man eintaucht und dessen Wellen einen an immer neue Ufer tragen: Surfen in Reinkultur.

Hinweis: Dieser Artikel ist ebenfalls erschienen bei Contentmanager.

Kommentare

Stefan David

Stefan David (Webkraut)
am 25.05.2007 - 12:55

In der Artikelversion beim Contentmanager sollte man sich das Markup aber lieber nicht ansehen. Mit Webstandards hat das nichts zu tun und von einer Validierung ist man genau 378 Fehler entfernt.

Kleines Beispiel des Markups (eigentlich eine Überschrift, die hier als H4 ausgezeichtnet ist):
<b>Zeit für einen Wandel</b><br><br>
Der ganze Artikel steht dann in <center>-Tags.

Trotzdem trägt auch dort der Artikel den gleichen Titel. Findet das noch jemand grotesk?

Permanenter Link
Stefan David

Stefan David (Webkraut)
am 25.05.2007 - 13:00

P.S.:
Die eben geäußerte Kritik bezieht sich natürlich nicht auf den Artikel selbst. Den finde ich sehr gut geschrieben.

Permanenter Link

GE
am 25.05.2007 - 14:21

Hallo,

Daran tragen jene, die Webstandards nach vorne gebracht haben und bringen leider eine nicht unerhebliche Mitschuld. Diese Vorkämpfer sind der Masse enteilt ... und vergessen dabei leider allzuoft die Menschen, die man mit auf die Reise nehmen wollte

Ein sehr schöner neuer Ton bei den Webkrauts. Der Artikel gefällt mir, weil er auf Beschimpfungen verzichtet und Lust darauf macht, den "aufgenommenen Faden" Schritt für Schritt weiter zu verfolgen, ohne Hast und Eile.

Und weil auch darauf eingegangen wird, dass moderner Code, selbstgeschrieben oder durch ein CMS erstellt, noch lange kein Garant für eine gute Website ist. Es gibt eben auch noch andere (grössere) Todsünden als "Code von gestern".

Diese Todsünden sind eher ein Mittel, den Besucher von der Website zu vertreiben, als der bereits erwähnte "Code von gestern", weil sie für den Besucher spürbar sind (lange Ladezeiten sind da nur ein Beispiel).

Ob man bei der Erstellung von Internet-Seiten auf "moderne" oder auf "konservative" Webstandards zurückgreift, wird zum grossen Teil durch die Zielgruppe bestimmt. Wenn eine Tageszeitung auf Layout-Tabellen zurückgreift, hat das ganz sicher seinen Grund. Eine Seite, die Webdesign zum Thema hat, sollte sich da sicher etwas moderner präsentieren. Kann sie auch, weil der Anteil des IE5 da wohl geringer ist. Wichtig ist in beiden Fällen, dass die geltenden Standards eingehalten werden.

Dabei spielt es zunächst keine Rolle, wie sehr präzise diese Standards eingehalten werden, auch wenn das unter Webstandards-Hardlinern gerne anders gesehen wird. Wichtig ist, dass sich mehr und mehr Verantwortliche auf den Weg machen und moderne Webstandards einsetzen.

Auch diese Einstellung zum Thema kann ich nur unterstützen. Die Menschen wollen überzeugt, gewonnen, "mitgenommen" werden, und das gelingt ganz bestimmt nicht, wenn man sie beschimpft, abqualifiziert oder versucht, sie öffentlich vorzuführen.

Der Ton macht die Musik, und dieser Artikel klingt angenehm in meinen Ohren, während frühere Beiräge der Webkrauts meinen Widerspruch geradezu provoziert und herausgefordert haben.

Permanenter Link
Ansgar Hein

Ansgar Hein (Autor)
am 25.05.2007 - 14:34

@David: Ja, es mag grotesk anmuten, ist es aber nicht: Würde Contentmanager alles befolgen, was dort veröffentlicht würde, dann wäre die Seite das Gruselkabinett schlechthin. So ist es "nur" der Code. Irgendwann wird auch Contentmanager den Druck der Webstandards verspüren und einschwenken. Darum geht es ja im Artikel.

Permanenter Link

Matthias
am 25.05.2007 - 16:38

Wirklich schön zu lesender Artikel! Er spricht mir sozusagen aus der Seele und ich hätte meine Meinung nicht so schön ausdrücken können.

Wie schon beschrieben liegt ein Hauptgrund wirklich in der Ausbildung und im Studium in denen die Webstandards (noch?) nicht oder kaum im Unterricht vorkommen.
In meiner Ausbildung zum technischen Informatikassistenten (2004 - 2006) habe ich HTML noch mit Frames beigebracht bekommen! Nur durch mein eigenes Interesse, habe ich irgendwann mitbekommen, dass Layout-Tabellen ein probates Mittel zur Webprogrammierung sind und noch ein wenig später habe ich Webstandards entdeckt. Leider alles nur durch eigene Motivation und nicht durch die Ausbildung, was ich sehr schade finde, da ich mir sonst sehr viel Zeit erspart hätte, es mir selbst beibringen zu müssen.

Permanenter Link

Elmar
am 25.05.2007 - 23:25

Vielleicht hilft eine Anforderungen-Liste (Pflichtenheft). Einige Punkte könnten lauten (ich schreibe 10 auf, es sind mehr notwendig, mehr als 25 halte ich für kontraproduktiv, unser Gedächtnis ist begrenzt):

Der HTML-Code validiert mit Null Fehlern bei Validome
Die Stylesheets validieren mit Null Fehlern beim W3C CSS Validierungsdienst
Formatierung nur mit CSS, keine Direktformatierung von Elementen
Tabellen nur zum Darstellen von Daten
Wird die Schrift vergrößert, bleibt das Layout stabil (Definition siehe ...)
Der Kontrast zwischen Schrift und Hintergrund ist mindestens ...
Minimale Schriftgröße ist ...
Keine Programmsteuerung zur Benutzung notwendig (JavaScript, Java, Flash, ActiveX, ...)
Anker sind Texte (keine Bilder)
Hier eine URL-Liste mit guten Beispielen: ...

Das Einhalten der meisten Anforderungen sollte automatisiert geprüft werden, damit die Entwickler entlastet werden und Fehler frühzeitig entdeckt.

Permanenter Link

.carsten
am 29.05.2007 - 15:30

@elmar
so eine Liste ist sicherlich richtig. Aber Du schreibst ja in Deinem Beispiel schon treffend: "Der HTML-Code validiert mit Null Fehlern bei Validome - Die Stylesheets validieren mit Null Fehlern beim W3C CSS Validierungsdienst".

Genau darin liegt ja der Hund begraben. Wenn schon die Validierung von unterschiedlichen Seiten als die "echte" bezeichnet wird, dann ist es schwer zu vermitteln, wo man denn nun seinen Seiten validieren lassen sollte? Mir stellt sich bei Deiner Liste nämlich die Frage: warum nicht beides beim W3C validieren? Es gibt vielleicht noch eine dritte Adresse, die sicherlich noch besser ist, etc. pp.

Wenn man Standards durchsetzen möchte, sieht es immer schlecht aus, wenn man selber in der Validierung der Standards nicht standardmäßig vorgehen kann. Zur erfolgreichen Vermittlung der Notwenidgkeit von standardkonformer Programmierung ist Einfachheit Trumpf - ansonsten schreckt es eher ab, sich zunächst in die detaillierte Ebene zu begeben, wer denn jetzt wo richtiger oder vollständiger validiert. Letztendlich, da gebe ich Dir Recht, landet man am besten bei den erweiterbaren Vorgaben Deiner Liste.

Permanenter Link

.carsten
am 29.05.2007 - 15:36

Zum Artikel muß ich anmerken - sind Ladezeiten heute wirklich eine relevante Größenordnung? Ich kontrolliere regelmäßig die Zugriffsstatistiken von fünf Websites unterschiedlicher Inhalte und Zielgruppen in Europa und Amerika. Bei allen ist der Anteil derjenigen, die mit einen anderen Weg als DSL, T1 oder Unternehmensnetzen auf die Site gelangen regelmäßig unter 10%, Tendenz abnehmend. Man könnte ja über das Transfervolumen sprechen, die zu große Inhalte verursachen und damit zusammenhängend das derzeitige Kühlungsproblem, unter welchem die Serverbetreiber derzeit leiden. Das Argument der Ladezeiten hört sich in meinen Ohren immer so schrecklich antiquiert an, als säßen wir hier alle noch mit 14.400er Modems vor dem 12"er Bildschirm.. ;-)

Permanenter Link
Ansgar Hein

Ansgar Hein (Autor)
am 29.05.2007 - 16:00

@.carsten

sind Ladezeiten heute wirklich eine relevante Größenordnung?

Ja, mehr denn je. Stichwort Mobiltelefone. GPRS-Verbindungen sind noch langsamer als langsame Modems. Und DSL hat noch keine allzu weite Verbreitung, siehe Nonliner-Atlas. Und selbst wenn nicht: Was spricht gegen eine Ladezeiten-Optimierung? Auch ein Schreiner geht ressourcenschonend an seine Arbeit, selbst die Automobil-Industrie tut es und in der Natur ist das ohnehin schon serienmäßig vorgesehen. Nur der Webentwickler sträubt sich ...

Permanenter Link

.carsten
am 29.05.2007 - 18:29

@Ansgar
ich möchte ja gar nicht abstreiten, daß man alles soweit optimieren sollte, wie es das Angebot ermöglicht. Wenn es um den Zugang unterschiedlicher Medien zur Internetseite geht, stellt sich mir aber primät die Frage nach der Medienspezifik oder Mediengerechtigkeit.

Man baut Internetseiten ja auch nicht für einen Drucker, damit es sich sofort gut ausdrucken läßt. Dafür erstellt man eine CSS-Datei, die druckerspezifisch das Layout, die Farben, Abstände, Schriftarten, Seitenumbrüche, etc. ausgibt, sodaß die Seite optimal ausgedruckt werden.

Was mobile Endgeräte angeht, so müßte man dafür ebenso eine medienspezifisches CSS-Dokument anlegen. Den Inhalt von für das Internet geschriebenen Internetseiten generell immer auch für Mobilgeräte ompartibel zu machen, ist inkonsequent. Man muß immer die entsprechende Medienspezifik nutzen können. Mit einer Internetseite kann ich emotionaler arbeiten, durch Bilder, Hintergründe, etc. Diese Möglichkeit herunterzubrechen, um parallel auch Mobilgeräten zu entsprechen, kann es ja nicht sein. Das schwächste Glied in der Kette sollte nicht zum Standard werden, sondern speziell bedient werden.

Permanenter Link
Ansgar Hein

Ansgar Hein (Autor)
am 30.05.2007 - 10:02

@.carsten

Was mobile Endgeräte angeht, so müßte man dafür ebenso eine medienspezifisches CSS-Dokument anlegen.

Damit hast Du natürlich Recht. Problem ist nur: Der entsprechende Medientyp wird noch nicht einheitlich unterstützt, das kennen wir ja aus dem Schreibtisch-Rechner-Umfeld.

Den Inhalt von für das Internet geschriebenen Internetseiten generell immer auch für Mobilgeräte ompartibel zu machen, ist inkonsequent. Man muß immer die entsprechende Medienspezifik nutzen können.

Es gibt da ein weiteres Problem: Flash, JavaScript, Bilder - kurzum alles, was im Quelltext steht. Diese Infos werden auch dann noch vom Server abgerufen, wenn das mediengerechte Stylesheet greift. Und genau da liegt heute häufig noch ein Problemfeld, wie bei der ZEIT-Website.

Permanenter Link

Eric Eggert
am 30.05.2007 - 10:22

@.carsten:

Außerdem geht der Trend zu mobilen Endgeräten mit vollwertigen Browsern, ganz einfach aus dem Grund, weil 99,9% der Seiten keine Anpassungen für mobile Endgeräte bieten. Deshalb gilt es immer einen Sweet Spot zu finden.

Übrigens habe ich zuhause in meinem Dorf nach sieben Jahren erst Ende April diesen Jahres DSL bekommen, vorher war dort Modem-Zeit. Da lernt man schlanke Webseiten zu schätzen.

Permanenter Link

.carsten
am 30.05.2007 - 11:45

@Ansgar

Wieso das? Man kann doch festlegen, daß - wenn es eine medientypische Erkenung gebe - diese Dinge nicht mitübertragen werden müssen.
Das meine ich ja doch gerade. Warum sollten wir jetzt in allen Internetseite auf jegliche Medien verzichten, um mobile Geräte vorrangig zu bedienen.

Und @Eric
es mag zwar sein, daß es immer mehr Endgeräte mit vollwertigen Browsern gibt, das bedeutet aber nur in der Idee der Telefonbetreiber auch gleichzeitig einen Anstieg der Nutzerzahlen. An genau diesen Marketing-Trugschlüssen leidet die Branche ja derzeit. Man treibt die Telefonkosten in dien Keller, weil man meint, mit Mediendiensten das Geld machen zu können - nur keiner will das bezahlen. Die Bundesliga lebt zwar von den vielen PayTV Geldern ganz gut, nur die verkaufen ihr Produkt deswegen nicht besser. Es gibt zwischen den rein auf Zahlen basierenden Erwartungen und der realen Abnemerzahl leider keinen marginalen Zusammenhang.

Ich will aber auch hier nicht als derjenige dastehen, der für übervolle, sinnlos vollgedröhnte Seiten steht. Ich glaube wir sind uns in jedem Falle darin einig, daß eine Seite aus vielerlei Gründen so schlank wie möglich sein sollte. Ich gehöre aber nicht zu den Fundamentalisten, die deswegen alles was mit Flash, JavaScript, etc. zu tun hat als Teufelszeug verdammen wollen. Eine solche Position ist m.E. auch unrealistisch. Im Gegenteil - der Markt verlangt immer mehr nach hochauflösenden Video- und Animationsprodukten, wie etwa der ShopTV im Internet (douglas.de) oder Produktpräsentationen (siehe diverse Automobilfirmen), etc.

Permanenter Link

Matthias
am 15.06.2007 - 13:06

Die Frage ist doch: "Will man im Web zu einer einheitlichen Sprache finden oder nicht".
Alleine dadurch wird ein Webstandart notwendig - wenn man den(n) will...
Was das angesprochene Thema der Ladezeiten angeht, muss ich allerdings feststellen, dass diese auch bei xhtml/css basierten Seiten nicht immer den Erwartungen entsprechen.

Permanenter Link

Eugen Wirz
am 16.06.2007 - 09:39

Was mir nicht gefällt, an dem was angesprochen wurde,
ist, dass überhaupt kein JavaScript benutzt werden müsse.

Im Bezug auch auf die Ladezeiten ist JavaScript in Verbindung mit AJAX ein wahrer Helfer.

Wie ich bei der Webseite zeit.de gesehen habe,
scheint die Startseite sowas von vollgeladen zu sein.
860KB ist wahrlich zu viel.
Eine Methode den Content teilweise zu verstecken und dann bei Wunsch aufzurufen, wäre eine schnellere und benutzerfreundliche Lösung, sei dies mit AJAX oder mit normalen Link.
Der Benutzer und besnders Screenreader-Nutzer hat, mit eigenen Worten, einfach kein Bock runterzulesen u den gewünschten Content zu finden, oder?

Gruß, Eugen.

Permanenter Link

Andreas
am 08.08.2007 - 18:10

Hoffnung machen die Entwicklungen des Web 2.0, die nicht mehr aufzuhalten oder umzukehren sind.

Das mag sein, wenn man "Web 2.0" mit einer weit verbreiteten und CSS basierten sowie layouttabellenfreien Blogsoftware gleichsetzt.

Doch bei vielen Web 2.0 Websites ist der nach aussen sichtbare (HTML) Code genauso schlecht und schnell dahingeschludert, wie der dahinter steckende Programmcode. Teils aus Unwissenheit, teils aus Zeitmangel, teils aus dem Prinzip erstmal nur Unfertiges abzuliefern (Perpetual Beta Dilemma).

Permanenter Link

Die Kommentare sind geschlossen.