Nach jahrelangen Bemühungen immer gültiges (x-)HTML und CSS zu verwenden und wenn möglich auch mit WAI konform zu sein bezweifle ich, dass solche Bestrebungen heute noch sinnvoll sind. Schon mein Projekt Adaxas scheiterte, weil sich einfach kaum jemand die Mühe macht auf sauberes HTML zu achten. Ich wollte mit dem Projekt Webseiten mit gültigem HTML und CSS fördern. Leider wiesen mehr als 90% der in ODP gelisteten Seiten kein gültiges HTML auf. Abgesehen davon, waren unter den wenigen Seiten die gültiges HTML und CSS vorzuweisen hatten, noch ein Teil „Spammer“, deren Seiten keinen eigenen Inhalt hatten. Gültiges HTML, CSS und WAI alleine, macht natürlich auch noch keine gute oder sinnvolle Website.
Hier, auf diesem Blog, habe ich mich schon unzählige male über Plugins geärgert, weil sie HTML-Fehler erzeugten, obwohl WordPress noch eine der wenigen großen Bastionen für gültiges HTML ist.
Gestern wollte ich z.B. ein Video vom CNN einbinden, aber auch die bieten nur fehlerhaften Code und nicht einmal einen iframe als Notlösung an.
Ja selbst Google, die früher auf Webmaster Richtlinien noch empfahlen, dass man auf gültiges HTML achten soll, kümmert sich nicht mehr darum. Man braucht ja nur eine Seite validieren und findet zig bis hunderte Fehler.
Natürlich macht es ein Unterschied, ob nur ein „alt tag“ fehlt, oder eine sonstige Kleinigkeit, wie in obsoleter „border tag“, oder ob durch falsche Verschachtelung, oder weggelassene Endtags die gesamte Struktur zerstört wurde.
Trotzdem frage ich mich, wozu sich W3C die Mühe macht und gemeinsam mit namhaften Firmen, wie Hersteller von Webbrowsern (Microsoft) und Suchmaschinen Betreiber (Google) usw. Empfehlungen erarbeitet, wenn sich dann die Beteiligten selbst nicht daran halten.
Hallo Helmut,
da habe ich dann schon eine etwas andere Sichtweise. Wenn es denn für ein Unternehmen so einfach wäre, reichlich Besucher auf die Webseite zu bekommen, wozu brauchen die dann teuer bezahlte Affiliates? Außerdem wird doch alles im Laufe der Zeit optimiert und das ist auch gut so, denn sonst wären unsere Autos heute immer noch extrem laut, hätten keine Gurte und auch kein Dach. Warum also sollte man eine Webseite nicht so optimieren, das eine Suchmaschine diese bestmöglich analysieren und indexieren kann?
Übrigens, wenn ich bei Google „Hotelzimmer buchen“ eingebe, dann kommt als erstes hotel.de und das sieht mir nicht wie eine Affiliate-Seite aus. Also nichts gegen Humor, den sollte man schon haben. Aber die Realität ist eben doch etwas anderes. Es gibt auch glaube ich kein schwarz oder weiss. Es kommt immer darauf an, was man letztlich erreichen will. Das ist wohl selbst bei der Frage nach gültigem HTML so. Ich bin ja eher ein Befürworter von validem Code. Aber es gibt sehr viele unvalide Webseiten, die trotzdem auf allen gängigen Browsern funktionieren. Wenn in so einem Fall vielleicht einfach das Geld bzw. die Zeit fehlt, den Code zu validieren und alle Warnmeldungen zu eleminieren, dann kann ich das schon auch verstehen.
Hallo Matthias,
Sichtweise hin, Sichtweise her – ich denke es ist ein Faktum, dass Affiliates den Firmen nichts kosten, sondern eine ganz bequeme zusätzliche Einnahmequelle sind, daher versuchen sie Leute, die nichts anderes zu tun haben, als fremden Inhalt zu verteilen (ähnlich den Zettelverteilern auf der Straße) dafür zu gewinnen, indem sie für keine Leistung Geld versprechen. Natürlich finden sich da genügend Glücksritter und dadurch wird ihre Chance tatsächlich ein wenig Kohle zu machen sehr gering. Die Firmen die für ihre Produkte Affiliates einsetzen verdienen sich aber krumm und dämlich damit, ohne einen Finger rühren zu müssen.
Der Konsument und Internetnutzer wird dadurch mit einer Mülllawine in den Google Serps konfrontiert.
Zum Auto und zu den Neuerungen möchte ich sagen, dass die Produkte auf jeden Fall weiterentwickelt gehören, aber die Produkte selbst und das werden sie bestimmt nicht, wenn sie mit irgend einen temporär funktionierenden SEO-Trick besser gefunden werden. Das behindert eine seriöse Weiterentwicklung sogar.
Abschließend muss ich meine Meinung zu diesen Thema noch einmal zusammenfassen: Wer glaubt er müsse Google helfen, damit die ihre Arbeit bestmöglich tun können ist entweder genial, oder ein Scharlatan. Ich glaube, dass er aber in jeden Fall Goolge (meiner Meinung nach schon fast ein Synonym für Suchmaschine) damit nicht hilft, sondern behindert.
Wer sich an allgemeine Richtlinien hält, braucht nur mehr einen guten Inhalt, den Rest mach Google, denke ich.
SEOs und Affiliate-Seiten haben in meinen Augen wirklich keine Existenzberechtigung. Ich halte sie für ein sehr mühsames Übel. Was bitte haben wir davon, wenn ein toller SEO ein schlechtes Produkt auf die erste Ergebnisseite bringt? Was hat das mit Entwicklung zu tun? Sorry, aber ich denke, dass Googleoptimierer Google nur behindern und damit mich auch, weil ich wegen der SEOs und Spammer erst ab Seite 5 oder so, relevante Suchergebnisse bekomme.
Naja, das mit den SEO-Müll-Seiten ist ja noch wieder ein anderes Problem. Ich finde es auch nicht gerade toll, wenn ich z.B. nach einer Lösung für ein Problem mit einer Software recherchiere und dann teilweise 3 oder 5 mal den selben Text von unterschiedlichen Seiten angezeigt bekomme. Aber dagegen hat Google soweit ich informiert bin gerade etwas unternommen. Doppelter Content soll bereits großflächig verschwunden sein, wenngleich es sicher lange Dauert bis alles bereinigt ist. Mal sehen, wie dann das Ergebnis ist. Ich bin vor allem sehr gespannt, wie es den Preisvergleichs-Portalen ergeht. Die haben ja eigentlich nur fremden Content, aber auf jeden Fall ihre Existenzberechtigung. Und SEO-Seiten an sich wird es wohl immer geben, was davon Müll ist und was nicht hängt auch vom Auge des Betrachters ab. Ist sicher eine ziemlich große Herausforderung für Google damit umzugehen. Und allen kann man es vermutlich nie recht machen.
Hallo Matthias, Ich weiß nicht, ob es wirklich ein anderes Problem ist, aber jedenfalls lasse ich keine Gelegenheit aus, über SEOs herzufallen. Jeder hat so sein nicht ganz ernst genommenes Lieblingsfeindbild, seien es nun die Preussen, die Tussis, die Proleten oder wer auch immer. Bei mir sind es jedenfalls die SEOs. Egal welchen Hut sie tragen, für mich sind sie ein Übel, das nur einen einzigen Zweck dienlich sein kann und zwar als Gegenstand meiner Belustigung. Sie haben meiner Meinung nach absolut keine Existenzberechtigung (ich hoffe, es ist klar, dass das natürlich nie persönlich gemeint ist, sondern ich spreche über die Eigenschaft „für Suchmaschinen optimieren zu wollen“).
Preisvergleicher haben hingegen schon eine Existenzberechtigung, wenn sie tatsächlich Inhalte aufbereiten, sodass das Ergebnis dem Benutzer etwas bringt. Bei reine Affiliates ist das hingegen sehr fraglich. Ich habe selbst lange mit Travelnow und Hotusa gearbeitet und damit deren Inhalt vervielfältigt, aber inzwischen würde ich das nicht mehr machen und ich finde das nicht gerade produktiv, obwohl es mich auch nicht wirklich stört. Ich selbst möchte aber schon mehr können, als mit Daten-(banken) anderer arbeiten zu müssen. Das ist aber nur ein persönlicher Anspruch. Wenn jemand gut mit Affiliateprogrammen arbeitet und es ihm Spaß macht und Geld bringt, dann soll er es meinetwegen doch machen. Sobald aber unlautere Methoden verwendet werden, um die Konkurrenz zu überflügeln wird es problematisch und alle Affilate- oder Partnerprogrammbenutzer verwenden die gleichen Inhalte. Wenn ich ein Hotelzimmer buchen möchte und zuerst 10 Seiten Affilateseiten und auch Preisvergleicher-Seiten durchgehen muss, bis ich endlich auf die Hotelhomepage selbst komme, dann stimmt da meiner Meinung nach etwas nicht.
Naja, jetzt kommen wir wirklich langsam vom gültigen HTML und CSS ab. Trotzdem danke ich für den Kommentar und verbleibe mit lieben Grüßen, Helmut
Das frage ich mich auch immer mal wieder. Und ich finde schon, dass es Sinn macht darauf zu achten, auch wenn es in der Praxis nicht immer möglich ist, etwa dann, wenn man fremden Code verbauen muss. Aber eines ist denke ich ganz klar, wenn es das W3C nicht gäbe, dann wäre es noch immer genau so schlimm, Webseiten auf den gängigen Browsern lauffähig zu bekommen wie vor einigen Jahren. Nach meiner Erfahrung ist es jedenfalls seit IE-8 deutlich besser geworden. Das dumme an der ganzen Sache ist allerdings, dass es keinerlei rechtskräftige Vorschriften gibt, wie eine Webseite technisch gesehen zu sein hat. Ein Auto in Deutschland muss eine TÜV-Plakette haben, um am Verkehr teilnehmen zu dürfen. Eine Webseite darf hingegen jeder einfach so, online stellen. Und mittlerweile habe ich den Eindruck, auch die großen Portale lassen immer mehr Amateure an ihre Webseiten ran. Vermutlich um Geld zu sparen. Aber mittlerweile muss ich schon zeitweise zwei bis drei Browser parallel benutzen, um alle Online-Services, die ich so beanspruche, fehlerfrei nutzen zu können. Ich hoffe sehr, dass das kein Dauerzustand wird. Über lang oder kurz braucht man vielleicht wirklich klare Richtlinien. Fragt sich nur, wer diese durchsetzt und wie. Da gibt es anscheinend noch keine echte Lösung.
Hallo Matthias,
Naja, wie gesagt, gültiges HTML und CSS alleine nützt auch nicht viel, denn oft sind die größten Spamschleudern oder einfach Seiten ohne eigenen Inhalt technisch in jeder Hinsicht sehr gut. Bin gespannt wie Google diese Problem löst, denn für manche Suchbegriffe findet man auf den ersten drei Ergebnissseiten oft nur mehr solche SEO-Müll-Seiten mit automatisch zusammengestellten, geklauten Inhalten. Die Richtung „sozialisierte Suche“, in die momentan der Trend geht, gefällt mir auch nicht. Ich warte auf einen Quantensprung in der Semantik und KI, dann werde ich zufrieden sein können mit allem aus dem Netz. Falls ich das erlebe, ist dann vielleicht aber der Computer, die Software oder das Internet mit mir nicht mehr zufrieden. 😉