User Experience als Rankingfaktor?

User Experience als Rankingfaktor?

Ist die Bedeutung von „design and user experience“ schlicht ein von Matt Cutts gern beschworener Mythos, um davon abzulenken, dass die klassischen Methoden mit Link-Spam und Black-Hat noch immer funktionieren – wie das manche Kommentatoren z.B. hier behaupten? Oder ist mehr dran? Einige Überlegungen zu Faktoren, die als „user experience“-Data ins Google-Ranking eingehen können. Und eine UX-Checkliste.

Die Überlegungen sind ein Follow-Up zu meinem Post „Alle reden von Content …“  und basieren auch auf der daran anschließenden Diskussion mit Tanja Preuße bei +Abakus.


Kandidaten für das „User Experience“- Ranking


Return to Search Rate

Die „Return to Search Rate“, meinte G+-erin Tanja Preuße, sei der „heißeste Kanditat überhaupt, heißer als alle anderen Werte die wir kennen oder messen können“. Dieses Verhältnis würde tatsächlich eine Aussage darüber treffen, ob und evt. wie schnell der User nach dem ersten Klick auf ein Suchergebnis von diesem/dieser Site wieder zur Google-Suche zurückkehrt – weil er das Gesuchte dort gar nicht, nicht schnell oder nur unzureichend benutzerfreundlich gefunden hat.

Im Gegensatz zu Standard-Rankingfaktoren (On-Page Metriken, Anzahl Backlinks, Social Signals …), die sich meist auf die eine Page oder auf eine Domain beziehen, haben wir es hier mit einem Feedback-Kriterium zu tun, das tatsächlich Besuchs- bzw. Besucher- oder Verhaltens-bezogenen ist.

Hier würden natürlich Seiten profitieren, die  innerhalb des Suchkontexts selbst noch einmal prominent eine Suchfunktion zur Verfeinerung oder Nachjustierung anbieten. So dass die direkte Rückkehr zu Google nicht nötig ist. Die Beispielsuche nach „Immobilien München“ kann ich auf den Top-gelisteten Portalen gut verfeinern auf mieten/kaufen, Zimmerzahl, Wohnungs-/Haustyp, Preis usw.

Interessant ist, dass Matt Cutts in Zusammenhang mit suboptimaler „user experience“ kürzlich ein großes Portal genannt hat – nämlich Craigslist.com. Dort ist tatsächlich neben einer altmodischen Kategoriedarstellung auch eine nur sehr rudimentäre Suche möglich. Evt. Faktoren, die in eine auffällig schlechte „Return to Search Rate“ eingehen. Was auch erklärt, warum eine so beliebte Seite (hohe Page- und Domainauthority, sehr viele Backlinks, Platz 9 Traffic-Rank in USA, 44 weltweit) eventuell (jedenfalls nach Matt Cutts) in einigen Nischen von kreativeren Wettbewerbern bedroht ist.


Verweildauer

Die Verweildauer auf der Site ist ein ähnliches, aber wohl schwächeres Besuch- bzw. Besucher-bezogenes Feedback-Kriterium. Allerdings sagt sie zunächst nichts darüber aus, wohin nach dem Ausstieg gesurft wurde, und warum der Ausstuieg erfolgte. Z.B. kann der Besucher das Gesuchte tatsächlich gefunden haben, und sich dann einem anderen Thema, einer anderen Website zuwenden.


Anteil wiederkehrender Besucher

Wäre das nicht auch ein Merkmal für Seiten mit guter „user experience“? Zwei Bedingungen (oberhalb und unterhalb gewisser Schwellenwerte) könnten  für ein Ranking-Push ausschlaggebend sein: a) Eine Seite wird mit einem Set verschiedener Suchbegriffe gefunden, die Domain wird vom gleichen Rechner bei verschiedenen Suchanfragen öfter aufgerufen. b) Es sind anteilig eine gewisse Menge solcher Aufrufe von Servern, die die Site schon mal aufgerufen haben.


Page Speed, HTML- und CSS-Qualität

Weitere Faktoren, die im deutlich schlechten Fall auch deutlich negativ mit der Besucherzufriedenheit (und damit dem Ranking) korrelieren dürften.

Checkliste „User Experience“

Einen interessanten  „User Experience Fragebogen“ zur „Bewertung interaktiver Produkte“ hat Andreas Hinderks unter UEQ-Online ins Netz gestellt.  Ob damit explizit Websites gemeint sind, weiß ich nicht – in der Liste ist allgemein von „Produkt“ die Rede.

Diese Dimensionen könnten evt. als inhaltliche Checkliste für  gute „user experience“ nützlich sein. An Stelle von „Produkt“ lässt sich auch immer „Website“ einsetzen:

  • Attraktivität: Allgemeiner Gesamteindruck des Produkts. Mag der Benutzer das Produkt?
  • Effizienz: Kann der Benutzer mit dem Produkt schnell und effizient arbeiten? Ist die Benutzeroberfläche übersichtlich?
  • Durchschaubarkeit: Ist die Nutzung des Produkts einfach zu verstehen? Ist es einfach die Benutzung des Produkts zu erlernen?
  • Verlässlichkeit: Hat der Benutzer den Eindruck die Interaktion zu kontrollieren? Ist die Interaktion mit dem Produkt sicher und vorhersagbar?
  • Stimulation: Ist es interessant und anregend das Produkt zu nutzen? Fühlt sich der Benutzer durch das Produkt motiviert?
  • Originalität: Ist das Produkt innovativ und kreativ gestaltet? Zieht das Produkt die Aufmerksamkeit auf sich?

Auch wenn nicht alle der genannten Faktoren jetzt oder in naher Zukunft für Google messbar sein werden, es ist davon auszugehen, dass Google daran arbeitet.

Warum sollte sich Google nicht soweit greifbar auch die „Weisheit des Schwarms“ für die Rankings zu Nutze machen?

Share Button

Kommentare

  1. Sebbi meint:

    Moinsen, in dem Beitrag sind einige interessante Punkte genannt worden. Um auf deine abschließende Frage einzugehen, ich bin – wie wohl die meisten auch – der Meinung, dass Google sich der „Weisheit des Schwarms“ bedient. Aber, und das wird man auch bei Google wissen, sind die einzelnen Faktoren sicher nicht getrennt voneinander auszuwerten, sondern im Kontext, die Bounce Rate allein sagt eben nicht viel aus.

    Aber eine Frage, die sich mir gleich zu Beginn stellte, dass die Blackhat Methoden nach wie vor funktionieren, sehen wir ja alle. Wenn ich nun also ein richtig guter Blackhat wäre, würde ich doch versuchen, Google eine „gute User Experience“ vorzugaukeln. Ich meine vorstellbar ist doch, dass man mit einem dicken Botnetz, verteilt über 10.000 IPs automatisiert Suchanfragen an Google schicken kann, die Bots dann so konfiguriert, dass Sie eine bestimmte URL in den SERPs aufrufen und dort für prima Signale sorgen?! Wenn ich das so weiter spinne, fällt mir auf, dass sich auf die Art und Weise auch prima negative Signale senden lassen, um Mitbewerber zu schädigen. Das einzige, was vielleicht etwas schwieriger ist, social signals zu produzieren.

    Also das mag alles etwas weit hergeholt klingen, aber technisch möglich sollte das doch sein, oder?

    Sebbi

    • Ob der Bot auch in verschiedenen Sessions auf der gleichen Website in vernünftiger Reihenfolge mehrere Seiten anklicken kann? Aber sicher, mit genug Aufwand und Rechenleistung … Ist aber deutlich aufwändiger als automatisch irgendwelche Verlinkungen zu setzen … Und Google wird das auch bald riechen, denke ich. Oder?

  2. Carsten Todt meint:

    Interessante Form von Marktforschung! Die Resultate sind wohl sehr markttauglich. Ich bin auf die langfristige Entwicklung sehr gespannt.

Trackbacks/ Pingbacks

Ihre Meinung ist uns wichtig

*

Animated Social Media Icons Powered by Acurax Wordpress Development Company
Get Adobe Flash player Plugin by wpburn.com wordpress themes