Jens Fauldrath Interview: Im Gespräch auf dem OMT
Jens Fauldrath ist Gründer und Geschäftsführer der get:traction GmbH. Er unterstützt seine Kunden bei der Entwicklung, Implementierung und Umsetzung ihrer SEO-Strategie. Er hat von 2008 bis 2012 das SEO-Team der Deutschen Telekom AG P&I aufgebaut und geleitet. Jens ist Dozent für Suchmaschinenmarketing an der Hochschule Darmstadt und Mitglied im Expertenbeirat SEO und im Vorstand der Fokusgruppe Search des BVDW. Außerdem betreibt er mit www.termfrequenz.de das deutsche Podcast-Network für Online-Marketing-Podcasts. Dort moderiert er den Podcast SEO House über aktuelle Themen im strategischen SEO.
Fionn Kientzler: Du hast ja schon sehr früh angefangen, in deinen Vorträgen über die Informationswissenschaft zu sprechen. Meine Frage an dich: Warum sollte die Informationswissenschaft so tief im SEO verankert sein?
Jens Fauldrath: Im Grunde genommen war die Informationswissenschaft schon immer da; Informationswissenschaften setzen sich unter anderem auch mit Suchmaschinen und Ordnungssystemen auseinander, welche ja aus den Bibliothekswissenschaften stammen. So wie wir uns früher gefragt haben, wie Bücher so sortiert werden können, dass sie gut gefunden werden, beschäftigen wir uns heute mit der Frage, wie wir Webseiten so gestalten können, dass der Nutzer zurecht kommt und die gewünschten Informationen findet. Bei der Suchmaschine habe ich viele Dokumente, die wir inhaltlich erschließen und zugänglich machen; dafür gibt es ein Methoden-Set, welches sehr alt ist. Lange Zeit konnte man bei Suchmaschinen mit Links die Textsignale überstrahlen, weil diese von der Suchmaschine entsprechend stark gewichtet wurden; die Textinhalte waren zu der Zeit noch nicht so wahnsinnig wichtig. Das hat Google inzwischen natürlich zurückgedreht, weil die Inhalte in der Folge oft spammig waren. Die Inhalte werden also jetzt stärker gewichtet, wobei die Algorithmen schon immer angewendet wurden.
Da hat natürlich Karl Kratz mit seinem Beitrag zur WDF/IDF-Formel das Thema sehr stark nach vorne gebracht. Er hat quasi etwas thematisiert, was schon immer da war, aber hat es in die Branche getragen. Ich war überrascht, dass so wenige Leute über das Thema Bescheid wussten, weil mir war das klar; das ist der Kern einer Suchmaschine – die funktioniert nun mal so und nicht anders. Ich bin sehr dankbar dafür, dass Karl auf das Thema aufmerksam gemacht hat und an der Stelle einen Großteil der Branche darüber aufgeklärt hat, wie die Suchmaschine eigentlich funktioniert. Ich kann natürlich die Analysen auch immer nutzen, um für mich Erkenntnisse zu gewinnen, die ich wiederum verwenden kann.
Doch wir sollten immer, und das ist der nächste Schwerpunkt der Informationswissenschaft, davon ausgehen, dass es um den Menschen geht, den wir zufrieden stellen wollen. Wir sollten schlicht und ergreifend keine Maschine cheaten, weil ich dann zwar Traffic generieren kann, aber keinen Sales. Das brauche ich nicht; ich möchte den richtigen Traffic haben. Ich bin ja ein großer Freund von Bescheidenheit: Benutzt SEO nicht als Reichweiten-Kanal, sondern als einen vor-qualifizierenden Kanal, um die richtigen Nutzer zu finden und für sie findbar zu werden.
Den Search-Intent zu erkennen sowie Machine Learning sind maßgebend, mich darauf zu konzentrieren, dem Kunden einen Benefit zu liefern und ihn gleichzeitig so anzusprechen, dass ein Benefit für mich und mein Unternehmen entsteht. Wenn beides passt, können wir damit am Ende Geld verdienen. Wenn ich das mache, werde ich bei jedem Google-Update dafür belohnt. Wenn ich dagegen arbeite, dann arbeite ich gegen Google und dann kriege ich halt jedes mal auch eine Abstrafung. So funktioniert das halt
Fionn Kientzler: Tatsächlich kann ich mich erinnern: Vor vielen Jahren saßen wir im OM-Cap und hörten einem Vortrag von Karl Kratz zu, in dem er über WDF/IDF sprach. Du hattest mir etwas belustigt einen Ellbogenstoß gegeben und scherzhaft gefragt: “Kennst du das nicht?” Und ich muss zugeben, ich war etwas verlegen. Und du hast ganz trocken geantwortet: “Das kennt man!” Für dich war das nichts neues und man merkte, dass du dich schon Jahre damit beschäftigt hattest. Inzwischen wird sehr viel über User-Fokus, User-Intentionalität, aber auch UX gesprochen. Und es gibt ja diese These, dass das einzige, was jetzt noch zählt, die UX sei. Wie siehst du das und wie würdest du UX in dem Kontext interpretieren?
Jens Fauldrath: Also da wird Google etwas mehr zugetraut, als sie können. Wenn ich mir die Quality Rater Guidelines durchlese, dann sehe ich nicht, was der Algorithmus aktuell macht. Google möchte zwar in Zukunft mittels Machine Learning solche Ergebnisse erzielen. Google befindet sich also noch auf der Reise, welche jedoch noch nicht abgeschlossen ist. Und niemand weiß, wie lange die dafür noch brauchen; alles andere sind Wetten. Im Moment wertet Google halt Standard-Kennzahlen und andere Datenquellen wie Clickstreams aus. Aber Google kann ja nicht feststellen, ob ich als Nutzer zufrieden bin, wenn ich die Webseite aufrufe. Wie sollen die das auch machen? Außer ich bounce sofort zurück; dass die das mitschneiden, das wissen wir ja. Aber ansonsten wissen die nicht, ob ich zufrieden war.
UX hängt halt auch am Menschen, und da gibt es auch nicht richtig oder falsch. Die UX hängt immer an dem User, seiner Intention, der speziellen Zielgruppe; es gibt keine UX die für alle Menschen zu jeder Situation die richtige ist. Deswegen ist für mich wichtig: Für wen mache ich etwas? Wie läuft seine Argumentation? Wie geht der User an die Suche ran? Und wie müssen dann Sachen beschrieben sein? Ich muss mich in den Kopf meines Suchenden hineinversetzen.
Fionn Kientzler: Wie siehst du eigentlich User-Signale? Du hast es bereits erwähnt: Return to SERP. Und ich weiß, dass in der SEO-Szene teilweise Diskussionen darüber herrschen und es gibt ja auch unterschiedliche Statements von Google. Grundsätzlich hieß es zuletzt: “Ja, wir benutzen User-Signale, aber indirekt.” Was ist die Meinung, die du dir selber dazu gebildet hast?
Jens Fauldrath: Also John Mueller hat ganz klar gesagt, dass sie die User-Signale nicht “hart” nutzen. Dann gehe ich davon aus, dass das so stimmt. Was wir beobachten können, gerade bei dem letzten Update, betrifft die Seitentypen. Zum Beispiel: Ich suche nach Waschmaschinen und es rankt nun eine Seite für eine konkrete Waschmaschine einer konkreten Marke, welche in der Title-Description entsprechend angepriesen wird. Wenn ich jetzt kein Fan von dieser Marke bin, dann werde ich auch nicht den Treffer anklicken. Wenn jedoch ein Ergebnis erscheint, bei dem in der Description so etwas wie “180 Waschmaschinen bei uns im Shop” steht, dann ist das die richtige Antwort. Weil wenn ich das Keyword “Waschmaschinen” in der Suchleiste eingebe, dann habe ich mich noch nicht für eine konkrete Waschmaschine entschieden.
Der Nutzer erwartet also eine Auswahl und nicht den Vorschlag einer konkreten Maschine. Das ist wie wenn du in den Elektrofachhandel gehst und dem Verkäufer dort sagst: “Ich suche eine Waschmaschine.” Und der geht dann zu einer Maschine und sagt: “Hier! Kaufen Sie die!” Und er zeigt dir nicht die anderen 30 Maschinen, die da auch noch stehen. Da würde jeder Kunde denken, dass das ein bisschen merkwürdig ist: “Warum gerade die Maschine? Was ist mit den anderen?” Man sieht in den SERPs, dass wenn eine Waschmaschine rankt, diese dann signifikant schlechter als eine Kategorie Klicks generiert. Ich glaube, dass Google durchaus im großen Muster, also Seitentypen und nicht einzelne Suchanfragen, durch Machine Learning in vergleichbaren Fällen ähnlich bevorzugt anzeigt. Und das haben wir jetzt nach dem Update gesehen: Alle Kunden, die an Sichtbarkeit verloren haben, haben in der Search Console auch an Impressions verloren – Sichtbarkeit und Impressions korrelieren eben miteinander. Jedoch haben sie auch sehr wenig an Klicks und so gut wie gar keinen Umsatz verloren. Da sieht man, dass das zuvor alles irrelevanter Traffic war.
Und da hat Google mit dem Core-Update offensichtlich irgendetwas richtig gemacht, weil die SERPs sind für den Nutzer nun besser. Weil wenn die Leute Antworten in den SERPs verloren haben, die sie zuvor auch nicht geklickt haben, dann war wohl die SERP nicht gut. Nun haben die Unternehmen zwar an Sichtbarkeit verloren, jedoch hat es ihnen nicht geschadet. Also alles richtig gemacht an der Stelle – und wir alle bitte keine Panik! Wir können aber daraus lernen und erkennen, dass wenn bestimmte Seitentypen nicht funktionieren, wir diese auch nicht machen. Stattdessen können wir uns nun fragen, welche Seiten warum besser funktionieren, und investieren im Anschluss mehr in die entsprechenden Seiten.
Fionn Kientzler: Ja, das ist interessant, weil das auch noch mal ein Insight zu dem aktuellen Core-Update ist, bei dem auch ziemlich starke Schwankungen waren. So mancher Seitenbetreiber hat auch erstmal sehr verwirrt darauf reagiert. Aber das ist ja schon mal ein kleiner Hint, in welche Richtung das ganze gehen kann. Vielen Dank für das Interview!
- About
- Letzte Beiträge
Fionn ist Managing Partner bei suxeedo und hat in dieser Position schon über 300 Kampagnen mit zahlreichen DAX- und Fortune 500-Unternehmen verantwortet. Darüber hinaus ist er regelmäßig Speaker auf nationalen und internationalen Marketing Konferenzen und Events.