Suchmaschinen-Optimierung

Wenn du willst, dass deine Webseite bei Google und Co. ganz oben steht, dann bist du bei mir genau richtig. Ich helfe dir dabei, deine organische Sichtbarkeit zu steigern – damit die Kunden, die du ansprechen willst, dich auch mühelos finden.

zurück zur Startseite >

Meine SEO-Leistungen im Überblick

Basiswissen zur Suchmaschinenoptimierung

Die Entwicklung der organischen Suche in Deutschland verändert sich zunehmend. Während die wichtigsten Suchbegriffe im Jahr 2017 in Deutschland die „WM Auslosung“, „Bundestagswahl“, „Wahlomat“, „iPhone 8“ und „Dschungelcamp“ waren, sind fast 15% der Suchanfragen gänzlich neu und sind noch nie zuvor von der Suchmaschine beantwortet werden – Tendenz steigend. Ziel von SEO ist es dabei nicht, einfach nur oben zu stehen. Die Darstellung des in den Suchmaschinen zur Verfügung stehenden Eintrags (Snippet) soll den Nutzer vielmehr zu einem Klick auf das Ergebnis motivieren. Daher muss das Ziel sein, die Erwartung des Nutzers in Hinsicht auf inhaltliche Übereinstimmung zwischen Suchbegriff, Snippet und Relevanz der Webseite zu erfüllen. Diese inhaltliche Übereinstimmung lässt sich am Ende über Kennzahlen, wie Absprungraten, Seitenbesuche und Conversion-Raten überprüfen, wobei Suchmaschinenoptimierung in die Bereiche OnPage-Optimierung (Keywords & Inhalte, Technik, Informationsarchitektur, interne Verlinkung) und OffPage-Optimierung (aktiver Linkaufbau) eingeteilt werden kann. Zunehmend an Bedeutung gewinnt insofern besonders die Optimierung der Ergebnisdarstellung (Snippet-Optimierung zum Beispiel über Rich Snippets), wobei die Sichtbarkeit einer Seite mit der Reichweite auf anderen Kanälen, wie Social Media, korreliert. Demnach lässt sich sagen, dass SEO im Strategie Framework neben anderen OM-Disziplinen, wie SEA, Display, SM, Emailmarketing und Social Ads zum Bereich der Akquisition, also zum gewinnen neuer Nutzer, gezählt werden kann (Primär durch die CTR, Impressionen, Clicks und Sitzungen gemessen).

Google und die perfekte Suchmaschine

Um immer das perfekte Suchergebnis zu liefern greift Google auf über 200 Signale und ca. 550 Improvements zurück. Typische Signale sind dabei Wortanzahl und Content-Relevanz, Title eines Dokuments, Verwendung von Keywords in Auszeichnungselementen, User Signals wie CTR und Verweildauer, Technisches Gerüst der Website wie z.B. HTTPS oder Linksignale. Dabei ist es wichtig zu verstehen, dass Google nicht für Websites gemacht wurde, sondern für die Nutzer. Insofern versucht Google immer möglichst direkte Antworten auf Suchanfragen zu liefern, weil es schneller ist und weniger umständlich als die zehn Links, die Google sonst in den Ergebnisseiten anzeigen würde. Um jedoch immer die besten Suchergebnisse anzeigen zu können, macht Google regelmäßige Updates und modifiziert seinen Algorithmus. Die vier größten und auffallendsten Updates seit 2011 waren:

Relevanteste Google Updates

Neben den stetigen kleinen Anpassungen am Algorithmus, brachte Google im Laufe der Zeit auch einige große und tiefgreifende Änderungen ein. Mittlerweile gibt es aber keine großen Updates mehr. Google macht kontinuierliche Anpassungen:

Panda-Update

Anteil an Werbung im Vergleich zum Hauptinhalt zu hoch, schlechte Nutzersignale: CTR, Bounce Rate, Aufenthaltszeiten etc. und überoptimierte Texte mit hoher Keyword-Dichte

Tipp: Folge der EAT-Formel! Sei ein Experte (Fachlich), zeige Autorität (authoritative) und Vertrauen (trustworthy)

Pinguin-Update
Fokus: „Generation des Webspam“

Fokus auf Link Schemes, Keyword Stuffing, Over Optimization und Unnatural Links.

Die erste Generation des Webspam-Updates betraf ca. 3,1% aller Websites

Hummingbird-Update
Fokus: „Semantische Suche“

Soll die heutigen Anforderungen an eine Suchmaschine besser erfüllen, anstatt suchbegriffsorientiert orientiert sich die Suche jetzt eher an der Bedeutung, also dem Ziel der Suchanfrage.

Tipp: Co-Occurrences nutzen – Wenn bestimmte Begriffe häufig gemeinsam verwendet werden

SEO als Prozess verstehen

Um SEO als Prozess zu verstehen ist es vorher ganz sinnvoll erstmal zu verstehen, wie Suchmaschinen generell funktionieren. Suchmaschinen sind ununterbrochen damit beschäftigt das Web zu crawlen und Seiten zu indexieren und zu rendern. Dabei besuchen die Crawler systematisch alle Seiten, die ihnen vom URL Server vorgegeben werden (Crawling). Unterdessen werden bedeutungstragende Terme extrahiert (Indexierung). Auf Basis von suchbegriffsabhängigen und suchabfrageunabhängigen Signalen wird anschließend das Ranking bestimmt (Ranking). Insofern ist das Internet im Wesentlichen wie ein großes U-Bahnnetz zu verstehen, wobei jede Seite, jedes Dokument, jedes PDF oder Bild eine Haltestelle darstellt.

OnPage-Optimierung

Der erste Hebel der OnPage-Optimierung ist das Google Snippet. Snippets zeigen den Usern eine kurze Zusammenfassung dessen, was sie auf der dargestellten Seite zu erwarten haben. Sie bestehen standardmäßig aus Title, URL & Description. Befindet sich der gesuchte Begriff in URL oder Beschreibung der Seite, wird dieser gefettet dargestellt. Ziel eines guten Snippets ist den Nutzer zum Klicken zu motivieren (CTR). Die Erfolgsmessung erfolgt über die Entwicklung der Position und der CTR. Beide Informationen kann man der Google Search Console entnehmen.

Der Title-Tag ist im Head der Website integriert. Die übliche Darstellungsform beträgt 600 Pixel (ca. 60 Zeichen). Der Title ist für Google das wichtigste Auszeichnungselement auf der Seite, wobei der für die Seite relevante Suchbegriff immer möglichst weit vorne stehen sollte. Im Title sollten darüber hinaus auch Kombinationen enthalten sein, nach den Nutzer suchen (E-Commerce, Lokal, Produkte oder Content z.B. Transaktionssuchbegriffe wie kaufen oder günstig). Die Marke sollte dann enthalten sein, wenn Sie bei der Entscheidung zum Klicken wirklich hilft. Die Länge des optimalen Titles liegt zwischen 49 (99,9 % ohne Trunkierung) & 58 Zeichen (81.6% ohne Trunkierung). Wichtig ist die Einzigartigkeit des Titles. Diese sollten unique sein!

Die Meta-Description ist eine kurze Inhaltswiedergabe der Seite und sollte nach dem AIDA-Prinzip erstellt werden. Erreichen Sie Aufmerksamkeit, wecken Sie Interesse beim Suchenden, erzeugen Sie ein Verlangen beim Suchenden und verleiten Sie Ihn zur Interaktion. Die Description ist zwar nicht rankingrelevant, hat aber einen Einfluss auf die Klickwahrscheinlichkeit. In der Descriptions sollten wichtige USPs und / oder Produktmerkmale enthalten sein, mit denen man sich von der Konkurrenz abheben kann (z.B. Sicherheitsversprechen, Produktversprechen, Serviceversprechen oder große Auswahl). Ähnlich wie in einer AdWords-Anzeige ist es sinnvoll, hier auch mit Transaktionsbegriffen zu arbeiten, die Nutzer zum Klick motivieren, wie z.B. hier klicken, jetzt günstig kaufen etc. Sonderzeichen können für zusätzliche Aufmerksamkeit in den SERPs und damit für eine höhere Klickrate sorgen, sollten jedoch nicht zu inflationär verwendet werden. Auch Descriptions sollten unique sein!

Der richtige Umgang mit einzigartigen Suchanfragen

Mind 15% der Suchanfragen, die bei Google registriert werden, sind in dieser Kombination vorher noch nie gesucht worden! Diese einzigartigen Suchanfragen werden auch „ONE SHOTS“ genannt! Diese wurden so noch nie gesucht und werden es vermutlich auch nicht mehr! – Wenn man in der Google Search Console versucht, die einzelnen Suchanfragen aufzurufen, dann wird man feststellen, dass nicht immer alle diese One Shots angezeigt werden. Es handelt sich insofern in etwa um die dunkle Materie von Google, die man nie wirklich vollumfänglich sieht und versteht. Es wird für diese Suchen zwar ein Seitenaufruf in Analytics registriert (d.h. die Impressionen und Klicks werden angezeigt), jedoch wird die dazuführende Suchanfrage in den Berichten nicht immer gelistet.

Es ist besonders Schwierig auf solche One Shots zu optimieren, obwohl Sie mit 15% der Suchanfragen durchaus einen relevanten Teil der Suche ausmachen können und die Mühe durchaus Wert wären. – Das wichtigste bei der Optimierung ist zu aller erst die Keywordrecherche. Da unterschiedliche Keywordtools auch unterschiedliche Keywords oder zumindest unterschiedlichen Traffic anzeigen macht es Sinn, mehrere Keywordtools zu nutzen und die Ergebnisse in einer Tabelle zu konsolidieren. Wichtig dabei ist es, alle relevanten Kombinationen (egal ob sinnig oder unsinnig) abzudecken. Darüber hinaus ist es wichtig, gefundene Keywords nicht aufgrund der eigenen Produktpalette umzubennen. Wenn zum Beispiel viele Leute nach „Sneaker Weiss“ suchen, dann sollte man auf der Seite nicht mit „Sneaker White“ auszeichnen. Sofern man dann alle relevanten Keywords identifiziert hat ist es nun wichtig, die wichtigsten Kombinationen auf der Website einzubauen bzw. aufzuführen. Am Beispiel „Sneaker“ könnte das die Kombination „Weisse Sneaker Adidas Stan“ sein!

Zusammenfassend kann man sagen, dass das wichtigste in Bezug auf einzigartige Suchanfragen eine detaillierte Keywordrecherche und ein gut gebriefter Texter ist. Alle relevanten Keywordkombinationen sollten abgedeckt werden, um möglichst viel des dunkle Materien Potentials abzugreifen!

Weitere SEO-Themen

Der richtige Umgang mit einzigartigen Suchanfragen

Mind 15% der Suchanfragen, die bei Google registriert werden, sind in dieser Kombination vorher noch nie gesucht worden! Diese einzigartigen Suchanfragen werden auch „ONE SHOTS“ genannt! Diese wurden so noch nie gesucht und werden es vermutlich auch nicht mehr! – Wenn man in der Google Search Console versucht, die einzelnen Suchanfragen aufzurufen, dann wird man feststellen, dass nicht immer alle diese One Shots angezeigt werden. Es handelt sich insofern in etwa um die dunkle Materie von Google, die man nie wirklich vollumfänglich sieht und versteht. Es wird für diese Suchen zwar ein Seitenaufruf in Analytics registriert (d.h. die Impressionen und Klicks werden angezeigt), jedoch wird die dazuführende Suchanfrage in den Berichten nicht immer gelistet.

Es ist besonders Schwierig auf solche One Shots zu optimieren, obwohl Sie mit 15% der Suchanfragen durchaus einen relevanten Teil der Suche ausmachen können und die Mühe durchaus Wert wären. – Das wichtigste bei der Optimierung ist zu aller erst die Keywordrecherche. Da unterschiedliche Keywordtools auch unterschiedliche Keywords oder zumindest unterschiedlichen Traffic anzeigen macht es Sinn, mehrere Keywordtools zu nutzen und die Ergebnisse in einer Tabelle zu konsolidieren. Wichtig dabei ist es, alle relevanten Kombinationen (egal ob sinnig oder unsinnig) abzudecken. Darüber hinaus ist es wichtig, gefundene Keywords nicht aufgrund der eigenen Produktpalette umzubennen. Wenn zum Beispiel viele Leute nach „Sneaker Weiss“ suchen, dann sollte man auf der Seite nicht mit „Sneaker White“ auszeichnen. Sofern man dann alle relevanten Keywords identifiziert hat ist es nun wichtig, die wichtigsten Kombinationen auf der Website einzubauen bzw. aufzuführen. Am Beispiel „Sneaker“ könnte das die Kombination „Weisse Sneaker Adidas Stan“ sein!

Zusammenfassend kann man sagen, dass das wichtigste in Bezug auf einzigartige Suchanfragen eine detaillierte Keywordrecherche und ein gut gebriefter Texter ist. Alle relevanten Keywordkombinationen sollten abgedeckt werden, um möglichst viel des dunkle Materien Potentials abzugreifen!

Interne Verlinkung korrekt einsetzen

Maßgebend für die interne Verlinkung ist die URL-Struktur. Die optimale URL-Struktur sollte idealerweise die thematische Struktur der Website abbilden und eine sinnvolle und durchdachte Themenkanalisierung ermöglichen, um Besuchern eine intuitive Navigation durch die Website-Inhalte zu offerieren. Dies erleichtert auch den Suchmaschinen die thematische Einordnung einzelner Seiten. Eine URL sollte statisch und sprechend sein und das jeweils relevante Keyword enthalten. Sie sollte kurz und prägnant sein, Füllwörter vermeiden, kein Leerzeichen und keine Sonderzeichen beinhalten sowie zum Trennen ausschließlich Bindestriche verwenden. Die daran gekoppelte interne Verlinkung soll die Erreichbarkeit und Gewichtung interner Seiten sicherstellen. Dies unter der Beachtung von Keywords für einzelne Themen der Landingpages und unter Vermeidung von Keywordkannibalisierung (Mehrere Landingpages mit dem gleichen Anchor-Text). Hinweis: Bei der internen Verlinkung ist die Verlinkung mit relevanten Anchor-Texten nützlich und sinnvoll aber bei externer Verlinkung (Linkaufbau) kann übertriebene Verwendung von Anchor-Texten zu Abstrafungen führen. Grundsätzlich ist auf Basis des Random Surfer Modells jeder Link auf einer Seite eine Möglichkeit zu klicken. Deswegen gilt es genau zu überlegen, welches wirklich wichtige Links sind und auf welche auch verzichtet werden kann, um Link Juice zu sparen.

Der Link Juice betrifft die Verteilung von Backlinks innerhalb einer Webseite und die Stärke oder Reputation dieser Links (Pagerank). Sowohl die Anzahl als auch die Qualität der Links bestimmen, wie sich der Link Juice zusammensetzt und welche Wirkung er auf die Unterseiten hat. Obwohl es eine idealtypische Struktur einer Website gibt, die hierarisch aufegbaut ist, gibt es durchaus auch Verlinkungen von der Startseite auf Seiten, die mehr als eine Hierarchieebene tiefer liegen. Hinweis: An dieser Stelle lässt sich noch das Stichwort Panda-Diät anführen, welches suggeriert das nicht alle Seiten zwangsläufig in den Index gehören und dass man sich hier in erster Linie auf den wichtigen Inhalt beschränken sollte, um nicht vom Panda abgestraft zu werden.

Checkliste für die interne Verlinkung
  1. Regel: Themenrelevant intern verlinken
  2. Regel: Wichtige Keywords über Navigation und Top-Listen verwenden
  3. Regel: Breadcrumbs mit sinnvollen Keywords verwenden
  4. Regel: Gleiche Anchor-Texte für verschiedene Seiten unbedingt vermeiden
  5. Regel: Kaputte Links intern vermeiden
  6. Regel: Interne Verlinkung priorisieren, nicht alles hat intern die gleiche Relevanz
  7. Regel: Anzahl der ausgehenden Links reduzieren
  8. Regel: Verlinkung unter „hier“, „mehr“, „mehr Informationen“ vermeiden
  9. Regel: Mehrfachverlinkung von einer Seite mit dem gleichen Ziel (der erste Link im QC zählt)

Als Hyperlink, auch kurz Link (engl. für „Verknüpfung, Verbindung, Verweis“), amtsdeutsch elektronischer Verweis, bezeichnet man einen Querverweis auf ein anderes Dokument innerhalb eines Hypertextes, der automatisch durch das „Hypertextsystem“ verfolgt werden kann. Das Konzept von Hyperlinks entspricht funktional dem Querverweis oder der Fußnote aus der konventionellen Literatur, bei der das Ziel des Verweises allerdings in der Regel manuell aufgesucht werden muss. Man spricht von einem verlinktem Dokument, wenn es mindestens einen Hyperlink enthält, der auf ein zweites Dokument gerichtet ist. Doch warum werden Links überhaupt gesetzt? Es sind Hinweise auf gute Inhalte, Websites und Angebote. Diese macht man aufgrund vertraglicher Beziehungen oder als affiliate Links, zur näheren Erläuterung, Linkkauf oder um das eigene Ranking zu steigern.

Im Linkmarketing gibt es viele verschiedene Wege seine Website Links zu versehen. Dabei sind einige als eher unnatürlich zu werten und wieder andere als natürlich. Während natürliche Links von Google belohnt werden, sind es vor allem die unnatürlichen Links, die Google abstraft und somit einen negativen Einfluss auf die Gesamtreputation der Website nehmen. Natürliche Links sind zumeist schwer zu skalieren, haben eigentlich keine erkennbaren Muster und man hat im Wesentlichen keinen Einfluss auf die Anchor-Texte. Negative und unnatürliche Links sind dementgegen in der Regel stark automatisiert, folgen Mustern und haben klare und eindeutige Anchor-Texte. Die nachfolgende Grafik zeigt die verschiedenen Möglichkeiten des Linkmarketings unter der Berücksichtigung der entsprechenden Natürlichkeit.

Wenn es um Link Juice geht, ist der Google Crawler in der Regel nicht weit weg. Denn dieser lässt sich über die robots.txt sowie die „index/noindex“ und „follow/nofollow“-Attribute steuern, um wichtige Seiten bewusst anzusteuern und unwichtige Seiten bewusst auszuschließen. Dies würde man in der Regel nur bei sehr umfangreichen Seiten und Seiten mit einer tiefen Hierarchie machen, da man mit dieser Technik vor allem Link Juice sparen will. Je flacher die Hierarchie, desto mehr Seiten werden vom Crawler erreicht und desto weniger Link Juice geht verloren. Man kann somit Sackgassen auflösen und mit Links den Crawler auf wichtige Seiten weiterleiten um den Crawler und Link Juice besser zu verteilen. Letzen Endes hält man den Crawler einfach nicht von den wichtigen Seiten ab und fokussiert sich auf wichtige Inhalte. Über die robots.txt können Webmaster den Bots demnach sagen, welche Verzeichnisse nicht betreten werden sollen, was aber nicht bedeutet, dass die Seiten nicht im Index auftauchen. Ungeachtet dessen ist es aber besser, die robots.txt nicht zu benutzen um den Crawler zu steuern! So etwas verursacht zu viele Probleme (Blocken von wichtigen Verzeichnissen) zumal es bessere Alternativen dazu gibt. Wichtig ist nur, dass die XML Sitemap in der robots.txt steht.

Eine Seite sollte von Google gecrawlt werden, wenn wenn eine Seite (URL) in den Index aufgenommen werden soll, wenn eine URL eingehende Links besitzt (egal ob interne oder externe), damit der Link Juice weitergegeben werden kann, wenn die URL Verlinkungen enthält, die für eine Indexierung weiterer Seiten benötigt werden oder die URL in den Index aufgenommen werden und ranken soll. Sofern die Seite einzigartige und nützliche (Panda) Inhalte enthält und zugleich Nutzer in der Suchmaschine nach diesen Inhalten suchen, dann sollte die Seite nicht nur gecrawlt, sondern auch indexiert werden. Dies erreicht man, indem man einen Link mit einem Attribut versieht, welches mit „rel=“ im Link ausgezeichnet wird. Während die Indexierung einer Seite, direkt im Quellcode der Seite oder über ein Plugin festgelegt wird, betrifft die Auszeichnung mit den Attributen nur die Frage ob dem Link gefolgt oder nicht gefolgt wird. Ein rel=nofollow-Attribut wird verwendet, wenn man dem Linkziel nicht vertrauen kann, z.B. in Gästebüchern wo die User auch Links (& Spam) platzieren können. Ist ein nofollow-Attribut gesetzt, so übergibt dieser Link keinen Link Juice und Trust an die verlinkte Seite. Obwohl ein nofollow-Link nicht die Indexierung der Seite verhindert hat er seit 2009 auch keinen positiven Effekt mehr auf das Link Sculpting. Insofern ist es auch nicht so sinnvoll, darüber den Crawler zu steuern, sondern eher, um ihm Signale zu geben.

Ein weiteres wichtiges Attribut ist die Auszeichnung von Canonicals. „Eine kanonische Seite ist die bevorzugte Version mehrerer Seiten mit ähnlichen Inhalten. Es ist im Allgemeinen üblich, dass eine Website über mehrere Seiten verfügt, die die gleichen Produkte auflisten.“ Das Canonical ist eng mit der Weiterleitung/Redirect über die Statuscodes verwandt, hat aber einen großen Vorteil gegenüber der 301. Denn die Seite unter der URL bleibt bestehen und sichtbar für die Besucher. Der Unterschied ist aber, dass der Link Juice auf die vom Canonical verlinkte Seite weitergeleitet wird.

Sinnvoll weiterleiten

Es ist sehr wichtig fehlerhafte Links, die mit dem Status Code 404 gekennzeichnet sind, sinnvoll weiterzuleiten. Typische Tool´s um derartige Links zu identifizieren sind unter anderem die Google Search Console, Google Analytics, Ryte oder Moz.com. Es gibt eine ganze Reihe an Statuscodes, die verschiedene Aussagen dazu treffen, ob und wenn ja mit welchen Attributen weitergeleitet wird. Die relevantesten und am häufigsten verwendeten Statuscodes sind 200 (alles Ok), 301 (dauerhafte Weiterleitung), 302 (temporäre Weiterleitung), 404 (not found) und 410 (Gone). Eine ausführliche Aufstellung aller Statuscodes gibt es unter https://de.wikipedia.org/wiki/HTTP-Statuscode#Liste_der_HTTP-Statuscodes.

Ein weiterer wichtiger Faktor bei Links ist das Random Surfer Modell, von Larry Page und Sergey Brin. Es liefert eine Berechnungsgrundlage für den PageRank von Google und prognostiziert eine Wahrscheinlichkeit, mit der ein zufälliger Nutzer eine Website besucht.

Grobaussage von Google: Google folgt keinen NoFollow-Links! Das bedeutet, dass kein PageRank oder Anchor-Text für diese Links gewertet wird. Sie sind also keine Hilfe für den PageRank, können aber dennoch nützlich sein, um Traffic auf die Site zu lenken. Genauso wichtig ist die Priorisierung des Crawlens. Da sich die Such-Robots von Google nicht als Mitglied bei einem Forum anmelden oder registrieren lassen können, ist es wenig sinnvoll, die Googlebots Links wie „Hier registrieren“ oder „Anmelden“ verfolgen zu lassen. Werden derartige Links mit dem „nofollow“-Attribut versehen, können die Googlebots andere Seiten crawlen, die eine höhere Relevanz für den Google-Index besitzen.

Der Trend geht weg von der Optimierung auf Keywords und hin zu einer Optimierung auf die Nutzer-Bedarfsgruppen. Dahingehend hat der Webmaster und Trend-Analyst John Müller von Google gesagt: „Es gibt keine Minimumlänge für Content, man muss keine Mindestanzahl an Artikeln posten und die Website muss auch nicht eine bestimmte Anzahl von Seiten haben. In den meisten Fällen ist Qualität besser als Quantität. Unsere Algorithmen versuchen gezielt Websites zu finden und zu empfehlen, die qualitativ hochwertigen und uniquen Content bereitstellen, der Nutzer anspricht. Fülle Deine Seite nicht mit Inhalten minderer Qualität, sondern stelle vielmehr sicher, dass Deine Seite die absolut beste ihrer Art ist! Um sinnvolle Inhalte zu Erschließen muss man sich fragen, was die Hauptaspekte eines Produktes oder einer Dienstleistung sind, welche Fragenkomplexe Nutzer dazu haben und wie diese Aspekte am besten beantwortet werden können.

Regel Nummer Eins beim Schreiben für Web lautet: „Das Wichtigste kommt immer zuerst.“ Denn Internetnutzer sind auf der Suche nach Informationen – Sie wollen Antworten auf ihre Fragen finden. Es gilt jedoch zu beachten, dass der Aufbau und die Sprache von Online-Texten sich von Offline-Texten unterscheidet. Online lesen wir oftmals langsamer, mit stärkerem Themenfokus, in beide Richtungen und mit der Chance weiterführende Infos zu bekommen. Es gibt somit einen Wandel zur Pull-Kommunikation, in der User aktiv nach Seiten und Informationen suchen können. Dies erfordert jedoch ein hybrides Schreiben, bei dem man für Nutzer aber auch für Suchmaschinen schreibt.

Tipp´s: Aussagekräftige Headlines verwenden, spannender Teaser-Texte einbetten, Bilder/Grafiken einsetzen, Schlüsselwörter fetten, aussagekräftige Zwischenüberschriften einsetzen, sinnvolle Textabsätze nutzen, weiterführende Links hinzufügen und Bullet Points hervorheben.

7 Dinge, die bei der OnPage-Optimierung vermieden werden sollten
  1. Erstelle keinen „SEO-Content“
  2. Vermeide Keyword Wiederholung (Vertikal & Horizontal)
  3. Vermeide Fehlerquellen (Grammatik, Rechtschreibung, 404 etc.)
  4. Vermeide störende Werbung
  5. MainContent niemals „under the hold“ einbetten
  6. Auf zusätzliche Inhalte verzichten (oft nutzlos oder überflüssig)
  7. Bei gekauften Links niemals auf die Auszeichnung verzichten (nofollow)
7 Dinge, die bei der OnPage-Optimierung vermieden werden sollten
  1. Auf die Einzigartigkeit der Inhalte achten
  2. Relevanz des Keywordings an den Zielgruppen ausrichten
  3. Fokus auf TaskCompletion (Das Problem von Nutzern effizient lösen)
  4. Die Nutzbarkeit auf allen Endgeräten gut strukturiert darstellen
  5. Vertrauen durch „Über uns, Kontaktseiten bzw. Hilfeseiten“ aufbauen
  6. Nutzersignale, wie Absprungrate und Verweildauer berücksichtigen
  7. Inhalte von Expertenseiten (OffPage) aus dem Umfeld verlinken

Bereit für einen Wandel?

Jetzt Kontakt aufnehmen!

5 + 11 =