SEO für kleine und mittlere Unternehmen (KMU)

Nur wer gefunden wird, bekommt auch Aufträge. Doch damit das auch funktioniert, ist eine solide Internetpräsenz quasi Pflicht für ein Unternehmen einer jeden Größe. Ich helfe dir dabei, eine Website aufzubauen und diese fit für Google zu machen, damit du für die von dir angebotenen Leistungen auch gefunden wirst.

zurück zur Startseite >

Meine Leistungen für KMU im Überblick

Im digitalen Zeitalter ist es für die Unternehmen von sehr großer Wichtigkeit, in den Suchmaschinen möglichst weit oben aufgelistet zu werden. Hierfür müssen auf der Website aber gegebenenfalls Maßnahmen ergriffen werden, die aber nicht jeder kennt und beherrscht. Die Suchmaschinenoptimierung (SEO) ist dabei inzwischen ein besonders wichtiges Thema für große aber auch für kleine und mittlere Unternehmen (KMU).

Dabei ist SEO vor allem für den Erfolg von Betrieben wichtig, um im Netz aufzufallen und einen wichtigen Schritt vor der Konkurrenz zu sein. Unterstützen können dabei maßgeblich Online Marketing Agenturen, die jedoch in der Regel aufgrund der Kostenstrukturen nicht für jedes Budget infrage kommen.

Daher ist es für kleine und mittlere Betriebe oftmals nicht uneingeschränkt möglich, auf die Suchmaschinenoptimierung (Search Engine Optimization) durch Online Marketing Agenturen zurückzugrifen aber auch nicht auf diese gänzlich zu verzichten. Mit einer gut entwickelten Strategie kann diese Maßnahme für KMU aber eine bedeutende Komponente zum Erfolg sein und sollte geprüft werden.

Es ist insgesamt nicht einfach, sich im Wettbewerb gegen große Betriebe in Suchmaschinen wie Google oder Bing durchzusetzen. Als Anwender klickt man hier in der Regel immer auf die ersten Suchergebnisse und geht nicht erst bis zur zweiten Suchergebnisseite. Das wissen zwar nicht nur die großen Unternehmen, jedoch gibt es dort im Zweifel ganze Abteilungen, die sich nur darum kümmern, in den Suchmaschinen ganz weit oben zu stehen. Für manche Online Marketing Abteilungen ist es sogar die wichtigste Metrik und die Rankings bei Google werden jeden Tag geprüft. Search Engine Optimization ist daher eine hochprofessionelles Business und bietet viele unterschiedliche Stellhebel, damit KMUs mit den großen Konzernen im Netz mithalten können. So kommen entsprechend mehr potenzielle Kunden auf die Seite, wodurch  SEO für KMUs ebenso wichtig ist, wie für große Konzerne.

 

Was bedeutet Suchmaschinenoptimierung überhaupt?

Search Engine Optimization, auch SEO oder Suchmaschinenoptimierung genannt, ist neben Search Engine Advertising, auch SEA Suchmaschinenwerbung genannt, das Zentrum des Suchmaschinenmarketings und zielt darauf ab, in den Suchmaschinen (z.B. bei Google oder Bing) in der Ergbenisliste möglichst weit oben zu stehen. Die natürliche bzw. die organische Suche bezieht sich hierbei auf jene Suchergebnisse, für die der Websitebetreiber nicht bezahlt bzw. für deren Platzierung er nicht bezahlt. Gerade für hart umkämpfte Suchbegriffe mit einem hohen Suchvolumen ist das Ranking auf der ersten Suchergebnisseite bei Google relativ schwer zu ergattern. Es erfordert die kontinuierliche Optimierung des Contents, des technischen Setups und bis zu 200 anderer Faktoren.

Warum ist Search Engine Optimization für kleine und mittlere Unternehmen so wichtig?

Bei der Suchmaschinenoptimierung solltest Du als Anwender immer an Dein eigenes Kaufverhalten denken. Oft gehst Du meistens zuerst ins Internet und suchst hier nach dem passenden Produkt oder nach Dienstleistungen, die Deinen eigenen Erwartungen und Anforderungen entsprechen. Dies machen eine Vielzahl der Kunden. Bei den Suchmaschinen wie Google gibst Du dabei deine Suchanfrage ein und klickst meistens auf eines der ersten zwei oder drei aufgelisteten Ergebnisse.

Taucht Dein Betrieb zu einer speziellen Suchanfrage nicht auf den ersten drei Plätzen auf, wird meistens kein Kunde auf Dich und Deinen Betrieb aufmerksam und Du überlässt den Konkurrenten das Feld. Damit Du nun mehr Kunden, mehr Expansion und mehr Umsatz generieren kannst, sollte Deine Website zu relevanten Keywords bei Google zumindest auf der ersten Seite, im besten Fall auf den ersten Plätzen gelistet sein, denn hier erhält die Website den meisten Traffic. Wenn es dich interessiert, wie hoch die Klickwahrscheinlichkeit für die erste Suchergebnisseite bei Google ist, schaue doch mal bei Sistrix vorbei. Sogar das 10.te Suchergebnis erhält nur nch 0,17% der Klicks. Auf Seite zwei entfallen also schon jetzt nur noch unter 0,17%.

iphone-ads

Du möchtest bei Google und Bing weiter oben stehen und für relevante Suchbegriffe gefunden werden?

Die Vorteile durch Search Engine Optimization für KMU

Viele kleine und mittlere Betriebe, welche sich für die Suchmaschinenoptimierung entscheiden, fragen sich oftmals, was die positiven Gesichtspunkte bei der Zusammenarbeit mit SEO-Agenturen sind. Dabei ist das ganz einfach: Online-Marketing-Agenturen oder auch SEO-Agenturen setzen sich jeden Tag mit der Optimierung von Webseiten der Kunden auseinander und können daher auch KMUs optimal bei der Verbesserung der eigenen Homepage unterstützen. Durch die Zusammenarbeit mit einer solchen Agentur entstehen für Dich als Kunden viele Vorteile. Durch die Maßnahmen der Optimierung kann die Sichtbarkeit spürbar erhöht werden, wodurch du für mehr Suchbegriffe bzw. Keywords gefunden wirst. Hierdurch bekommst du mehr Traffic auf deine Seite und musst diesen dann aber auch zum konvertieren also zum Kaufabschluss oder zur Abgabe einer Anfrage bringen.

Anwender unterscheiden beim SEO in OnPage- und die OffPage Optimierungen. Bei den OnPage-Optimierungen werden Faktoren optimiert, die direkt auf der Webseite beeinflusst werden können. Dies sind zum Beispiel das Erstellen und Optimieren von Meta Descriptions und Title Tags oder die Anpassung und Auszeichnung des Contents, sodass die Seite passend strukturiert ist und von den Suchmaschinen besser verstanden und gelesen werden kann.

Bei der OffPage-Optimierung geht es hingegen um ein solides Backlinkprofil, wobei es hier wichtig ist, die erstellten Seiten nach Möglichkeit optimal intern und auch ausreichend von extern zu verlinken oder verlinken zu lassen. Da aber weitestgehend nur hochwertige Inhalte ausreichend von extern verlinkt werden, muss man die eigene Seite optimieren und ggf. hochwertigen Content produzieren lassen.

Zusammengefasst wird ist das Ziel von SEO daher, mehr Reichweite zu erzielen und langfristig mehr Traffic auf die Seite zu bringen. SEO ist also eine Disziplin des Marketings und reicht von lokalem SEO (Local SEO) über die Akquise von Kunden auf der ganzen Welt bis hin zur Stärkung der Markenpräsenz.

Meine Empfehlung für dich?

Nicht bei jeder Website ist SEO einfach umsetzbar. Gerade Website-Baukästen, wie die von Jimdo, Wix, etc. schränken das ganze stark ein und daher sollten wir uns die Website erstmal anschauen, bevor wir uns über den Umfang der notwendigen Optimierungen unterhalten. Nutze daher gerne mein Anfrageformular oder den Chatbot, um die für dich passende Leistung zu finden.

Weitere SEO-Themen

Der richtige Umgang mit einzigartigen Suchanfragen

Mind 15% der Suchanfragen, die bei Google registriert werden, sind in dieser Kombination vorher noch nie gesucht worden! Diese einzigartigen Suchanfragen werden auch „ONE SHOTS“ genannt! Diese wurden so noch nie gesucht und werden es vermutlich auch nicht mehr! – Wenn man in der Google Search Console versucht, die einzelnen Suchanfragen aufzurufen, dann wird man feststellen, dass nicht immer alle diese One Shots angezeigt werden. Es handelt sich insofern in etwa um die dunkle Materie von Google, die man nie wirklich vollumfänglich sieht und versteht. Es wird für diese Suchen zwar ein Seitenaufruf in Analytics registriert (d.h. die Impressionen und Klicks werden angezeigt), jedoch wird die dazuführende Suchanfrage in den Berichten nicht immer gelistet.

Es ist besonders Schwierig auf solche One Shots zu optimieren, obwohl Sie mit 15% der Suchanfragen durchaus einen relevanten Teil der Suche ausmachen können und die Mühe durchaus Wert wären. – Das wichtigste bei der Optimierung ist zu aller erst die Keywordrecherche. Da unterschiedliche Keywordtools auch unterschiedliche Keywords oder zumindest unterschiedlichen Traffic anzeigen macht es Sinn, mehrere Keywordtools zu nutzen und die Ergebnisse in einer Tabelle zu konsolidieren. Wichtig dabei ist es, alle relevanten Kombinationen (egal ob sinnig oder unsinnig) abzudecken. Darüber hinaus ist es wichtig, gefundene Keywords nicht aufgrund der eigenen Produktpalette umzubennen. Wenn zum Beispiel viele Leute nach „Sneaker Weiss“ suchen, dann sollte man auf der Seite nicht mit „Sneaker White“ auszeichnen. Sofern man dann alle relevanten Keywords identifiziert hat ist es nun wichtig, die wichtigsten Kombinationen auf der Website einzubauen bzw. aufzuführen. Am Beispiel „Sneaker“ könnte das die Kombination „Weisse Sneaker Adidas Stan“ sein!

Zusammenfassend kann man sagen, dass das wichtigste in Bezug auf einzigartige Suchanfragen eine detaillierte Keywordrecherche und ein gut gebriefter Texter ist. Alle relevanten Keywordkombinationen sollten abgedeckt werden, um möglichst viel des dunkle Materien Potentials abzugreifen!

Interne Verlinkung korrekt einsetzen

Maßgebend für die interne Verlinkung ist die URL-Struktur. Die optimale URL-Struktur sollte idealerweise die thematische Struktur der Website abbilden und eine sinnvolle und durchdachte Themenkanalisierung ermöglichen, um Besuchern eine intuitive Navigation durch die Website-Inhalte zu offerieren. Dies erleichtert auch den Suchmaschinen die thematische Einordnung einzelner Seiten. Eine URL sollte statisch und sprechend sein und das jeweils relevante Keyword enthalten. Sie sollte kurz und prägnant sein, Füllwörter vermeiden, kein Leerzeichen und keine Sonderzeichen beinhalten sowie zum Trennen ausschließlich Bindestriche verwenden. Die daran gekoppelte interne Verlinkung soll die Erreichbarkeit und Gewichtung interner Seiten sicherstellen. Dies unter der Beachtung von Keywords für einzelne Themen der Landingpages und unter Vermeidung von Keywordkannibalisierung (Mehrere Landingpages mit dem gleichen Anchor-Text). Hinweis: Bei der internen Verlinkung ist die Verlinkung mit relevanten Anchor-Texten nützlich und sinnvoll aber bei externer Verlinkung (Linkaufbau) kann übertriebene Verwendung von Anchor-Texten zu Abstrafungen führen. Grundsätzlich ist auf Basis des Random Surfer Modells jeder Link auf einer Seite eine Möglichkeit zu klicken. Deswegen gilt es genau zu überlegen, welches wirklich wichtige Links sind und auf welche auch verzichtet werden kann, um Link Juice zu sparen.

Der Link Juice betrifft die Verteilung von Backlinks innerhalb einer Webseite und die Stärke oder Reputation dieser Links (Pagerank). Sowohl die Anzahl als auch die Qualität der Links bestimmen, wie sich der Link Juice zusammensetzt und welche Wirkung er auf die Unterseiten hat. Obwohl es eine idealtypische Struktur einer Website gibt, die hierarisch aufegbaut ist, gibt es durchaus auch Verlinkungen von der Startseite auf Seiten, die mehr als eine Hierarchieebene tiefer liegen. Hinweis: An dieser Stelle lässt sich noch das Stichwort Panda-Diät anführen, welches suggeriert das nicht alle Seiten zwangsläufig in den Index gehören und dass man sich hier in erster Linie auf den wichtigen Inhalt beschränken sollte, um nicht vom Panda abgestraft zu werden.

Checkliste für die interne Verlinkung
  1. Regel: Themenrelevant intern verlinken
  2. Regel: Wichtige Keywords über Navigation und Top-Listen verwenden
  3. Regel: Breadcrumbs mit sinnvollen Keywords verwenden
  4. Regel: Gleiche Anchor-Texte für verschiedene Seiten unbedingt vermeiden
  5. Regel: Kaputte Links intern vermeiden
  6. Regel: Interne Verlinkung priorisieren, nicht alles hat intern die gleiche Relevanz
  7. Regel: Anzahl der ausgehenden Links reduzieren
  8. Regel: Verlinkung unter „hier“, „mehr“, „mehr Informationen“ vermeiden
  9. Regel: Mehrfachverlinkung von einer Seite mit dem gleichen Ziel (der erste Link im QC zählt)

Als Hyperlink, auch kurz Link (engl. für „Verknüpfung, Verbindung, Verweis“), amtsdeutsch elektronischer Verweis, bezeichnet man einen Querverweis auf ein anderes Dokument innerhalb eines Hypertextes, der automatisch durch das „Hypertextsystem“ verfolgt werden kann. Das Konzept von Hyperlinks entspricht funktional dem Querverweis oder der Fußnote aus der konventionellen Literatur, bei der das Ziel des Verweises allerdings in der Regel manuell aufgesucht werden muss. Man spricht von einem verlinktem Dokument, wenn es mindestens einen Hyperlink enthält, der auf ein zweites Dokument gerichtet ist. Doch warum werden Links überhaupt gesetzt? Es sind Hinweise auf gute Inhalte, Websites und Angebote. Diese macht man aufgrund vertraglicher Beziehungen oder als affiliate Links, zur näheren Erläuterung, Linkkauf oder um das eigene Ranking zu steigern.

Im Linkmarketing gibt es viele verschiedene Wege seine Website Links zu versehen. Dabei sind einige als eher unnatürlich zu werten und wieder andere als natürlich. Während natürliche Links von Google belohnt werden, sind es vor allem die unnatürlichen Links, die Google abstraft und somit einen negativen Einfluss auf die Gesamtreputation der Website nehmen. Natürliche Links sind zumeist schwer zu skalieren, haben eigentlich keine erkennbaren Muster und man hat im Wesentlichen keinen Einfluss auf die Anchor-Texte. Negative und unnatürliche Links sind dementgegen in der Regel stark automatisiert, folgen Mustern und haben klare und eindeutige Anchor-Texte. Die nachfolgende Grafik zeigt die verschiedenen Möglichkeiten des Linkmarketings unter der Berücksichtigung der entsprechenden Natürlichkeit.

Wenn es um Link Juice geht, ist der Google Crawler in der Regel nicht weit weg. Denn dieser lässt sich über die robots.txt sowie die „index/noindex“ und „follow/nofollow“-Attribute steuern, um wichtige Seiten bewusst anzusteuern und unwichtige Seiten bewusst auszuschließen. Dies würde man in der Regel nur bei sehr umfangreichen Seiten und Seiten mit einer tiefen Hierarchie machen, da man mit dieser Technik vor allem Link Juice sparen will. Je flacher die Hierarchie, desto mehr Seiten werden vom Crawler erreicht und desto weniger Link Juice geht verloren. Man kann somit Sackgassen auflösen und mit Links den Crawler auf wichtige Seiten weiterleiten um den Crawler und Link Juice besser zu verteilen. Letzen Endes hält man den Crawler einfach nicht von den wichtigen Seiten ab und fokussiert sich auf wichtige Inhalte. Über die robots.txt können Webmaster den Bots demnach sagen, welche Verzeichnisse nicht betreten werden sollen, was aber nicht bedeutet, dass die Seiten nicht im Index auftauchen. Ungeachtet dessen ist es aber besser, die robots.txt nicht zu benutzen um den Crawler zu steuern! So etwas verursacht zu viele Probleme (Blocken von wichtigen Verzeichnissen) zumal es bessere Alternativen dazu gibt. Wichtig ist nur, dass die XML Sitemap in der robots.txt steht.

Eine Seite sollte von Google gecrawlt werden, wenn wenn eine Seite (URL) in den Index aufgenommen werden soll, wenn eine URL eingehende Links besitzt (egal ob interne oder externe), damit der Link Juice weitergegeben werden kann, wenn die URL Verlinkungen enthält, die für eine Indexierung weiterer Seiten benötigt werden oder die URL in den Index aufgenommen werden und ranken soll. Sofern die Seite einzigartige und nützliche (Panda) Inhalte enthält und zugleich Nutzer in der Suchmaschine nach diesen Inhalten suchen, dann sollte die Seite nicht nur gecrawlt, sondern auch indexiert werden. Dies erreicht man, indem man einen Link mit einem Attribut versieht, welches mit „rel=“ im Link ausgezeichnet wird. Während die Indexierung einer Seite, direkt im Quellcode der Seite oder über ein Plugin festgelegt wird, betrifft die Auszeichnung mit den Attributen nur die Frage ob dem Link gefolgt oder nicht gefolgt wird. Ein rel=nofollow-Attribut wird verwendet, wenn man dem Linkziel nicht vertrauen kann, z.B. in Gästebüchern wo die User auch Links (& Spam) platzieren können. Ist ein nofollow-Attribut gesetzt, so übergibt dieser Link keinen Link Juice und Trust an die verlinkte Seite. Obwohl ein nofollow-Link nicht die Indexierung der Seite verhindert hat er seit 2009 auch keinen positiven Effekt mehr auf das Link Sculpting. Insofern ist es auch nicht so sinnvoll, darüber den Crawler zu steuern, sondern eher, um ihm Signale zu geben.

Ein weiteres wichtiges Attribut ist die Auszeichnung von Canonicals. „Eine kanonische Seite ist die bevorzugte Version mehrerer Seiten mit ähnlichen Inhalten. Es ist im Allgemeinen üblich, dass eine Website über mehrere Seiten verfügt, die die gleichen Produkte auflisten.“ Das Canonical ist eng mit der Weiterleitung/Redirect über die Statuscodes verwandt, hat aber einen großen Vorteil gegenüber der 301. Denn die Seite unter der URL bleibt bestehen und sichtbar für die Besucher. Der Unterschied ist aber, dass der Link Juice auf die vom Canonical verlinkte Seite weitergeleitet wird.

Sinnvoll weiterleiten

Es ist sehr wichtig fehlerhafte Links, die mit dem Status Code 404 gekennzeichnet sind, sinnvoll weiterzuleiten. Typische Tool´s um derartige Links zu identifizieren sind unter anderem die Google Search Console, Google Analytics, Ryte oder Moz.com. Es gibt eine ganze Reihe an Statuscodes, die verschiedene Aussagen dazu treffen, ob und wenn ja mit welchen Attributen weitergeleitet wird. Die relevantesten und am häufigsten verwendeten Statuscodes sind 200 (alles Ok), 301 (dauerhafte Weiterleitung), 302 (temporäre Weiterleitung), 404 (not found) und 410 (Gone). Eine ausführliche Aufstellung aller Statuscodes gibt es unter https://de.wikipedia.org/wiki/HTTP-Statuscode#Liste_der_HTTP-Statuscodes.

Ein weiterer wichtiger Faktor bei Links ist das Random Surfer Modell, von Larry Page und Sergey Brin. Es liefert eine Berechnungsgrundlage für den PageRank von Google und prognostiziert eine Wahrscheinlichkeit, mit der ein zufälliger Nutzer eine Website besucht.

Grobaussage von Google: Google folgt keinen NoFollow-Links! Das bedeutet, dass kein PageRank oder Anchor-Text für diese Links gewertet wird. Sie sind also keine Hilfe für den PageRank, können aber dennoch nützlich sein, um Traffic auf die Site zu lenken. Genauso wichtig ist die Priorisierung des Crawlens. Da sich die Such-Robots von Google nicht als Mitglied bei einem Forum anmelden oder registrieren lassen können, ist es wenig sinnvoll, die Googlebots Links wie „Hier registrieren“ oder „Anmelden“ verfolgen zu lassen. Werden derartige Links mit dem „nofollow“-Attribut versehen, können die Googlebots andere Seiten crawlen, die eine höhere Relevanz für den Google-Index besitzen.

Der Trend geht weg von der Optimierung auf Keywords und hin zu einer Optimierung auf die Nutzer-Bedarfsgruppen. Dahingehend hat der Webmaster und Trend-Analyst John Müller von Google gesagt: „Es gibt keine Minimumlänge für Content, man muss keine Mindestanzahl an Artikeln posten und die Website muss auch nicht eine bestimmte Anzahl von Seiten haben. In den meisten Fällen ist Qualität besser als Quantität. Unsere Algorithmen versuchen gezielt Websites zu finden und zu empfehlen, die qualitativ hochwertigen und uniquen Content bereitstellen, der Nutzer anspricht. Fülle Deine Seite nicht mit Inhalten minderer Qualität, sondern stelle vielmehr sicher, dass Deine Seite die absolut beste ihrer Art ist! Um sinnvolle Inhalte zu Erschließen muss man sich fragen, was die Hauptaspekte eines Produktes oder einer Dienstleistung sind, welche Fragenkomplexe Nutzer dazu haben und wie diese Aspekte am besten beantwortet werden können.

Regel Nummer Eins beim Schreiben für Web lautet: „Das Wichtigste kommt immer zuerst.“ Denn Internetnutzer sind auf der Suche nach Informationen – Sie wollen Antworten auf ihre Fragen finden. Es gilt jedoch zu beachten, dass der Aufbau und die Sprache von Online-Texten sich von Offline-Texten unterscheidet. Online lesen wir oftmals langsamer, mit stärkerem Themenfokus, in beide Richtungen und mit der Chance weiterführende Infos zu bekommen. Es gibt somit einen Wandel zur Pull-Kommunikation, in der User aktiv nach Seiten und Informationen suchen können. Dies erfordert jedoch ein hybrides Schreiben, bei dem man für Nutzer aber auch für Suchmaschinen schreibt.

Tipp´s: Aussagekräftige Headlines verwenden, spannender Teaser-Texte einbetten, Bilder/Grafiken einsetzen, Schlüsselwörter fetten, aussagekräftige Zwischenüberschriften einsetzen, sinnvolle Textabsätze nutzen, weiterführende Links hinzufügen und Bullet Points hervorheben.

7 Dinge, die bei der OnPage-Optimierung vermieden werden sollten
  1. Erstelle keinen „SEO-Content“
  2. Vermeide Keyword Wiederholung (Vertikal & Horizontal)
  3. Vermeide Fehlerquellen (Grammatik, Rechtschreibung, 404 etc.)
  4. Vermeide störende Werbung
  5. MainContent niemals „under the hold“ einbetten
  6. Auf zusätzliche Inhalte verzichten (oft nutzlos oder überflüssig)
  7. Bei gekauften Links niemals auf die Auszeichnung verzichten (nofollow)
7 Dinge, die bei der OnPage-Optimierung vermieden werden sollten
  1. Auf die Einzigartigkeit der Inhalte achten
  2. Relevanz des Keywordings an den Zielgruppen ausrichten
  3. Fokus auf TaskCompletion (Das Problem von Nutzern effizient lösen)
  4. Die Nutzbarkeit auf allen Endgeräten gut strukturiert darstellen
  5. Vertrauen durch „Über uns, Kontaktseiten bzw. Hilfeseiten“ aufbauen
  6. Nutzersignale, wie Absprungrate und Verweildauer berücksichtigen
  7. Inhalte von Expertenseiten (OffPage) aus dem Umfeld verlinken

Bereit für einen Wandel?

Jetzt Kontakt aufnehmen!

14 + 1 =