Menu
ZURÜCK
ZURÜCK
ZURÜCK
ZURÜCK
Optimieren Sie Ihren Content mit idealen Keywords, Meta-Tags und vielen weiteren Möglichkeiten, um Ihre Webseite sichtbar zu machen. Wir zeigen Ihnen wesentliche Faktoren auf, die Sie bei der OnPage-Optimierung beachten sollten.
5 VON 5 STERNEN!








Kunden, die uns vertrauen












































Wir haben für Sie die wesentlichen Faktoren sowie die Vorgehensweise für eine effektive Keywordrecherche unter Aufführung von Tipps kurz zusammengefasst.
Im Anschluss stellen wir euch unsere Tipps zur Keywordrecherche als pdf-Datei zum Download bereit.
Bekannt aus*












Unsere Bewertungen sprechen für sich: Transparent, fachkundig und ergebnisorientiert begleiten wir dich zum Online-Erfolg. So werden wir zu deiner SEO-Agentur, deren Expertise überzeugt – für dein Plus an Sichtbarkeit.
Title-Tag-Optimierung
Keywords an den Anfang einen jeden Blogposts
Interne Verlinkungen
CTR (Click-Through-Rate)
Response Code
Sitemap
Sistrix-Sichtbarkeits-Index
Regionale Suche
Weiterleitungen
TITLE-TAG-OPTIMIERUNG: WIE SIEHT DER OPTIMALE TITLE EINER WEBSEITE AUS?
Das Title-Element einer Webseite wird von Google als einer von ca. 200 Faktoren zur Berechnung des Rankings in den SERPs (zu Deutsch: Suchergebnisseiten) herangezogen. Daher zählt das Title-Element, auch Title-Tag genannt, zu den wichtigsten Faktoren, wenn es um die OnPage-Optimierung einer Website geht. Bei der Gestaltung des Title einer Seite gilt es folgende Punkte zu beachten:
Sind die wichtigsten Keywords im vorderen Teil des Title-Tags?
Google wertet die Wörter, die sich ganz am Anfang eines Title-Tags befinden, als besonders wichtig. Dies wird deutlich, wenn man nach kompetitiven Begriffen wie „Diät-Rezepte“ oder „Hörbücher“ sucht:
Wie du siehst, setzen die meisten Seiten, die für kompetitive Keywords ranken, ihre Keywords strategisch an den Anfang des Title-Tags.
Ein Beispiel: Sagen wir, du willst für das Keyword „Abnehmtipps“ ranken und musst dich zwischen zwei Title Tags entscheiden:
Überschrift 1: Abnehmtipps: 10 Strategien, um Kilos loszuwerden.
Überschrift 2: Verliere 10 Kilo mit unseren Abnehmtipps
Google würde dem ersten Title Tag mehr Bezug zu dem Thema „Abnehmtipps“ zuschreiben, weil es gleich am Anfang steht.
Quellen und weiterführende Informationen:
Sistrix: Title-Tag Optimierung: Wie sieht der optimale Title einer Webseite aus?
Google Support: Aussagekräftige Seitentitel erstellen
SEO-freundliche URLs
Viele Webseiten verwenden unnötig lange und komplizierte URLs – manchmal mit über 50 Zeichen oder mehr, wie z. B.:
Auch wenn solche Extrembeispiele nicht die Regel sind, lohnt sich immer ein kritischer Blick auf die eigene URL-Struktur. Denn: Kurze, saubere URLs sind nutzerfreundlicher und helfen beim Ranking.
Warum sind kurze URLs wichtig für SEO? Suchmaschinen wie Google nutzen URLs als Signal zur Themenzuordnung einer Seite. Je einfacher und verständlicher eine URL ist, desto besser kann der Inhalt interpretiert und eingeordnet werden. Das erhöht die Chance, dass deine Seite in den Suchergebnissen gut abschneidet. Erstelle kurze, prägnante URLs, die das Haupt-Keyword enthalten und Nutzer:innen sowie Google sofort erkennen lassen, worum es auf der Seite geht. Verzichte bei neuen Inhalten möglichst auf Kategorien oder Datumsangaben in der URL-Struktur, da sie die Lesbarkeit und Relevanz unnötig einschränken. Nutze Bindestriche (-) zur Trennung von Wörtern anstelle von Unterstrichen (_), denn Google erkennt so die einzelnen Begriffe besser. Auch die Lesbarkeit profitiert davon, z. B. ist www.musterdomain.de/gruenes-kleid.html deutlich verständlicher als www.beispielurl.de/grueneskleid.html. Eigene Tests zeigen: Extrem kurze, keywordoptimierte URLs können einen kleinen, aber messbaren Ranking-Vorteil bringen.
ÜBLICHE URSACHEN FÜR PROBLEME BEI URL-STRUKTUR:
Quellen und weiterführende Informationen:
Google Support: URL-Struktur einfach halten
Sistrix: Welche URL-Struktur bevorzugt Google?
Multimedia-Elemente bei Blogposts
Das Einbinden von Multimedia-Elementen wie Bildern, Videos, Infografiken oder Audio hat zwar keinen direkten Einfluss auf das Google-Ranking, doch es wirkt sich positiv auf die Nutzererfahrung und Interaktionsrate aus. Google misst diesen Nutzersignalen zunehmend Bedeutung bei. Hochwertige Multimedia-Inhalte steigern den wahrgenommenen Wert deines Contents, erhöhen die Verweildauer und können so indirekt auch dein Ranking verbessern, etwa durch mehr Backlinks oder geteilte Inhalte.
Empfehlung: In jedem Blogpost sollte mindestens ein visuelles oder multimediales Element eingebunden werden, das den Inhalt sinnvoll ergänzt und für zusätzliche Aufmerksamkeit sorgt.
Wir erstellen maßgeschneiderte Kampagnen, die dich nicht nur sichtbar machen, sondern auch Kunden gewinnen. Kontaktiere uns noch heute!
Title-Tag-Optimierung
Keywords an den Anfang einen jeden Blogposts
Interne Verlinkungen
CTR (Click-Through-Rate)
Response Code
Sitemap
Sistrix-Sichtbarkeits-Index
Regionale Suche
Weiterleitungen
KEYWORDS AN DEN ANFANG EINES JEDEN BLOGPOSTS
Suchmaschinen wie Google bewerten nicht nur, ob ein Keyword vorkommt, sondern auch, wo es platziert ist. Keywords, die früh im Text erscheinen – idealerweise in den ersten 100 Wörtern – werden als besonders relevant für das Thema der Seite gewertet.
Empfehlung: Platziere dein Haupt-Keyword möglichst weit vorne im Content, z. B. im Einleitungstext oder ersten Absatz. Das signalisiert Google direkt, worum es auf der Seite geht und stärkt deine Chancen auf gute Rankings.
H-Tags
Die Verwendung von H-Tags (H1 bis H6) dient der optischen Struktur und gibt Suchmaschinen wichtige Hinweise zur inhaltlichen Gewichtung deines Contents. Die H1-Überschrift ist dabei die wichtigste. Sie signalisiert Google das Hauptthema deiner Seite. Idealerweise enthält die H1 gleich zu Beginn das Fokus-Keyword.
Die meisten CMS (wie WordPress) setzen die Artikelüberschrift automatisch als H1. Manche Themes überschreiben diese Voreinstellung allerdings – im schlimmsten Fall fehlt dann das H1-Tag komplett. Du kannst das leicht überprüfen: Öffne den Seitenquelltext (Rechtsklick → Seitenquelltext anzeigen) und suche nach dem <h1>-Tag. Wenn du eine passende Überschrift dort findest, ist alles korrekt eingerichtet.
TITLE-TAG-OPTIMIERUNG: WIE SIEHT DER OPTIMALE TITLE EINER WEBSEITE AUS?
Neben der H1 helfen auch H2- und H3-Zwischenüberschriften, Inhalte für Leser:innen und Google klar zu gliedern. Sie machen den Text scannbar, erhöhen die Lesefreundlichkeit und ermöglichen Suchmaschinen eine bessere thematische Einordnung. Deshalb solltest du auch in Zwischenüberschriften gezielt dein Haupt- oder Neben-Keyword platzieren – idealerweise am Anfang der jeweiligen Überschrift.
Quellen und weiterführende Informationen:
Sistrix: Welche Überschriften (Headlines) sind SEO relevant?
Google Support: Meta-Tags, die Google versteht
Ladegeschwindigkeit deiner Webseite
Die Ladegeschwindigkeit deiner Website ist einer der wenigen Rankingfaktoren, die Google offiziell bestätigt hat. Schnelle Seiten verbessern das Nutzererlebnis und verhindern, dass Besucher frustriert abspringen, bevor sie den Inhalt überhaupt sehen. Ist die Seite zu langsam, klicken viele einfach zurück zu den Suchergebnissen und potenzielle Kund:innen gehen verloren.
Mit dem kostenlosen Google PageSpeed Insights Tool lässt sich die Performance einer Seite schnell analysieren. Es liefert dir klare Hinweise, wie du deine Ladezeiten verbessern kannst. Für WordPress-Seiten bieten sich zur technischen Optimierung etwa Plugins wie W3 Total Cache (für Caching) und WP Smush (für Bildkomprimierung) an. Beide Tools sind kostenlos und leicht zu implementieren.
Darüber hinaus gibt es eine Reihe von Dingen, die man tun kann, um die Ladegeschwindigkeit zu verringern:
CSS und JavaScript haben einen erheblichen Einfluss auf die Ladegeschwindigkeit einer Website und sollten daher möglichst schlank, effizient und bedarfsorientiert eingebunden werden. Unnötige oder ungenutzte Stylesheets und Skripte sollten entfernt, Dateien minimiert und asynchron geladen werden, um Render-Blocking zu vermeiden. Flash-Inhalte sind heute obsolet und sollten nicht mehr verwendet werden, da sie von modernen Browsern nicht mehr unterstützt werden.
Um die Größe der JavaScript-Datei zu verringern, gibt es eine Reihe von Tipps:
Liegen mehrere JavaScript-Dateien vor, sollten diese zusammengeführt werden, um die Anzahl der HTTP-Requests zu reduzieren. Zusätzlich lässt sich der Code mit entsprechenden Tools minifizieren. Dabei werden Kommentare, Leerzeichen und unnötige Zeichen entfernt, um die Dateigröße zu optimieren.
Quellen und weiterführende Informationen:
Sistrix: PageSpeed-Optimierung: Die Ladezeit der eigenen Website verbessern
Google Support: HTML5-Dateigröße reduzieren
Google Support: Informationen zur Websitegeschwindigkeit
Google Support: Websitegeschwindigkeit interpretieren
Bildoptimierung
Das „Alt“-Attribut hilft Suchmaschinen dabei, den Inhalt eines Bildes besser zu verstehen. Noch kann der Crawler nämlich den Inhalt eines Bildes bei weitem nicht so gut zuordnen wie den aus einem klassischen, HTML-formatierten Text. Darüber hinaus kann dir die Optimierung der Bilder für populäre Keywords helfen, Traffic aus der Google Bildersuche zu erhalten. Um dem Webcrawler von Google hier unter die Arme zu greifen, solltest du eine sinnvolle Kurzbeschreibung als Alt Text verwenden und auf jeden Fall ein paar deiner wichtigsten Keywords einbauen, sofern sie inhaltlich passen.
Reguläre Nutzer:innen werden diesen Text nur dann sehen, wenn das Bild aus irgendeinem Grund nicht korrekt angezeigt werden kann, Suchmaschinen liefern sie aber stets wichtige Hinweise. Neben dem Alt-Text solltest du auch den Bildtitel sowie den Dateinamen optimieren.
Neben dem Alt-Text sollten auch passende Dateinamen und sinnvolle Bildformate genutzt werden. Der Dateiname liefert ein weiteres Indiz auf den Inhalt für die Suchmaschine. Mit einem klassischen Format wie JPEG, PNG, GIF und BMP gehst du sicher, dass die Bilder korrekt ausgewertet werden.
Quellen und weiterführende Informationen:
Google Support: Bilder verbessern
TagSeoBlog: Bilder optimieren für Google
Searchenginewatch: How to optimize images for SEO
„Slash Bounce Rate“
Die sogenannte Bounce Rate gibt Auskunft über die Seitenabsprünge, also wie viele User eine Seite besuchen (meistens ausgehend von den Suchergebnissen) und direkt wieder zurückspringen, ohne eine weitere (Unter-)Seite aufzurufen. Absprünge gilt es so gut es geht zu vermeiden, da es sich immer um potenziell zahlende Kund:innen handelt.
Es gibt eine Reihe von Faktoren, die zu einer hohen Absprungrate beitragen. So verlassen Nutzer:innen beispielsweise Ihre Website auf der Einstiegsseite als Reaktion auf das Design oder wenn es zu einer negativen Nutzererfahrung kommt. Nutzer:innen verlassen die Website außerdem, nachdem sie eine einzelne Seite angesehen haben, dort die gewünschten Informationen gefunden haben und der Besuch einer anderen Seite nicht erforderlich oder von Interesse ist.
Wenn Google bemerkt, dass die Leute von deiner Seite gleich zurück zu den Suchergebnissen springen, ist das für Google ein klares Zeichen dafür, dass du kein Qualitätsergebnis (für die Nutzer:innen) bist und sie dich folglich nicht auf der ersten Seite brauchen.
Quellen und weiterführende Informationen:
Google Support: Absprungrate
Moz.com: Why You Should Use Adjusted Bounce Rate and How to Set It Up
Verweildauer („dwell time“)
Wie bei der Bounce Rate achtet Google auch sehr genau auf die Verweildauer einer Website. Diese wird auch grob in „short clicks“ gegenüber „long clicks“ eingeteilt. Sie sagt aus, wie lange Nutzer:innen auf der Website bleiben, bevor sie den „Zurück“-Button betätigen.
Wenn sie den „Zurück“-Button kurz, nachdem sie auf deiner Seite gelandet sind, klicken, ist es ein Zeichen für eine Seite von niedriger Qualität. Du kannst die Verweildauer erhöhen, indem du lange Artikel schreibst, für die Leute viel Zeit brauchen.
Auf diese Weise hast du, selbst wenn der Besucher dann zurück zu den Suchergebnissen springt, trotzdem einen „long click“. Das zeigt Google, dass du dem Besucher irgendeinen Mehrwert geliefert hast, während sie da waren.
Aktion: Schreibe lange, interessante Artikel, welche die Leute weiter und weiter lesen lässt. Gib dir besonders viel Mühe beim ersten Abschnitt. Versuche durch einen themenrelevanten Content und Downloadmaterial einen Mehrwert für den User zu bieten. Je länger ein User auf deine Webseite verbringt, desto vertrauensvoller und relevanter wird deine Webseite für das Keyword eingestuft.
Quellen und weiterführende Informationen:
Moz.com: The 2 User Metrics That Matter for SEO
de.onpage.org: Verweildauer
Füge deinen Title Tags „Modifiers“ (Bestimmungswörter) hinzu.
Modifiers sind ein Trick, um (Longtail-) Keywords aus besonders langen Suchanfragen mit einzubeziehen. Diese Suchen aus fünf bis neun Wörtern fallen einem nicht so schnell auf und sind nicht im Google-Keyword-Planer zu finden. Dennoch gibt es Leute, die nach ihnen suchen.
Es macht zwar keinen Sinn, deine Seiten speziell für diese Keywords zu optimieren (denn sie sind unberechenbar), du kannst aber trotzdem für sie ranken, indem du Modifier in deine Title-Tags einbaust.
Aktion: Füge Modifier wie „2025“, „beste“, „Guide“, „Anleitung“, „Review“ etc. hinzu, um für Longtail-Varianten deines Keywords zu ranken.
Quellen und weiterführende Informationen:
Sistrex Title-Tag Optimierung: Wie sieht der optimale Title einer Webseite aus?
Social Sharing Buttons
Je einfacher du es Leuten machst, einen Artikel zu teilen, desto wahrscheinlicher ist es auch, dass sie es tun.
Viele soziale Netzwerke stellen einbettbare Schaltflächen und Widgets bereit, über die Nutzer:innen bequem Content aus dem Internet oder einer App teilen können. Dazu zählen beispielsweise die „+1“-Schaltfläche von Google+ oder die „Gefällt mir“-Schaltfläche von Facebook. Nutzerinteraktionen mit diesen eingebetteten Schaltflächen sind soziale Interaktionen mit deinem Content. Soziale Interaktionen sind ein wichtiger Messwert für Nutzerinteraktionen, die mit Google Analytics erfasst werden können.
Stelle sicher, dass die Social-Sharing-Buttons auffallend platziert sind. Das WordPress-Plugin Sharebar eignet sich hierfür z. B., da es die Buttons konstant anzeigt, auch wenn die Leute im Artikel runterscrollen.
Aktion: Stelle sicher, dass Social-Sharing-Buttons gut sichtbar platziert sind.
Quellen und weiterführende Informationen:
Google Support: Einrichtung von Plug-ins für soziale Netzwerke
Google Developers: Social Interactions
Moz.com: The Beginners Guide to Social Media
Veröffentliche langen Content
Viele Erhebungen (wie diese hier von SerpIQ) haben gezeigt, dass langer Content (1500+ Wörter) signifikant besser bei Google rankt.
Wie du siehst, haben die Top-10-Ergebnisse alle über 2000 Wörter.
Aktion: Schreibe mindestens 1500 Wörter pro Artikel, wenn du mit einem kompetitiven Keyword ranken willst.
Interne Verlinkungen verringern die Bounce Rate. In dem Moment, in dem Leute auf einer Seite landen, sind sie „klick-happy“. Das bedeutet, sie sind geneigter, gleich wieder etwas anzuklicken, als wenn sie schon tief in einem Artikel stecken. Deshalb sind interne Verlinkungen zu Beginn der Artikel besonders nützlich und werden häufiger angeklickt.
Aktion: Füge interne Verlinkungen am Anfang der Artikel ein.
Quellen und weiterführende Informationen:
SerpIQ: How Important is Content Length? Why Data-Driven SEO Trumps Guru Opinions
Sistrix: Wie erstelle ich einen guten SEO-Text? Minimum 200-300 Wörter oder mehr?
LSI Keywords
LSI-Keywords (Latent Semantic Indexing, latent semantische Optimierung) sind Worte, die häufig unmittelbar vor oder nach dem eigentlichen Keyword vorkommen.
Wenn du z. B. übers Abnehmen schreibst, wirst du wahrscheinlich auch die LSI -Keywords Ernährung, Sport etc. erwähnen.
Wenn Google diese Keywords sieht, ist es eine Art Rückversicherung, dass du über das Thema, welches das Keyword ausdrückt, schreibst und sendet ein Qualitätssignal. Zum Glück ist es leicht, LSI-Keywords zu finden. Führe einfach eine Google-Suche aus und scrolle nach ganz unten zu „verwandte Suchanfragen“.
Das sind alles LSI-Keywords, die du in deinen Artikel mit einbeziehen solltest:
Aktion: Füge pro Artikel ein bis zwei LSI-Keywords ein.
Quellen und weiterführende Informationen:
Beginnersbook.com: LSI Keywords Simple Yet Very Powerful
PrPraxis.de: Was ist eigentlich: ein LSI-Keyword?
Interne Verlinkungen
Während beim Linkbuilding viel über externe Links gesprochen wird und deren Beschaffung mit viel Aufwand verfolgt wird, finden interne Verlinkungen häufig nicht so viel Beachtung. Die interne Verlinkung ist jedoch ein mächtiges SEO-Werkzeug und sollte Teil eines jeden SEO-Konzeptes sein.
Interne Verlinkungen sind das A und O. Wenn du ein gutes Beispiel für interne Verlinkungen sehen willst, schau dir einfach Wikipedia an. Dort werden Artikel durchdacht miteinander verknüpft, was die Navigation erleichtert und die Sichtbarkeit einzelner Seiten stärkt.
Aktion: Füge zwei bis drei interne Verlinkungen zu älteren Artikeln in deinen neu veröffentlichten Eintrag ein.
Quellen und weiterführende Informationen:
Sistrix: SEO-Basics: Interne Verlinkung optimieren
Semrush: Interne Links https://www.semrush.com/blog/internal-links/%20/
Google Support: Bericht „Interne Links“
Eingehende Links
Eingehende Links sind eine wichtige Kenngröße bei der Evaluation einer Seite und maßgebend für die Platzierung in Suchmaschinen. Tools wie Ahrefs, SEMrush oder Majestic geben einen detaillierten Einblick in das Linkprofil einer Seite und sind wichtig, um sich ein Bild der vorliegenden Situation zu verschaffen. Folgende Werte im Linkprofil sollten geprüft werden:
Quellen und weiterführende Informationen:
Google Support: Links zu Ihrer Website
Sistrix: Wie kann ich die Qualität einer potentiellen Backlinkseite bestimmen?
Sistrix: Wie kann ich eine Website auf minderwertige Backlinks untersuchen?
Ausgehende Links
Auch ausgehende Links sind eine wichtige Maßzahl und sollten entsprechend sorgfältig analysiert werden. Richtig eingesetzt, tragen sie dazu bei, die Glaubwürdigkeit und Relevanz deiner Inhalte zu stärken. Google bevorzugt natürliche und hilfreiche Verlinkungen, die Nutzer:innen Mehrwert bieten.
Gut zu wissen: Seit 2019 betrachtet Google das «nofollow»-Attribut als Hinweis statt als strikte Anweisung. Es ist sinnvoll, «nofollow» gezielt einzusetzen (z. B. bei gesponserten oder unzuverlässigen Quellen), aber nicht pauschal für alle ausgehenden Links.
Folgende Merkmale sollten zunächst betrachtet werden:
Quellen und weiterführende Informationen:
Google Support: Externe Links erfassen: Feststellen, wann Nutzer auf einen Link klicken, um Ihre Website zu verlassen
Sistrix: Wann ist es sinnvoll interne oder externe Links auf NOFOLLOW zu setzen?
Google Support: Nofollow Links nur für Quellen, denen du nicht vertraust https://developers.google.com/search/docs/crawling-indexing/links-crawlable?hl=de#external-links
Neil Patel: Should You Use Outbound Links? https://neilpatel.com/blog/outbound-links/
Conversion
Conversion Rate Optimization (CRO) ist der Prozess, den Anteil der Website-Besucher:innen zu erhöhen, die eine gewünschte Aktion ausführen – sei es ein Kauf, eine Anmeldung oder das Ausfüllen eines Formulars. Die zugehörige Conversion Rate sagt grob aus, wie viele der Besucher einer Website eine gewünschte Aktion ausführen, um sie zu erhöhen. Moderne CRO-Ansätze, um die Conversion Rate zu verbessern, umfassen zum Beispiel folgende Aspekte:
Quellen und weiterführende Informationen:
Moz.com: What is Conversion Rate Optimization? https://moz.com/learn/seo/conversion-rate-optimization
Google Support: Conversion – Definition
Clicks to Content
Für Websites gilt, dass die Homepage mehr Autorität hat als (Unter-)Seiten auf der Seite. Das bedeutet, dass die Homepage auch am meisten PageRank hat und weitergeben kann.
Mit anderen Worten: Je näher eine Seite an der Homepage ist, desto mehr profitiert sie von ihrem PageRank und desto höher wird Google sie ranken.
Es gilt also die Anzahl der „Klicks“ von der Homepage zur Zielseite (die du ranken willst) zu minimieren, da eine flache Seitenstruktur sowohl für die Nutzerfreundlichkeit als auch für das Crawling durch Suchmaschinen vorteilhaft ist. Wenn es mehr als drei Klicks von der Homepage zur Zielseite bedarf (z.B.: Homepage > Blogkategorie Fitness > ältere Posts > Blogposts), kann das dazu führen, dass diese Seiten weniger Aufmerksamkeit von Suchmaschinen erhalten.
Eine Lösung hierfür ist eine klare interne Verlinkungsstrategie. Du kannst beispielsweise eine Sidebar oder Footer-Navigation nutzen, um Links zu den wichtigsten Unterseiten einzubauen. Auch Breadcrumb-Navigationen helfen dabei, die Struktur deiner Website zu optimieren und die Klicktiefe zu reduzieren.
Aktion: Stelle sicher, dass wichtige Seiten nicht mehr als drei Klicks von der Homepage entfernt liegen.
Quellen und weiterführende Informationen:
Ahrefs: Internal Links for SEO https://ahrefs.com/blog/internal-links-for-seo/
Google Support: Linkarchitektur und Ihre Bedeutung https://developers.google.com/search/blog/2008/10/importance-of-link-architecture?hl=de
Wikipedia: Three-Click-Rule
Menüführung
Eine strukturierte und auf den User angepasste Menüführung sorgt für eine bessere Navigation und verbessert damit die Conversion-Rate. Merkmale einer nutzerfreundlichen Struktur sind zum Beispiel:
Quellen und weiterführende Informationen:
nngroup.com: Menu-Design Checklist: 17 UX Guidelines https://www.nngroup.com/articles/menu-design/
ahrefs.com: Website Navigation Best-Practices https://ahrefs.com/blog/website-navigation/
CTR (Click-Through-Rate)
Die Click-Through-Rate (CTR), auch Klickrate genannt, ist eine wichtige Kennzahl im SEO. Sie beschreibt das Verhältnis zwischen der Anzahl der Klicks auf ein Suchergebnis und der Anzahl der Impressionen. Die Formel lautet: CTR in Prozent = (Anzahl der Klicks / Anzahl der Impressionen) × 100.
Wenn Leute nur selten deine Seite bei den Google-Suchergebnissen anklicken, sendet das ein starkes Signal an Google, dass deine Seite kein guter Treffer für das Keyword ist. Das Gegenteil greift auch: Wenn Leute deine Seite häufig anklicken, wird Google sie auch höher ranken. Wie kannst du die CTR maximieren? Strategien zur CTR-Optimierung umfassen zum Beispiel folgende Maßnahmen:
Quellen und weiterführende Informationen:
backlinko.com: Google CTR Stats (2025) https://backlinko.com/google-ctr-stats
Google Support: Klickrate (Click-through-Rate – CTR)
Deine Marke verdient es, sichtbar zu sein. Lass uns gemeinsam Strategien entwickeln, die Ergebnisse liefern – individuell, effektiv und nachhaltig.
Title-Tag-Optimierung
Keywords an den Anfang einen jeden Blogposts
Interne Verlinkungen
CTR (Click-Through-Rate)
Response Code
Sitemap
Sistrix-Sichtbarkeits-Index
Regionale Suche
Weiterleitungen
Response Code
HTTP-Statuscodes geben an, wie ein Server auf eine Anfrage eines Clients (z. B. Googlebot oder Browser) reagiert. Sie werden in fünf Hauptkategorien unterteilt:
Die erste Ziffer eines HTTP-Statuscodes stellt die jeweilige Statusklasse dar. Jeder Statusklasse unterliegen weitere Statuscodes von unterschiedlicher Bedeutung.
Die am häufigsten vorkommenden HTTP-Statuscodes sind:
Quellen und weiterführende Informationen:
Sistrix: HTTP-Statuscode
Wikipedia: HTTP-Statuscode
Google Search Console
Die Google Search Console (GSC) ist ein kostenloses Analyse- und Servicetool von Google, mit dem Website-Betreiber die Präsenz ihrer Seiten in der Google-Suche überwachen und optimieren können. Sie liefert wertvolle Einblicke zu Suchanfragen, Klickzahlen, Impressionen, technischen Fehlern und zur mobilen Nutzbarkeit.
Darüber hinaus informiert die GSC über potenzielle Sicherheitsprobleme (z. B. Malware oder gehackte Inhalte) sowie über manuelle Maßnahmen bei Verstößen gegen die Google-Richtlinien, etwa durch unnatürliche Backlinks.
Quellen und weiterführende Informationen:
Google Support: Bericht „Sicherheitsprobleme“
Google Support: Bericht über manuelle Maßnahmen
Sistrix: Rankingdaten aus Googles Search Console: Nutzen und Grenzen
GOOGLE SEARCH CONSOLE
Wenn Google auf deinen Seiten „Markup“ erkennt, können mit diesen Informationen Rich Snippets und andere Elemente zu deinem Suchergebnis hinzugefügt werden. Das Snippet für die Suche nach einem Restaurant kann zum Beispiel Informationen zu den durchschnittlichen Bewertungen und Preisen enthalten. Google empfiehlt hierfür den Einsatz des Schema.org-Vokabulars im JSON-LD-Format, das sich direkt im HTML-Code einbinden lässt. Ältere Formate wie Mikrodaten oder RDFa werden zwar noch erkannt, gelten aber nicht mehr als Best Practice.
Die Google Search Console stellt unter dem Menüpunkt „Darstellung in der Suche“ spezifische Berichte für strukturierte Daten bereit – etwa für Produkte, Artikel oder Veranstaltungen. Sie zeigen, ob Google strukturierte Inhalte korrekt verarbeitet hat und ob Fehler oder Warnungen vorliegen, die eine Darstellung als Rich Result verhindern könnten.
Zur Überprüfung der strukturierten Daten empfiehlt sich der Rich Results-Test oder der Schema Markup Validator.
Quellen und weiterführende Informationen:
de.onpage.org: Markup
Google Developers: Einführung in das Markup für strukturierte Daten in der Google Suche
Sitemap
Eine Sitemap ist eine Datei, in der du die einzelnen Seiten deiner Website auflisten kannst. So lässt du Google und andere Suchmaschinen wissen, wie die Inhalte deiner Website strukturiert sind. Eine Sitemap lässt sich schnell und einfach mit Tools wie dem Sitemap-Generator von XML-Sitemaps.com erstellen, jedoch generieren die meisten modernen CMS-Sitemaps automatisch. Die ausgegebene Datei lädst du dann in das Root-Verzeichnis deiner Website sowie in die Google Search Console hoch. Suchmaschinen-Webcrawler wie der Googlebot lesen diese Datei, um deine Website intelligenter crawlen zu können.
Quellen und weiterführende Informationen:
Google Support: Sitemap erstellen und einreichen
Sistrix: Sitemaps
Sistrix: Gibt es verschiedene Arten von Sitemaps?
Nutzerfreundlichkeit auf mobilen Geräten
Bereits seit dem sogenannten „Mobile Update“ im April 2015 berücksichtigt Google die Mobilfreundlichkeit einer Website als Rankingfaktor. Spätestens mit der vollständigen Umstellung auf Mobile-First-Indexing im Jahr 2020 ist die mobile Version einer Website zur primären Bewertungsgrundlage für das Ranking geworden – und zwar unabhängig davon, ob die Suchanfrage auf einem Smartphone oder Desktop-PC erfolgt.
Eine mobilfreundliche Website zeichnet sich durch ein responsives Design aus, bei dem sich Inhalte automatisch an verschiedene Bildschirmgrößen anpassen. Texte, Bilder und Navigationselemente müssen auch auf kleineren Displays ohne Zoomen gut lesbar und bedienbar sein.
Zur Überprüfung der Mobilfreundlichkeit stellt Google hilfreiche Tools bereit, wie den Mobile-Friendly-Test oder PageSpeed Insights, die Hinweise zur Darstellung, Ladegeschwindigkeit und zum Optimierungspotenzial liefern.
Quellen und weiterführende Informationen:
Sistrix: Mobile-Friendly Ranking-Faktor Update
Google Developers: Best Practices für mobile Websites und die Mobile-First-Indexierung
Indexierungsstand
Je größer und umfangreicher eine Website wird, desto wichtiger ist ein strukturierter Umgang mit der Indexierung durch Google. Ziel ist es, dass alle relevanten und hochwertigen Seiten in den Google-Index aufgenommen werden. Unwichtige oder doppelte Inhalte hingegen sollten gezielt ausgeschlossen werden.
In der Google Search Console lässt sich im Bericht „Seiten“ unter dem Menüpunkt „Indexierung“ nachvollziehen, welche URLs erfolgreich indexiert wurden und welche aus bestimmten Gründen (z. B. noindex, Duplikat ohne kanonische URL, Seite mit Weiterleitung) nicht berücksichtigt werden.
Die Anzahl der indexierten Seiten ist in der Regel geringer als die Anzahl der gecrawlten Seiten, da Google viele Seiten bewusst nicht in den Index aufnimmt. Eine kontinuierliche Überwachung dieses Verhältnisses hilft dabei, Indexierungsprobleme frühzeitig zu erkennen und zu beheben.
Quellen und weiterführende Informationen:
Sistrix: Crawling und Indexierung umfangreicher Webseiten
Google Support: Indexierungsstatus
Nicht indexierte Inhalte
Obwohl Google täglich Milliarden Webseiten crawlt und indexiert, garantiert das nicht, dass jede einzelne Unterseite einer Website tatsächlich im Index erscheint. Der Indexierungsprozess ist selektiv: Nur Seiten mit ausreichender Relevanz, Qualität und technischer Zugänglichkeit werden aufgenommen.
Um Google beim Crawling und der Indexierung zu unterstützen, ist eine gut gepflegte XML-Sitemap hilfreich. Sie liefert Hinweise auf wichtige URLs.
Gleichzeitig kannst du durch den gezielten Einsatz von noindex-Meta-Tags oder HTTP-Headern steuern, welche Seiten nicht indexiert werden sollen.
Die robots.txt-Dateidient ausschließlich zur Steuerung des Crawlings, nicht zur Indexierungskontrolle. Seiten, die dort ausgeschlossen sind, können trotzdem indexiert werden, wenn Google Informationen darüber aus anderen Quellen erhält.
Quellen und weiterführende Informationen:
Google Support: Google crawlt oder indexiert nicht alle meine Seiten.
Sistrix: Wie finde ich heraus, wieviele Seiten meiner Domain von Google indexiert wurden?
Bevorzugte Domain
Die bevorzugte Domain ist die Version deiner Website (mit oder ohne „www“), die in den Suchergebnissen angezeigt werden soll. Früher konnte man diese Einstellung direkt in der Google Search Console vornehmen, doch dieses Feature wurde 2019 entfernt. Heute erkennt Google die bevorzugte Domain automatisch anhand verschiedener Signale. Dennoch kannst du Google aktiv unterstützen, indem du klare technische Maßnahmen ergreifst:
rel=“canonical“-Tag: Setze auf jeder Seite ein rel=“canonical“-Tag, um die bevorzugte URL anzugeben.
301-Weiterleitungen: Leite alle Anfragen von der nicht bevorzugten Version (z. B. ohne „www“) auf die bevorzugte Version weiter.
Sitemap: Stelle sicher, dass deine Sitemap nur URLs der bevorzugten Version enthält.
Konsistente interne Verlinkung: Verwende innerhalb deiner Website immer dieselbe URL-Version.
Diese Maßnahmen helfen bei der Festlegung der bevorzugten Domain, vermeiden Probleme mit doppeltem Content und verteilen den Linkjuice optimal.
Quellen und weiterführende Informationen:
Google Support: Abschied von der Einstellung „Bevorzugte Domain“ https://developers.google.com/search/blog/2019/06/bye-bye-preferred-domain-setting?hl=de
seranking.com: Choosing a www vs non-www domain name: pros, cons, and recommendations https://seranking.com/blog/www-vs-non-www/
Sistrix: Meine Website ist mit und ohne www. aufrufbar. Ist das schädlich?
Robots.txt-Datei
Eine robots.txt-Datei ist eine Datei im Stammverzeichnis deiner Website, in der die Teile deiner Website angegeben sind, auf die Suchmaschinen-Crawler nicht zugreifen sollen. Die Datei verwendet den Robots Exclusion Standard, ein Protokoll mit einigen Befehlen. Damit werden die Zugriffsmöglichkeiten auf deine Website für einzelne Abschnitte und für verschiedene Typen von Webcrawlern angegeben. Die Syntax der robots.txt-Datei ist einfach: Jede Regel beginnt mit der Angabe eines User-Agenten, also dem Namen des Bots, für den die Anweisung gilt. Anschließend folgen Befehle wie «disallow», um bestimmte URLs vom Crawling auszuschließen, oder «allow», um explizit den Zugriff auf bestimmte Bereiche zu erlauben.
Quellen und weiterführende Informationen:
Google Support: Informationen zur robots.txt-Datei
Sistrix: Wie kann ich dem Google-Bot das Crawlen meiner Website verbieten?
SSL-Zertifikat (Umstellung auf https)
Google ist im August 2014 dazu übergegangen, HTTPS als einen Ranking-Faktor zu bestimmen. Setzt eine Website nun ausschließlich auf das HTTPS-Protokoll, so kann sie einen kleinen Bonus bei der Bewertung durch Google erhalten. Die Bedeutung von SSL/TLS-Zertifikaten für SEO und Nutzervertrauen hat sich seitdem weiterentwickelt. Websites mit HTTPS bieten eine verschlüsselte und sichere Datenübertragung, was nicht nur die Sicherheit erhöht, sondern auch indirekt zu besseren Rankings führen kann. Moderne Browser kennzeichnen unsichere HTTP-Websites deutlich, was zu höheren Absprungraten führen kann.
Der Unterschied zwischen HTTPS und HTTP besteht in der verschlüsselten und abhörsicheren Übertragung der Daten mittels Verschlüsselungsprotokollen wie SSL/TLS.
Quellen und weiterführende Informationen:
seobase.com: The Role of SSL Certificates In Search Results https://seobase.com/en/ssl-certificates-in-search-rankings
Google Support: Probleme mit dem SSL-Zertifikat
Sistrix: HTTPS Ranking-Faktor Update https://www.sistrix.de/frag-sistrix/google-updates/https-ranking-faktor-update
5 von 5 Sternen!
Basierend auf 140 Google-Rezensionen
* Hinweis zur Echtheit von Bewertungen:
Bewertungen stammen ausschließlich von Kunden, die unsere Dienstleistungen in Anspruch genommen haben. Eine Verifizierung erfolgt über das Nutzerkonto und den geschlossenen Vertrag.
„
Es ist eine wahre Freude mit den Suchhelden zu arbeiten. Bei ihrem multidisziplinären Ansatz, welcher bei vielen anderen Agenturen schief geht, schaffen sie es dennoch perfekte Beratung und Hilfe zu jedem Bereich zu bieten, in meinem Fall: Shopify, SEO und Facebook Ads. Das ganze schnell und extrem kompetent. Danke, weiter so!
„
Wir arbeiten seit einigen Jahren schon mit den Suchhelden zusammen. Wir haben das Unternehmen als zuverlässigen Partner kennen gelernt und freuen uns auf die weitere Zusammenarbeit. Von uns auf jeden Fall eine Empfehlung!
„
Überraschenderweise haben wir bereits nach 2 Monaten erste Erfolge erzielen und Neukunden gewinnen können. Wir möchten uns an dieser Stelle für die herausragenden Leistungen und die hervorragende Betreuung bedanken. Für uns steht fest, die Suchhelden werden uns bis ins unendliche begleiten! Danke ans Team. Lets go forward!
„
Wir arbeiten seit kurzem mit Suchhelden zusammen, um SEO für unsere Website durchzuführen. Die Zusammenarbeit mit dem Team lief sehr gut und strukturiert. Innerhalb kurzer Zeit waren alle unsere Wünsche umgesetzt. Vielen Dank für diese hervorragende Unterstützung.
„
Wir arbeiten seit knapp einem Jahr mit den Suchhelden zusammen und sind äusserst zufrieden mit der Zusammenarbeit. Besonders schätzen wir die hohe Kompetenz, Professionalität und Zuverlässigkeit des Teams. Eine klare Empfehlung!
„
Die Suchhelden leisten ausgezeichnete Arbeit. Das Maß an Professionalität und die Transparenz der erbrachten Leistungen sind absolut erstklassig. Auch mit den erzielten Ergebnissen sind wir sehr zufrieden – eine klare Empfehlung!
„
Wir sind begeistert von der Zusammenarbeit mit den Suchhelden! Unsere Ansprechpartnerinnen sind fachlich herausragend und erläutern immer verständlich und mit Daten untermauert die Herangehensweisen und Vorschläge. Die Kommunikation ist absolut transparent und unkompliziert; die Umsetzung erfolgt schnell. Auch menschlich passt es wunderbar. Weiter so!
„
Mit den Suchhelden habe ich durchweg positive Erfahrungen gemacht, besonders in den Bereichen SEO und SEA. Das Team ist nicht nur professionell und freundlich, sondern kommt einem auch immer entgegen, um sicherzustellen, dass man als Kunde zufrieden ist. Die Zusammenarbeit ist stets angenehm, und sie finden immer eine Lösung, die genau auf unsere Bedürfnisse abgestimmt ist.
„
Großes Lob an die Suchhelden. Wir sind sehr zufrieden und haben nicht nur im Rahmen unseres Relaunch super harmoniert sondern speziell auch in der dauerhaften SEO und SEA-Betreuung nur Gutes zu Berichten. Schnelle Reaktionszeiten, greifbare Reportings und Top-Ergebnisse! Wir bleiben gerne Kunde :)
„
Sehr zu empfehlen. Wir arbeiten bereits seit 2 Jahren mit den Suchhelden im Bereich der Suchmaschinen Optimierung zusammen und konnten seitdem sehr gute Entwicklungen im organischen Bereich verzeichnen.
„
Unsere Zusammenarbeit ist sehr konstruktiv und zielführend. Alle Themen und Problemstellungen werden gut nachvollziehbar gemeinsam erörtert und die vereinbarten Schritte werden stets zur vollsten Zufriedenheit ausgeführt. Die Art der Kommunikation ist sehr professionell, ruhig und sympathisch. Wir können Suchhelden GmbH wärmstens empfehlen.
„
Die Suchhelden sind ne Wucht! Der Kontakt im Bereich SEO über Andre ist genial, SEA mit Paula läuft reibungslos und Content dank Sabrina spitze. Doch was usn wirklich beeindruckt, ist die Zusammenarbeit aller Abteilungen und die scheinbar endlose Hilfsbereitschaft. Die wahren Helden, sind die Suchhelden.
„
Herzlichen Dank für die SEO-Optimierung meiner Website. Erste Erfolge zeichnen sich bereits ab. Viki, Karolina und Zoe, Ihr habt eine prima Arbeit geleistet! Weiter so!!
„
Sehr cooles und nettes Team! Wir arbeiten seit Mai 2021 mit Suchhelden zusammen und sind bisher sehr zufrieden mit dem Service. Die Zusammenarbeit läuft hervorragend! Alle Anregungen und Wünsche werden beachtet, detailliert besprochen und sauber umgesetzt. Kann sie echt nur weiterempfehlen!!
„
Immer angenehme und kooperative Zusammenarbeit - seit mittlerweile 4 Jahren! So macht das Spass und der Erfolg der Massnahmen sprechen für sich. Die Suchhelden sind meiner Meinung nach die beste GEO-Agentur :-)!
„
Wir arbeiten seit knapp zwei Jahren mit den Suchhelden zusammen und lassen uns in den Bereichen SEO und SEA betreuen. Durch die professionelle Beratung und effektive Planung und Umsetzung von Maßnahmen konnten wir unsere Sichtbarkeit verbessern und relevante Kundenanfragen um ein vielfaches steigern. Vielen Dank für die tolle Zusammenarbeit!
Title-Tag-Optimierung
Keywords an den Anfang einen jeden Blogposts
Interne Verlinkungen
CTR (Click-Through-Rate)
Response Code
Sitemap
Sistrix-Sichtbarkeits-Index
Regionale Suche
Weiterleitungen
SISTRIX-SICHTBARKEITS-INDEX
Der Sichtbarkeitsindex ist eine zentrale Kennzahl im SEO, die die Sichtbarkeit einer Domain in den organischen Suchergebnissen von Google und anderen Suchmaschinen abbildet. Er dient als Indikator für den Erfolg von SEO-Maßnahmen und wird von verschiedenen Tools wie Sistrix, Xovi und Searchmetrics unterschiedlich berechnet.
Der Sistrix-Sichtbarkeitsindex gilt seit seiner Einführung im Jahr 2008 als Goldstandard in der SEO-Branche. Er basiert auf einem repräsentativen Keyword-Pool von 250.000 Keywords, deren Rankings bis Platz 100 erfasst werden.
Der OVI von Xovi funktioniert ähnlich wie der Sistrix-Sichtbarkeitsindex, unterscheidet sich jedoch in der Datenbasis und Methodik. Ein Vorteil des OVI ist die größere Keyword-Datenbasis, die einen breiteren Querschnitt verschiedener Themenbereiche bietet. Allerdings sind die Daten weniger flexibel, da die Keyword-Basis nicht regelmäßig aktualisiert wird.
Nutze den Sichtbarkeitsindex als ergänzendes Tool zu anderen KPIs, um eine ganzheitliche SEO-Strategie zu entwickeln.
Quellen und weiterführende Informationen:
omt.de: Searchmetrics, SEMrush, Sistrix und Xovi – 4 namenhafte SEO-Tools im Vergleich https://www.omt.de/suchmaschinenoptimierung/searchmetrics-semrush-sistrix-und-xovi-4-namenhafte-seo-tools-im-vergleich/
Sistrix: Was ist der SISTRIX Sichtbarkeitsindex?
Duplicate Content / Canonical Tags
Duplicate Content beziehungsweise Near Duplicate Content liegt vor, wenn zwei oder mehrere Seiten (unterschiedlicher URLs) gleiche oder fast gleiche Inhalte zeigen. Duplicate Content kann sich negativ auf das Suchmaschinen-Ranking einer Internetseite auswirken, da Suchmaschinen doppelte Inhalte filtern, um den Usern keine inhaltsgleichen oder sehr ähnlichen Treffer anzuzeigen, die die Qualität der Suchergebnisseiten (SERP) mindern würden.
Es wird zwischen externem (zwei unterschiedliche Domains) und internem (innerhalb einer Domain) Duplicate Content unterschieden. Um Duplicate Content zu identifizieren, stehen moderne Tools wie Screaming Frog, Copyscape, Siteliner oder Sitebulb zur Verfügung. Sie bieten detaillierte Berichte und helfen bei der Analyse interner sowie externer Inhalte.
Für die Lösung solcher Probleme sind Canonical Tags eine bewährte Methode. Durch sie kann man Google signalisieren, welche Seiten das „Original“ sind, wenn man ein paar URLs mit demselben oder sehr ähnlichem Content auf der Seite hat.
TITLE-TAG-OPTIMIERUNG: WIE SIEHT DER OPTIMALE TITLE EINER WEBSEITE AUS?
Häufig haben z. B. Onlineshops mit internem Duplicate Content zu kämpfen. Hier ist es ein oft gesehener Fall, dass die Produkt-Detailseiten auch ohne zugehörige Kategorie- und/oder Produktseite direkt aufrufbar sind:
Quellen und weiterführende Informationen:
Google Support: Duplizierter Content
neilpatel.com: Duplizierte Inhalte: 5 Mythen und 5 Fakten https://neilpatel.com/de/blog/duplizierte-inhalte-mythen-und-fakten/
Semrush: Canonical URLs https://www.semrush.com/blog/canonical-url-guide/
Strukturiertes HTML, semantischer Inhalt
Unter Semantik im Kontext des Internets, auch „semantisches Web“ genannt, versteht man das Anreichern von Content mit zusätzlichen Informationen über dessen Bedeutung. Diese Informationen sollen Computern helfen, die Bedeutung von Texten besser zu interpretieren. Moderne Webentwicklung nutzt HTML5-Semantik-Tags wie <header>, <main>, <section>, <article>, <nav> und <footer>, um den strukturellen Aufbau einer Seite klar zu definieren. Diese Tags verbessern die Lesbarkeit für Browser, Suchmaschinen und Screenreader, wodurch die SEO-Leistung und die Barrierefreiheit gesteigert werden.
Zusätzlich tragen semantische Tags wie <em> (Betonung) und <strong> (wichtige Betonung) dazu bei, die Bedeutung von Texten hervorzuheben. Listen (<ol> und <ul>) sowie Tabellen (<table>) sind weiterhin nützlich, um Inhalte übersichtlich darzustellen.
Quellen und weiterführende Informationen:
Google web.dev: Semantisches HTML https://web.dev/learn/html/semantic-html?hl=de
Accionlabs.com: How To Structure Content Using HTML 5 Semantic Tags https://www.accionlabs.com/blogs/structure-content-using-html-semantic-tags
HREF-LANG-TAGS
Viele Websites, insbesondere Onlineshops, bieten Inhalte in verschiedenen Sprachen an, um Nutzer:innen aus aller Welt anzusprechen. Dabei unterscheiden sich die Inhalte oft nur marginal – häufig wird lediglich der Preis in der entsprechenden Währung angezeigt.
Um Google die passende geografische Ausrichtung (bzw. Länder- und Sprachversion) des Shops mitzuteilen, sollte ein seitens Google unterstütztes und empfohlenes Markup verwendet werden – das sogenannte rel=»alternate» hreflang=»x» Link-Attribut.
Wann sollte hreflang verwendet werden?
Quellen und weiterführende Informationen:
Sistrix: Wie soll ich mit mehrsprachigen Inhalten meines Onlineshops umgehen?
Google Support: hreflang-Attribut für Sprach- oder Regions-URL Ihrer Seiten verwenden
Directives
DoFollow/NoFollow-Links
Links können grundsätzlich in zwei Gruppen eingeteilt werden: DoFollow und NoFollow. Der Unterschied liegt im Umgang bzw. dem Weitergeben von Linkjuice, also dem SEO-Boost, den sich jede Seite wünscht. Das 2005 eingeführte NoFollow-Tag signalisiert der Suchmaschine, dass dieser Link nicht weiterverfolgt werden soll und folglich auch kein SEO-Boost erfolgt. Der Grund für die Einführung des Tags liegt in der Bekämpfung von Spam, da zu früheren Zeiten alles dafür getan wurde, um Links auf Webseiten mit hohem PageRank wie Wikipedia zu bekommen, deren Qualität darunter litt. NoFollow-Links sind unter SEO-Aspekten zwar weniger wert als DoFollow-Links, aber keinesfalls nutzlos: Sie bringen trotzdem Traffic auf die Seite und somit potenzielle Kundschaft. Außerdem gibt es auch noch «ugc» (User-generated content) und «sponsored» (Werbung/Placements) Links, die für genauere Bezeichnungen zuständig sind.
Canonical/Canonicalised
Mithilfe kanonischer URLs lassen sich die Link- und Rankingsignale von Inhalten verbessern, die über mehrere URLs oder per Syndikation verfügbar sind. Außerdem hilft es, Duplicate Content vorzubeugen.
Index/NoIndex
Mit den Directives Index/NoIndex kann man Internetbots mitteilen, bestimmte Seiten nicht zu indexieren. Das Resultat ist, dass die mit dem Meta-Tag «noindex» markierten Seiten nicht in den Google-Suchergebnissen auftauchen werden.
NoSnippet
Das Tag verhindert, dass ein Ausschnitt in den Suchergebnissen angezeigt wird.
NoImageIndex
Mit dem Tag wird festgelegt, dass deine Seite nicht als verweisende Seite für ein Bild angezeigt werden soll, das in den Suchergebnissen von Google erscheint.
NoTranslate
Mit dem NoTranslate-Tag verhindert man, dass Google dem User vorschlägt, die Seite zu übersetzen, wenn sie nicht in der (von Google) vermuteten Sprache des Users vorliegt.
Unavailable_After
Ermöglicht die Angabe eines Zeitpunkts (Uhrzeit und Datum), an dem das Crawlen und Indexieren dieser Seite beendet werden soll. Das kann jedoch auch über die robots.txt gelöst werden.
Quellen und weiterführende Informationen:
Google Support: rel=“nofollow“ für bestimmte Links verwenden
Google Support: Kanonische URLs verwenden
Google Support: Meta-Tags, die Google versteht
Sistrix: Welche Meta-Elemente (Meta-Tags) gibt es?
Regionale Suche
Regionalität ist ein wichtiges Verkaufsargument und Wettbewerbsvorteil. Mit Regionalität werden Ansprechpartner:innen in der eigenen Umgebung und kurze Wege verbunden. Je nach Branche kann es auch für Umweltbewusstsein stehen. Bezieht man gezielt Regionen mit in seine SEO-Planung ein, erhöht man seine Chancen, gefunden zu werden. Wichtige Maßnahmen umfassen:
Alles begann 2006 mit dem Google Branchencenter. Es schob Einträge aus Google Maps in die organischen Suchergebnisse, aus denen Firma, Adresse und Kontaktinformationen hervorgingen:
Im Jahr 2008 kam dann Google Places hinzu und erweiterte das Branchencenter, um die Funktionen, Fotos, Videos und Reviews zu jedem Ort hinzuzufügen. Mit Google+ kamen noch sogenannte Google+ Local-Einträge hinzu, die teilweise automatisch Seiten zu Unternehmen erstellten. Im Juni 2014 ging schließlich Google My Business (GMB) als zentrales Verwaltungstool für lokale Unternehmen an den Start, mit dem einmal hinterlegte Unternehmensdaten in der Google-Suche, in Google Maps und auf Google+ erscheinen.
Seit 2021 gibt es nun das Google Business Profile/Unternehmensprofil. Damit wird es Profilbesitzer:innen ermöglicht, direkt in der Google Suche ihr Unternehmensprofil zu bearbeiten.
Quellen und weiterführende Informationen:
Google Unternehmensprofil
Keyword+Local
Änderung zu Unternehmensprofil
rel=“nofollow“ für bestimmte Links verwenden
Google Support: Kanonische URLs verwenden
Google Support: Meta-Tags, die Google versteht
Sistrix: Welche Meta-Elemente (Meta-Tags) gibt es?
CMS/Kodierung
Das CMS („Content-Management-System“) ist ein System zum Verwalten von Inhalten auf einer Website. Ein CMS besteht in der Regel aus zwei Teilen: dem CMA („Content-Management Application“) und dem CDA („Content Delivery Application“). Das CMA erlaubt einem Content-Manager oder Autor ohne HTML-Wissen, Content zu erstellen und zu formatieren. Das CDA-Element kompiliert diese Informationen, um daraus die Website zu aktualisieren. Zu populären CMS-Systemen gehören WordPress, Joomla, Shopware, Shopify und TYPO3.
Quellen und weiterführende Informationen:
Wikipedia: Content-Management-System
Google Support: Blogs und Content-Management-Systeme
RELAUNCH
Beim Relaunch einer Website gibt es zahlreiche Dinge zu beachten, denn es gibt eine Reihe von Gefahren, insbesondere was die Platzierung in Suchmaschinen angeht. Die Richtigkeit folgender Punkte sollte überprüft werden:
Quellen und weiterführende Informationen:
Sistrix: SEO-Basics: Website-Relaunch niemals ohne Weiterleitungen
Onpagedoc.com: SEO-Tipps beim Website-Relaunch
RECHTLICHES
Das Digitale-Dienste-Gesetz (DDG), welches am 14. Mai 2024 das bisherige Telemediengesetz (TMG) abgelöst hat, regelt in § 5 die Informationspflichten für Anbieter:innen digitaler Dienste. Für geschäftsmäßig angebotene Telemedien besteht weiterhin die Verpflichtung, eine Anbieter:innenkennzeichnung bereitzustellen. In der Praxis wird es meist als „Impressum“ bezeichnet.
Diese Kennzeichnung dient insbesondere dem Verbraucherschutz und soll eine schnelle Kontaktaufnahme sowie rechtliche Transparenz gewährleisten. Diensteanbieter:innen, also die rechtlich Verantwortlichen für den jeweiligen Internetauftritt, müssen dabei eindeutig identifizierbar sein.
Die Vollständigkeit folgender Punkte muss gewährleistet sein:
Quellen und weiterführende Informationen:
404-SEITEN
Anforderungen an eine 404-Unterseite
Falls die Inhalte nicht mehr vorhanden sind, müssen die Regeln für eine optimale 404-Seite beachtet werden. Falls Inhalte auf eine neue URL umgelegt wurden, sollten entsprechende Weiterleitungen eingebaut werden.
Zertifiziert & ausgezeichnet durch:








Suchhelden GmbH
Heinrichstraße 14c
49080 Osnabrück
Mo - Do: 08:30 - 17:00 Uhr
Fr: 08:30 - 15:00 Uhr
Suchhelden Kundenbewertungen
5 / 5 aus 140 positiven Bewertungen
Suchhelden GmbH
Heinrichstraße 14c
49080 Osnabrück
Mo - Do: 08:30 - 17:00 Uhr
Fr: 08:30 - 15:00 Uhr
© 2025 Suchhelden GmbH
Datenschutz Impressum Barrierefreiheitserklärung Hinweisgeberformular Magazin Cookie Management