Die 5 meistunterschätzten Funktionen bekannter SEO-Tools

WERBUNG
thekey.ACADEMY
WERBUNG
Smartbroker
WERBUNG
freelancermap.de
WERBUNG
Gehaltsvorschuss. Sofort!
WERBUNG
Namefruits
WERBUNG
Become An Actor - eBook
WERBUNG
Bürobedarf Blitec
WERBUNG
KREDIT.DE
WERBUNG
Redenservice
WERBUNG
etexter

Wer sich 2022 endlich um die Auffindbarkeit der eigenen Webseite kümmern möchte, dem stellt Sebastian Schulze von hurra.com fünf hilfreiche, aber meist ungenutzte Funktionen bekannter SEO-Tools vor.

Bild1. Partielle Datenerhebung und Crawlingvergleiche mit dem Screaming Frog

Um Onpage-Issues aufzudecken, ist der Screaming Frog seit jeher die erste Wahl. Jedoch nutzen viele User den Crawler lediglich dazu, Onpage-Fehler – wie fehlende Metadaten oder falsch gesetzte Weiterleitungen – zu lokalisieren. Weniger populär sind hingegen die Funktionen, die sich vornehmlich um die eigene Website kümmern.  Hierzu zählen beispielsweise eine Reihe an Crawl-Konfigurationen, mit deren Hilfe man nur bestimmte Seitenbestandteile analysieren kann. Dies gelingt unter dem Menüpunkt “Configuration -> User Agent -> include/exclude”. So ist es möglich, einzelne Verzeichnisse zu erfassen, was insbesondere bei Shopbetreibern, deren Onlineshops schnell Millionen von Artikelseiten umfassen können, zu einer deutlichen Verkürzung des Crawlingvorgangs und einer besseren Übersichtlichkeit der aggregierten Daten führt. Ebenfalls werden Crawls häufig nur zu punktuellen Erhebung genutzt, dabei bietet die Software ebenfalls die Möglichkeit gespeicherte Crawls miteinander zu vergleichen (“File -> Crawls ->Select to compare”). Dies ist besonders hilfreich, um auch die mobile Variante einer Seite mit der Desktop-Version zu vergleichen oder aber um vor Relaunches die Test- mit der Live-Umgebung abzugleichen.

2. Der Sichtbarkeitsindex ist nicht der heilige Gral

Die allermeisten SEOs in DACH nutzen Sistrix als Cornerstone-Tool ihrer SEO-Aktivitäten. Dies nicht zuletzt aufgrund des allseits anerkannten Sichtbarkeitsindexes, der es ermöglicht schnell und plakativ die Sichtbarkeit der eigenen Domain mit der des Wettbewerbs zu vergleichen.  Doch sollte man die Unumstößlichkeit des Sichtbarkeitsindex relativieren. Hierzu muss man zunächst verstehen, wie sich dieser Wert berechnet. Dieser wird auf Basis eines durch Sistrix ermittelten Keywordsets und den hierfür vorhandenen Top-100-Platzierungen der jeweiligen Seite und deren durchschnittlichen monatlichen Suchvolumen ermittelt. Es handelt sich daher um einen Index, der angibt, wie gut eine Seite im Ranking für recht prominente Suchbegriffe platziert ist. So weit, so gut; jedoch sagt dies zunächst einmal nichts über den Traffic und – für Shopbetreiber nicht minder wichtig – die Anzahl an daraus resultierenden Verkäufe aus. Es wäre daher theoretisch möglich, für reichweitenstarke Begriffe mit informativen Seiten eine gute Platzierung im Ranking zu erzielen, ohne darüber allerdings eine nennenswerte Anzahl an Conversions zu erzielen. Was können Webseitenbetreiber nun tun? Zunächst einmal sollten die Sichtbarkeitswerte nicht nur auf Domain-Ebene analysiert werden, sondern gezielt einzelne Verzeichnisse oder gar URLs untersucht werden. Ebenso lohnt sich ein steter Abgleich mit den Daten aus Google Analytics oder eines vergleichbaren Analysetools, ob die guten Rankings auch tatsächlich die gewünschte Nutzerinteraktion nach sich ziehen. Denn am Ende ist das Ziel, möglichst viele Conversions zu erhalten anstatt Pyrrhussiege davonzutragen: Denn wenn lediglich in Sistrix die eigene Sichtbarkeitslinie oberhalb derer des Wettbewerbs zu sehen ist, heißt das noch lange nichts. Es handelt sich hierbei nur um einen von mehreren Indikatoren für SEO-Erfolg und keineswegs um den heiligen Gral.

3. Mit der Google Search Console mehr als nur Indexierungsdaten sehen

Die Google Search Console (GSC, ehemals Webmaster Tools) ist sicherlich das absolut erste Go-to-Tool, welches Webmaster beim Betrieb einer Seite nutzen sollten. Unterschätzt werden dabei die Funktionen der Traffic-Analyse. Dabei bietet sich hier die Möglichkeit die reale Google-Welt einzusehen und zu ermitteln, über welche Begriffe, wie viele User auf welche URLs gelangten und wie deren durchschnittliche Position hierbei tatsächlich war. Auch wenig Beachtung findet immer noch die Möglichkeit die externe, wie auch die interne Verlinkung der eigenen Seite zu untersuchen. Nutzen Sie daher den Jahresanfang für einen Deep-Dive in die Daten der Search Console, anstatt diese nur als Tool zur Crawlingsteuerung zu betrachten.

4. 10 Jahre nach dem Penguine Update das eigene Backlinkprofil mit Searchmetrics untersuchen

Warum lohnt sich auch in 2022 noch der Blick auf die externen Verlinkungen, wo doch bereits vor 10 Jahren das sogenannte Penguin-Update dafür sorgte, dass der klassische Link-Kauf nicht mehr funktioniert? Die Antwort ist auch ein Jahrzehnt später im Grunde dieselbe: Externe Links verloren durch zurückliegende Updates nicht an Wert, sondern deren Gewichtung wechselte von Masse auf Klasse. Auch heute noch sind thematisch relevante Links von Seiten mit einer möglichst hohen Reputation im jeweiligen Themenfeld eine gute Möglichkeit das eigene Prestige zu erhöhen, Stichwort: E-A-T, Expertise, Authority, Trustworthiness. Webmaster sollten daher auch heuer die eingehenden Links im Auge behalten und durch qualitativ guten Content zu deren Mehrung beitragen. Eine Variante, diese Backlinks en détail zu bewerten bietet dabei der Suite-Anbieter Searchmetrics mit der Research Cloud. Hier kann neben der Überprüfung organischer Rankings und klassischen Keywordrecherchen auch das Linkprofil einer Seite analysiert werden. Unter dem Reiter “Research Cloud -> Backlinks -> Backlinks Details”, werden dabei alle referenzierenden Seiten mit URL, Titel, Linkziel und Linktext gelistet. Auch der Searchmetrics Page Strength (SPS) wird angegeben, um Webmastern einen Richtwert für die Stärke des Linkjuice zu geben, der durch den Linkgeber vererbt wird. 

Sollten Sie übrigens dubiose Links gefunden haben, die auf ihre Seite zeigen, rät Google nicht dazu diese mittels Disavow-Tool zu entwerten – außer sie erhielten vom Suchmaschinenbetreiber eine Strafandrohung (manual penalty). Als Begründung wird dabei angeführt, dass Google sich inzwischen zutraut Spamlinks selbst zu erkennen und automatisch zu entwerten. Die Praxis zeigt aber, dass Sie durchaus auch selbst aktiv werden können, wenn Sie das Gefühl haben, dass sich eine entsprechende Menge an potenziell schädlichen Links angesammelt hat.  

5. Interne Linkanalyse mit dem Selektor der Googlesuche

Doch was nützt der ganze, durch externe Verlinkung eingehende Linkjuice, wenn dieser auf der eigenen Seite nicht ideal verteilt wird? Denn ein weit verbreitetes Versäumnis vieler Webseitenbetreiber ist die zu selten stattfindende interne Linkanalyse. Oftmals wird über die interne Verlinkung gar nicht oder schlicht nur aus betriebspolitischen Aspekten nachgedacht. Eine gezielte Suchmaschinenoptimierung findet selten statt. Zunächst müssen wir an dieser Stelle jedoch erwähnen, welche Faktoren sich Google überhaupt ansieht, wenn es um die Bewertung interner Links geht. Hier ist allem voran die Indexierbarkeit der linkgebenden Seite zu erwähnen, sollte ein “rel=noindex” das Indexieren unterbinden, zählt der Link folglich nicht. Aber auch der Anchortext (Linktext), die Erreichbarkeit der Seite und die Menge und der Inhalt des umgebenden Textes sind entscheidend. Auch zählen Links im Fließtext einer Seite deutlich mehr als solche im Boilerplate, also der Navigation oder dem Footer einer Webseite. Wollen Sie als Seitenbetreiber prüfen, welche URLs ihrer Domain Google generell als relevant erachtet und ob sich damit eine Verlinkung lohnt, ist eine Abfrage mit dem Selektor “site:URL”, bei Google zu empfehlen. So werden Ihnen lediglich indexierte URLs der jeweiligen Domain angezeigt. Auch deren Reihenfolge kann Rückschlüsse über deren Wichtigkeit geben. Alle, die nun die Sinnhaftigkeit der eigenen internen Verlinkung und der damit verbunden Informationshierarchie untersuchen wollen, sollten einen einfachen Selbsttest anzuwenden. Versuchen Sie in der mobilen Ansicht Ihrer Seite eine bestimmte URL zu erreichen, ohne dabei die Navigation und/oder Paginierungen zu erreichen. Funktioniert dies nicht oder nur schwer, sollten Sie die Architektur hinterfragen. 

Über den Autor

Sebastian Schulze ist SEO-Berater und Projektleiter der Digital Marketing Agentur hurra.com und hauptverantwortlich für den SEO-Bereich der Agentur. In seiner bisherigen Laufbahn betreute er eine Bandbreite von Unternehmen, von der Pharmaindustrie bis hin zum Finanz- und Versicherungsbereich.

Verantwortlicher für diese Pressemitteilung:

hurra.com
Herr Markus Schindler
Pleidelsheimer Straße 15
70599 Stuttgart
Deutschland

fon ..: +49 711 459994 – 0
web ..: https://www.hurra.com
email : info@hurra.com

Über hurra.com

hurra.com ist eine der größten inhabergeführten, international agierenden Digital Performance Marketing Agenturen in Deutschland. Das Serviceangebot umfasst SEA, SEO, Online Display und Social Media Advertising bis hin zu Bewegtbild und TV-Media Optimierung.

hurra.com legt Wert auf eine ganzheitliche Beratung und die optimal aufeinander abgestimmte Umsetzung verschiedener Online-Marketing-Maßnahmen und sorgt so für nachhaltige, erfolgreiche Performance im Online-Marketing.

Die Geschäftsführung von hurra.com liegt in den Händen der beiden Gründer René Schweier und Markus Schindler.

Pressekontakt:

Saskia Müller PR, Events & Coaching
Frau Saskia Müller
Behringstraße 111A
80999 München

fon ..: 01783421567
email : hurra@saskiamueller.com

PM-Ersteller
Author: PM-Ersteller

WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
LoopsterPanel
WERBUNG
WERBUNG
WERBUNG
WERBUNG
WERBUNG
My Agile Privacy
Diese Website verwendet technische und Profiling-Cookies. Durch Klicken auf "Akzeptieren" autorisieren Sie alle Profiling-Cookies . Durch Klicken auf "Ablehnen" oder das "X" werden alle Profiling-Cookies abgelehnt. Durch Klicken auf "Anpassen" können Sie auswählen, welche Profiling-Cookies aktiviert werden sollen
Warnung: Einige Funktionen dieser Seite können aufgrund Ihrer Datenschutzeinstellungen blockiert werden: