//

Duplicate Content: Ursachen und Lösungen

Von 17. November 2016

Ein weit verbreitetes Problem mit dem viele Websitebetreiber und SEOs zu kämpfen haben ist der sogenannte Duplicate Content (zu Deutsch: doppelte Inhalte). Doch was verbirgt sich dahinter? Duplicate Content bedeutet, dass der exakt gleiche Inhalt mehrfach im Web unter verschiedenen URLs verfügbar ist. Suchmaschinen wie Google wissen in solchen Fällen nicht, welche der URLs in den Suchergebnissen (SERPs) ausgegeben werden soll, was wiederum einen negativen Einfluss auf das Website-Ranking haben kann. Im Folgenden zeigen wir Ihnen welche Ursachen Duplicate Content haben kann und wie sich diese lösen lassen.

Häufige Ursachen für Duplicate Content

Duplicate Content kann eine Vielzahl verschiedener Ursachen haben. Oftmals sind diese nicht sofort ersichtlich und passieren ohne dass man es beabsichtigt und sich dessen bewusst ist.

Google erkennt eine Seite beispielsweise auch als Duplicate Content, wenn diese mit und ohne www erreichbar ist. Wenn Ihre Website sowohl unter http wie auch https erreichbar ist, gilt das gleiche.

Ein weiterer Grund für Duplicate Content ist der Umzug der Seite auf eine neue Domain. Während die alte Seite unter der alten Domain noch im Index von Google vorhanden ist, indexiert die Suchmaschine bereits die neue Seite und erkennt unweigerlich die doppelten Inhalte. In diesem Fall würde man von externem Duplicate Content.

Ist die Startseite beispielsweise sowohl unter http://www.website.de als auch unter http://www.website.de/index.html erreichbar, handelt es sich hierbei ebenfalls um doppelte Inhalte.

Im Entwicklungsprozess einer neuen Seite, wird unweigerlich eine Test- und Entwicklungsumgebung benötigt, welche Kopien der eigentlichen Seite bereitstellen. Oftmals sind diese über eine Subdomain (Bsp.: http://test.website.de) erreichbar, wodurch die gesamte Website inklusive aller Unterseiten zu Duplicate Content wird. Bei einer falschen oder unsauberen Handhabung kann es passieren, dass diese Test-Seiten in den Google-Index rutschen und somit dem Ranking der eigentlichen Seite schaden können.

Websites auf Duplicate Content prüfen

Glücklicherweise stellt das Web viele Tools zur Verfügung mit denen sich doppelte Inhalte identifizieren lassen. Als Internetagentur haben wir bei reseen XOVI im Einsatz, ein kostenpflichtiges SEO-Toolset, das durch ausführliche OnPage-Analysen neben Duplicate Content Fehlern auch weitere Optimierungspotenziale der Website aufdeckt.

Es lassen sich jedoch auch kostenlose Tools, wie beispielsweise Siteliner im Web ausfindig machen, mit denen eine grundlegende Analyse Ihrer Website möglich ist.

Eine weitere Anlaufstelle ist die Google Search Console, welche auf doppelt besetzte Title und Descriptions hinweist. Auf diesem Weg lassen sich möglicherweise Seiten identifizieren, die doppelte Inhalte aufweisen.

Vermeidung von Duplicate Content

Eines der wohl wichtigsten Themen im Bereich Suchmaschinenoptimierung (SEO) greift auch bei der Vermeidung von Duplicate Content: 301 Redirects bzw. Weiterleitungen.

Nicht nur beim Umzug einer Website auf eine neue Domain oder der Umstrukturierung der Website spielen 301 Redirects eine wichtige Rolle, damit Linkjuice und damit das Ranking einer Seite erhalten bleibt. Die oben genannten Probleme bezüglich der Startseite oder auch die Erreichbarkeit mit und ohne www, lassen sich durch Weiterleitungen schnell und einfach in den Griff bekommen.

Eine weitere Lösung dem Duplicate Content zu Leibe zu rücken sind die sogenannten Canonical-Tags. Diese werden in den <head> einer Website integriert und verweisen auf eine Originalquelle des Inhalts, wodurch Duplikate vermieden werden können. Das Canonical-Tag gibt somit ein Signal an die Suchmaschine, welche Inhalte primär indexiert werden sollen und welche nicht.

Um Duplicate Content-Probleme in Bezug auf einen Test- oder Entwicklungsserver zu vermeiden, lässt sich die robots.txt – Datei heranziehen. Hier kann explizit angegeben werden, dass eine Subdomain, welche zu Entwicklungszwecken eingerichtet wurde, von Suchmaschinen nicht indexiert werden darf.