SEO

SEO & Website-Relaunch: Was du unbedingt beachten musst

Ein Website-Relaunch ist oft ein notwendiger Schritt, um mit der Zeit zu gehen. Neues Design, verbesserte Benutzerfreundlichkeit, aktuelle Technik – die Gründe können vielfältig sein. Doch so ein Neustart birgt auch erhebliche Risiken, insbesondere für die Suchmaschinenoptimierung (SEO). Wer hier nicht aufpasst, riskiert empfindliche Verluste bei Rankings und organischem Traffic, die mühsam über Jahre aufgebaut wurden. Ein Relaunch ist eben mehr als nur ein neues Kleid für die Website; es ist oft ein tiefgreifender Eingriff in die Struktur und Technik, der von Suchmaschinen wie Google genau registriert wird. Fehler in der Planung oder Umsetzung können dazu führen, dass Google die neue Seite schlechter bewertet als die alte oder wichtige Inhalte schlicht nicht mehr findet. Das Ergebnis: Die Sichtbarkeit in den Suchergebnissen sinkt, potenzielle Kunden finden die Seite nicht mehr, und der Umsatz kann einbrechen. Aber keine Sorge: Ein Relaunch muss kein SEO-Desaster sein. Im Gegenteil, mit der richtigen Vorbereitung und Durchführung kann er sogar eine Chance sein, Altlasten zu beseitigen und die SEO-Performance nachhaltig zu verbessern. Dieser Beitrag zeigt auf, was bei einem SEO-konformen Website-Relaunch entscheidend ist – von der akribischen Planung über die technische Umsetzung bis hin zum unverzichtbaren Monitoring nach dem Go-Live.

Es geht darum, die “SEO-Power” der alten Seite – also etablierte Rankings, wertvolle Backlinks und gut performende Inhalte – möglichst nahtlos auf die neue Präsenz zu übertragen. Das erfordert ein tiefes Verständnis dafür, wie Suchmaschinen Websites crawlen, indexieren und bewerten. Technische Aspekte wie Weiterleitungen, Indexierungssteuerung und Ladezeit spielen dabei eine ebenso wichtige Rolle wie die sorgfältige Migration von Inhalten und die Anpassung von URLs. Wer diese Faktoren von Anfang an berücksichtigt und den Relaunch-Prozess eng mit SEO-Maßnahmen verzahnt, minimiert die Risiken und maximiert die Chancen auf einen erfolgreichen Neustart. Wir beleuchten die kritischen Phasen und geben konkrete Tipps, damit der nächste Relaunch nicht zum Stolperstein, sondern zum Sprungbrett für bessere Sichtbarkeit wird.

Das Wichtigste auf einen Blick

Ein Website-Relaunch ist eine kritische Phase für die SEO-Performance. Ohne sorgfältige Planung und Umsetzung drohen massive Verluste bei Rankings und organischem Traffic. Entscheidend ist die frühzeitige Einbindung von SEO-Überlegungen in den gesamten Prozess. Eine gründliche Bestandsaufnahme der alten Seite (Rankings, Traffic, Backlinks, Technik) bildet die Basis. Das Herzstück der technischen Migration sind korrekte 301-Weiterleitungen von alten auf neue URLs, basierend auf einem detaillierten URL-Mapping. Ebenso wichtig sind die Sicherstellung der Indexierbarkeit der neuen Seite und die Optimierung technischer Faktoren wie Ladezeit und Mobile Friendliness. Die Content-Migration muss sorgfältig geplant werden, um wichtige Inhalte und deren SEO-Wert zu erhalten. Nach dem Go-Live ist ein intensives SEO-Monitoring unerlässlich, um Probleme schnell zu erkennen und zu beheben. Kurzfristige Schwankungen sind normal, aber bei anhaltenden Traffic-Einbrüchen ist schnelles Handeln gefragt.

  • Frühzeitige SEO-Einbindung in den Relaunch-Prozess sicherstellen.
  • Umfassendes SEO-Audit der alten Website durchführen.
  • Detaillierte Weiterleitungsplanung (301-Redirects) erstellen und umsetzen.
  • Sorgfältige Content-Migration und URL-Mapping durchführen.
  • Technische SEO-Faktoren prüfen (Indexierbarkeit, Ladezeit, Mobile Friendliness).
  • Intensives Monitoring nach dem Go-Live etablieren.
  • Einen Notfallplan für mögliche Traffic-Einbrüche bereithalten.

Gute Vorbereitung ist alles: Die SEO-Planung vor dem Relaunch

Ein Website-Relaunch ohne gründliche SEO-Planung ist wie ein Hausbau ohne Bauplan – das Ergebnis ist bestenfalls zufällig, schlimmstenfalls eine Katastrophe. Bevor auch nur eine Zeile Code geschrieben oder ein Design-Entwurf erstellt wird, müssen die SEO-Aspekte auf dem Tisch liegen. Warum? Weil viele grundlegende Entscheidungen – von der Wahl des Content-Management-Systems über die Informationsarchitektur bis hin zur URL-Struktur – direkte Auswirkungen auf die spätere Sichtbarkeit in Suchmaschinen haben. Es gilt, von Anfang an die Weichen richtig zu stellen. Dazu gehört als Erstes eine klare Definition der Relaunch-Ziele. Geht es primär um ein moderneres Design? Soll die Technik erneuert werden? Ist eine komplette Neustrukturierung der Inhalte geplant oder vielleicht sogar ein Domainwechsel? Je klarer der Umfang und die Ziele definiert sind, desto besser lässt sich die SEO-Strategie darauf abstimmen. Ein zentraler Schritt ist die Bestandsaufnahme der aktuellen Website. Welche Seiten bringen den meisten organischen Traffic? Für welche Keywords rankt die Seite gut? Welche Inhalte haben wertvolle Backlinks angezogen? Welche technischen Schwächen hat die alte Seite? Diese Analyse liefert die Basisdaten, um zu entscheiden, was unbedingt erhalten bleiben muss und wo Verbesserungspotenzial besteht.

  • Ziele definieren: Was soll der Relaunch erreichen? (z.B. bessere UX, höhere Conversion Rate, schnellere Ladezeiten, Stärkung bestimmter Themenbereiche). SEO-Ziele explizit formulieren (z.B. Sichtbarkeit halten/steigern, Rankings für Kern-Keywords verbessern).
  • SEO-Audit (Ist-Analyse): Umfassende Prüfung der bestehenden Website. Dazu gehören:
    • Aktuelle Rankings und Sichtbarkeit (Tools: Sistrix, SEMrush etc.).
    • Organischer Traffic und wichtigste Landingpages (Tool: Google Analytics).
    • Indexierungsstatus und Crawling-Fehler (Tool: Google Search Console).
    • Technische SEO-Faktoren (Ladezeit, Mobile Friendliness, HTTPS, Strukturierte Daten).
    • Backlink-Profil analysieren (wertvolle Links identifizieren).
    • Content-Performance (welche Inhalte funktionieren gut?).
  • Keyword-Recherche & Mapping: Bestehendes Keyword-Set überprüfen, ggf. erweitern und den geplanten neuen Inhalten/Seiten zuordnen.
  • Wettbewerbsanalyse: Wie sind die wichtigsten Konkurrenten aufgestellt? Was kann man lernen?
  • Content-Inventur & Planung: Entscheidung treffen, welche Inhalte übernommen, überarbeitet, zusammengeführt oder gelöscht werden sollen. Planung neuer Inhalte.
  • Informationsarchitektur & URL-Konzept: Eine logische, nutzerfreundliche und SEO-optimierte Struktur für die neue Seite entwickeln. Sprechende, konsistente URLs planen.
  • Technisches Konzept: Anforderungen an CMS, Hosting, Serverkonfiguration definieren. Fokus auf Performance und Mobile First.
  • Ressourcen & Zeitplan: Realistische Planung von Budget, Personal und Zeitrahmen unter Berücksichtigung der SEO-Aufgaben.
  • KPIs festlegen: Messbare Ziele definieren, um den Erfolg des Relaunches (auch aus SEO-Sicht) bewerten zu können (z.B. Sichtbarkeitsindex, organische Zugriffe, Ranking-Veränderungen).

Die Ergebnisse dieser Planungsphase müssen sorgfältig dokumentiert werden. Das SEO-Audit deckt schonungslos auf, wo die Stärken und Schwächen der alten Seite liegen. Tools wie Google Analytics und die Google Search Console liefern hierfür unverzichtbare Daten. Ergänzend helfen Crawler wie Screaming Frog oder Ryte, technische Details und die Seitenstruktur zu analysieren. Besonders wichtig ist die Identifikation der Seiten, die das meiste “SEO-Kapital” besitzen – sei es durch hohe Rankings, viel Traffic oder starke Backlinks. Diese Seiten verdienen beim Relaunch besondere Aufmerksamkeit, insbesondere bei der Planung der Weiterleitungen. Die Keyword-Analyse sollte nicht nur den Status quo abbilden, sondern auch zukünftige Potenziale berücksichtigen. Vielleicht ergeben sich durch die Neuausrichtung der Seite neue relevante Themenfelder? Die Planung der neuen URL-Struktur ist ebenfalls kritisch. Sie sollte logisch, kurz und möglichst keyword-relevant sein. Jede Änderung einer URL erfordert später eine Weiterleitung – daher gilt: Nur ändern, was wirklich nötig ist oder einen klaren Vorteil bringt. Diese sorgfältige Vorbereitung kostet Zeit, ist aber die beste Versicherung gegen böse Überraschungen nach dem Go-Live.

Siehe auch:  Was ist SEO? Eine einfache Erklärung für Anfänger

Technik-Check: Kritische SEO-Faktoren (Weiterleitungen, Indexierung & Co.)

Die Technik ist das Rückgrat jeder Website – und beim Relaunch ein besonders kritischer Faktor für SEO. Hier lauern viele potenzielle Fallstricke, die Rankings kosten können. Das absolute A und O sind die Weiterleitungen, genauer gesagt die 301-Redirects. Ändert sich durch den Relaunch die URL einer Seite (was fast immer der Fall ist, sei es durch eine neue Struktur, ein neues CMS oder einfach nur optimierte URLs), muss Google mitgeteilt werden, wo der Inhalt nun zu finden ist. Ein 301-Redirect signalisiert eine dauerhafte Verschiebung. Das ist wichtig, damit Google den Großteil der Linkkraft (Linkjuice) und die Rankingsignale der alten URL auf die neue überträgt. Fehlen diese Weiterleitungen oder werden falsche Typen (z.B. 302 – temporär) verwendet, gehen wertvolle Signale verloren, und die Seiten fallen im Ranking. Genauso wichtig ist die korrekte Indexierungssteuerung. Die neue Live-Seite muss für Suchmaschinen-Crawler zugänglich und indexierbar sein. Das bedeutet: Die robots.txt darf keine wichtigen Bereiche blockieren, und die Meta-Robots-Tags auf den relevanten Seiten müssen auf “index, follow” stehen. Eine häufige Fehlerquelle: Die Einstellungen der Testumgebung (die korrekterweise auf “noindex” stehen sollte) werden versehentlich auf die Live-Seite übernommen. Das Ergebnis: Die neue Seite wird nicht indexiert und verschwindet aus den Suchergebnissen. Purer Horror!

Prüfpunkt Beschreibung Status / Wichtigkeit
Weiterleitungs-Map (URL-Mapping) Vollständige Liste aller relevanten alten URLs und ihrer entsprechenden neuen Ziel-URLs für die 301-Redirects. Kritisch
Robots.txt Prüfen, ob die Datei korrekt konfiguriert ist und keine wichtigen Seiten oder Ressourcen (CSS, JS) für Crawler blockiert. Testumgebung ausschließen! Hoch
Meta-Robots-Tags / X-Robots-Tag Sicherstellen, dass alle indexierbaren Seiten auf “index, follow” stehen und keine ungewollten “noindex”-Anweisungen vorhanden sind. Hoch
Neue XML-Sitemap Erstellen einer aktuellen, fehlerfreien XML-Sitemap mit allen relevanten URLs der neuen Struktur. Einreichen in der Google Search Console nach Go-Live. Hoch
Canonical Tags Korrekte Implementierung zur Vermeidung von Duplicate Content, insbesondere bei Parametern, Filtern oder Druckversionen. Mittel-Hoch
Mobile Friendliness / Responsive Design Umfassende Tests auf verschiedenen Geräten und Bildschirmgrößen. Google prüft mobil zuerst (Mobile First Indexing). Kritisch
Ladezeit (Pagespeed / Core Web Vitals) Optimierung von Bildern, Code (CSS, JS), Caching, Server-Antwortzeiten. Messung mit Tools wie PageSpeed Insights. Kritisch
HTTPS-Konfiguration Sicherstellen, dass ein gültiges SSL-Zertifikat vorhanden ist, die gesamte Seite über HTTPS ausgeliefert wird und keine “Mixed Content”-Warnungen auftreten. Hoch
Strukturierte Daten (Schema.org) Prüfen, ob vorhandene Markups korrekt übernommen wurden oder neue implementiert werden können, um Rich Snippets zu ermöglichen. Validierung mit Testtools. Mittel

Neben Weiterleitungen und Indexierung gibt es weitere technische Aspekte, die nicht vernachlässigt werden dürfen. Die XML-Sitemap muss die neue Seitenstruktur widerspiegeln und nach dem Go-Live bei Google und anderen Suchmaschinen eingereicht werden, um die Indexierung zu beschleunigen. Canonical Tags helfen dabei, Duplicate Content zu vermeiden, was gerade bei Shops mit Filterfunktionen oder bei Druckversionen von Seiten wichtig ist. Da Google nach dem Prinzip des Mobile First Indexing arbeitet, ist eine einwandfreie Darstellung und Funktionalität auf Mobilgeräten unerlässlich. Die Ladezeit ist ein bekannter Rankingfaktor und entscheidend für die Nutzererfahrung. Die Core Web Vitals (LCP, FID/INP, CLS) sollten im grünen Bereich liegen. Auch die Umstellung auf oder Beibehaltung von HTTPS muss sauber erfolgen, inklusive der Vermeidung von “Mixed Content”, bei dem unsichere HTTP-Elemente auf einer sicheren HTTPS-Seite geladen werden. Strukturierte Daten (Schema.org) können helfen, die Inhalte für Suchmaschinen besser verständlich zu machen und die Darstellung in den Suchergebnissen (Rich Snippets) zu verbessern. Ein gründlicher Technik-Check vor und unmittelbar nach dem Go-Live ist unerlässlich, um sicherzustellen, dass die neue Website auf einem soliden Fundament steht.

Content und URLs sichern: So migrierst du Inhalte richtig

Beim Relaunch dreht sich viel um Design und Technik, aber der Inhalt bleibt König – auch für SEO. Eine der Kernaufgaben ist die sorgfältige Migration der bestehenden Inhalte. Einfach alles blind zu kopieren ist selten die beste Lösung. Der Relaunch ist eine ideale Gelegenheit, den Content zu überprüfen, zu aktualisieren und zu optimieren. Die Basis dafür liefert die Content-Inventur aus der Planungsphase. Hier wird entschieden: Welche Inhalte sind noch relevant und performant (bringen Traffic, gute Rankings, Backlinks)? Diese sollten übernommen werden. Welche Inhalte sind veraltet oder schwach? Diese können entweder überarbeitet und verbessert, mit anderen Inhalten zusammengeführt oder – wenn sie keinen Wert mehr bieten – auch gelöscht werden. Beim Übernehmen von Inhalten geht es nicht nur um den reinen Text. Auch Bilder (inkl. Alt-Tags!), Videos, PDFs und andere Medien müssen berücksichtigt und korrekt eingebunden werden. Ein ganz entscheidender Punkt ist die Behandlung der URLs. Da sich bei einem Relaunch oft die gesamte URL-Struktur ändert, bekommt fast jeder Inhalt eine neue Adresse. Das URL-Mapping, also die genaue Zuordnung jeder alten URL zu ihrer neuen Entsprechung, ist hier das zentrale Dokument. Es bildet die Grundlage für die später einzurichtenden 301-Weiterleitungen und stellt sicher, dass Nutzer und Suchmaschinen die Inhalte unter ihrer neuen Adresse finden.

Merke: Das URL-Mapping ist entscheidend!

Das URL-Mapping ist eine detaillierte Liste, die jede relevante URL der alten Website ihrer entsprechenden neuen URL auf der neuen Website zuordnet. Dieses Mapping ist die Grundlage für die Einrichtung der 301-Weiterleitungen. Ohne ein vollständiges und korrektes Mapping gehen wertvolle Rankings und Traffic verloren, da Suchmaschinen und Nutzer die neuen Seiten nicht finden können. Es ist eines der kritischsten Dokumente im gesamten Relaunch-Prozess. Fehler hier können gravierende und langanhaltende negative Auswirkungen auf die SEO-Performance haben.

  • Jede wichtige alte URL (insbesondere solche mit Traffic, Rankings oder Backlinks) muss eine passende neue Ziel-URL haben.
  • Die Zuordnung sollte thematisch 1:1 erfolgen. Weiterleitungen auf die Startseite oder allgemeine Kategorieseiten sind nur Notlösungen.
  • Das Mapping muss vor der Einrichtung der Weiterleitungen finalisiert und sorgfältig geprüft werden.
  • Dokumentiere das Mapping übersichtlich, z.B. in einer Tabelle (Spalten: Alte URL | Neue URL | Statuscode (meist 301) | Anmerkungen).
  • Plane auch Weiterleitungen für Bilder, PDFs oder andere Dateitypen, falls sich deren URLs ändern.
Siehe auch:  Markenreputation im SEO: Verstehen, wie dein Ruf dein Ranking beeinflusst

Bei der Migration der Inhalte selbst sollte man auch die Onpage-Optimierung im Blick behalten. Wurden die Meta-Tags (Title und Description) korrekt übernommen? Bieten sie vielleicht Optimierungspotenzial? Sind die Überschriften (H1, H2 etc.) logisch strukturiert? Ganz wichtig: Die interne Verlinkung! Alle Links innerhalb der übernommenen Texte müssen überprüft und an die neue URL-Struktur angepasst werden. Interne Links, die auf alte URLs oder ins Leere (404-Fehler) zeigen, schaden sowohl der Nutzererfahrung als auch dem SEO. Wenn Inhalte zusammengeführt werden (Konsolidierung), muss die neue Seite die Kerninformationen und Keywords aller zusammengeführten alten Seiten abdecken. Alle alten URLs, deren Inhalte nun auf der neuen, konsolidierten Seite zu finden sind, müssen per 301 auf diese neue URL weitergeleitet werden. Für Inhalte, die bewusst gelöscht werden und für die es keinen passenden Ersatz gibt, sollte überlegt werden, ob eine Weiterleitung auf eine übergeordnete Kategorie sinnvoll ist oder ob der Server den Statuscode 410 Gone (dauerhaft entfernt) senden soll. Dies signalisiert Google klarer als ein 404 (Not Found), dass die Seite nicht mehr existiert. Die Content-Migration ist also weit mehr als nur Copy & Paste – sie ist ein strategischer Prozess zur Sicherung und Optimierung des wertvollsten Assets der Website.

Der Go-Live und danach: SEO-Monitoring für einen reibungslosen Start

Der Tag des Go-Live ist oft mit Aufregung verbunden, markiert aber nicht das Ende, sondern den Beginn einer entscheidenden Phase: des SEO-Monitorings. Jetzt zeigt sich, ob die sorgfältige Planung und technische Umsetzung Früchte tragen. Direkt nach der Umstellung muss genau beobachtet werden, wie sich die neue Website in der “freien Wildbahn” verhält. Funktionieren alle Weiterleitungen wie geplant? Findet der Googlebot die neuen Seiten und kann sie crawlen? Gibt es unerwartete technische Probleme wie Serverfehler oder eine langsame Ladezeit unter realer Last? Die Google Search Console wird in dieser Phase zum wichtigsten Werkzeug. Hier sieht man, ob Google die neue Sitemap verarbeiten kann, ob Crawling-Fehler auftreten und wie sich der Indexierungsstatus entwickelt. Leichte Schwankungen bei Rankings und Traffic sind in den ersten Tagen und Wochen nach einem Relaunch nicht ungewöhnlich – Google muss die Änderungen erst verarbeiten. Wichtig ist aber, einen klaren Abwärtstrend frühzeitig zu erkennen und die Ursachen zu analysieren. Man kann es mit der Überwachung eines Patienten nach einer Operation vergleichen: Regelmäßige Checks sind unerlässlich, um Komplikationen schnell zu entdecken.

Vorteile von Monitoring-Tools

  • Früherkennung von Problemen: Schnelles Identifizieren von Crawling-Fehlern (z.B. 404s, Serverfehler), Indexierungsproblemen, fehlerhaften Weiterleitungen oder Weiterleitungsketten.
  • Performance-Messung: Kontinuierliche Überwachung wichtiger KPIs wie organischer Traffic, Sichtbarkeitsindex, Rankings für Kern-Keywords, Absprungraten, Conversion Rates.
  • Technik-Überwachung: Kontrolle von Ladezeiten (Pagespeed, Core Web Vitals), Mobile Friendliness und Server-Erreichbarkeit.
  • Datenbasierte Optimierung: Die gewonnenen Daten liefern die Grundlage für notwendige Nachbesserungen und weitere Optimierungsmaßnahmen.
  • Kontrolle der Weiterleitungen: Spezielle Tools oder regelmäßige Crawls können sicherstellen, dass alle 301-Redirects korrekt funktionieren.
  • Verständnis der Googlebot-Aktivität: Logfile-Analysen zeigen, wie und welche Seiten Google crawlt und ob es dabei Probleme gibt.

Nachteile / Herausforderungen

  • Kostenfaktor: Umfassende SEO-Monitoring-Suiten und Tools können ins Geld gehen.
  • Know-how erforderlich: Die Einrichtung der Tools und vor allem die Interpretation der gesammelten Daten erfordern Fachwissen.
  • Informationsflut: Es ist wichtig, sich auf die relevantesten Metriken zu konzentrieren und nicht im Datendschungel unterzugehen.
  • Zeitaufwand: Ein gründliches Monitoring ist keine einmalige Aufgabe, sondern erfordert regelmäßige Analysen und Auswertungen.
  • Geduld gefragt: Nicht jede Schwankung erfordert sofortiges Handeln. Manchmal braucht Google einfach Zeit, die Änderungen zu verarbeiten.

Was genau sollte man nach dem Go-Live im Auge behalten? In den ersten Tagen ist ein täglicher Check der Google Search Console (Indexierungsbericht, Crawling-Statistiken, Fehlermeldungen) Pflicht. Parallel dazu sollte der organische Traffic in Google Analytics beobachtet werden – gibt es unerklärliche Einbrüche bei bestimmten Seiten oder Segmenten? Ein erneuter Crawl der Website mit einem Tool wie Screaming Frog ist ratsam, um sicherzustellen, dass alle Weiterleitungen korrekt funktionieren, keine neuen 404-Fehler entstanden sind und die interne Verlinkung stimmt. Die Rankings für die wichtigsten Keywords sollten engmaschig überwacht werden. Tools zur Rankingerfassung helfen hier, Veränderungen schnell zu erkennen. Auch die Server-Logfiles können wertvolle Einblicke geben: Wie oft kommt der Googlebot? Welche Seiten crawlt er? Stößt er auf Fehler (z.B. Statuscodes 5xx)? Neben den reinen SEO-Metriken ist auch das Nutzerverhalten wichtig: Steigen die Absprungraten? Sinkt die Verweildauer? Das können Hinweise auf Probleme mit der Usability oder dem Content sein. Dieses intensive Monitoring sollte nicht nach einer Woche enden, sondern über mehrere Wochen, idealerweise Monate, fortgesetzt werden, bis sich die Performance der neuen Seite stabilisiert hat. Nur so kann man sicherstellen, dass der Relaunch langfristig ein Erfolg wird.

Typische SEO-Fallen beim Relaunch – und wie du sie umgehst

Ein Website-Relaunch ist ein komplexes Projekt mit vielen beweglichen Teilen. Da ist es fast unvermeidlich, dass irgendwo Fallstricke lauern. Kennt man die häufigsten Fehlerquellen, kann man sie jedoch gezielt vermeiden. Der absolute Klassiker unter den SEO-Fallen ist das Thema Weiterleitungen. Fehlende, unvollständige oder fehlerhaft eingerichtete 301-Redirects sind die Hauptursache für massive Ranking- und Traffic-Verluste nach einem Relaunch. Wenn Google die neue Adresse einer wichtigen, gut rankenden Seite nicht kennt, verliert diese Seite ihre Sichtbarkeit. Mindestens genauso fatal, wenn auch manchmal schwerer zu entdecken: Probleme mit der Indexierungssteuerung. Eine falsch konfigurierte robots.txt, die versehentlich wichtige Verzeichnisse sperrt, oder ein “noindex”-Tag im Meta-Robots-Bereich auf zu vielen Seiten (oft ein Überbleibsel von der Testumgebung) können dazu führen, dass die neue Seite gar nicht oder nur unvollständig in den Google-Index aufgenommen wird. Auch das “Vergessen” der Anpassung der internen Links ist eine häufige Falle. Wenn Links im Content weiterhin auf die alten URLs zeigen, entstehen unnötige Weiterleitungsketten oder 404-Fehler, was die Nutzererfahrung verschlechtert und Linkkraft verschwendet.

  • Falle 1: Unvollständiges URL-Mapping / Fehlende oder falsche 301-Redirects.
    • Vermeidung: Akribische Erstellung des URL-Mappings vor dem Relaunch. Test aller eingerichteten Weiterleitungen unmittelbar nach Go-Live mit Tools wie Screaming Frog oder speziellen Redirect-Checkern. Stichprobenartige manuelle Prüfung wichtiger URLs.
  • Falle 2: Falsche Indexierungssteuerung (robots.txt, Meta-Robots, X-Robots-Tag).

    • Vermeidung: Sorgfältige Prüfung der robots.txt auf der Live-Umgebung. Überprüfung der Meta-Robots-Tags (im HTML-Quellcode) und X-Robots-Tags (im HTTP-Header) auf allen wichtigen Seiten-Templates. Sicherstellen, dass die Testumgebung zuverlässig von der Indexierung ausgeschlossen ist (z.B. durch Passwortschutz oder “noindex”-Tags).
  • Falle 3: Wichtiger Content fehlt oder wurde stark verändert.

    • Vermeidung: Umfassende Content-Inventur vor dem Relaunch. Sicherstellen, dass alle SEO-relevanten Inhalte (Texte, Bilder, Metadaten) korrekt migriert wurden. Bei inhaltlichen Änderungen darauf achten, dass wichtige Keywords und Themen erhalten bleiben.
  • Falle 4: Interne Links zeigen auf alte URLs oder 404-Seiten.

    • Vermeidung: Nach dem Go-Live die komplette Website crawlen, um fehlerhafte interne Links zu identifizieren. Korrektur dieser Links direkt im Content-Management-System oder in den Templates.
  • Falle 5: Performance-Einbußen (Ladezeit, Mobile Usability).

    • Vermeidung: Performance-Optimierung als festen Bestandteil des Entwicklungsprozesses etablieren. Regelmäßige Tests mit Tools wie Google PageSpeed Insights, Lighthouse und auf echten Mobilgeräten während der Entwicklung und nach Go-Live.
  • Falle 6: Verlust wertvoller Backlinks.

    • Vermeidung: Sicherstellen, dass alle Seiten, die über starke externe Links verfügen, korrekt per 301 auf ihre neuen Entsprechungen weitergeleitet werden. Das URL-Mapping ist hier entscheidend.
  • Falle 7: SEO wird zu spät oder gar nicht einbezogen.

    • Vermeidung: SEO von Anfang an als strategischen Partner im Relaunch-Team etablieren. SEO-Anforderungen müssen in allen Phasen (Konzeption, Design, Entwicklung, Testing, Go-Live, Monitoring) berücksichtigt werden.
Siehe auch:  SEO outsourcen oder selber machen? Die richtige Entscheidung für dein Business

Neben diesen Hauptfallen gibt es weitere Stolpersteine. Manchmal wird die HTTPS-Umstellung nicht sauber durchgeführt, was zu “Mixed Content”-Warnungen führt oder dazu, dass die Seite über beide Protokolle (HTTP und HTTPS) erreichbar ist (Duplicate Content). Das Einreichen der neuen XML-Sitemap in der Google Search Console wird gelegentlich vergessen, was die Indexierung der neuen URLs verzögern kann. Auch strukturelle Änderungen können Tücken bergen: Ist die neue Navigation für Crawler und Nutzer logisch? Sind wichtige Seiten nun tiefer in der Seitenhierarchie vergraben und schwerer erreichbar? Ein subtileres Problem kann der Verlust von Keyword-Fokus sein, wenn bei der Überarbeitung von Texten unbeabsichtigt relevante Suchbegriffe entfernt werden. Um diese Fallen zu umgehen, hilft nur Sorgfalt, eine detaillierte Checkliste und das Vier-Augen-Prinzip. Gerade bei komplexen Relaunches kann es sinnvoll sein, einen externen SEO-Spezialisten für ein Review oder die Begleitung des Prozesses hinzuzuziehen. Diese Investition zahlt sich oft aus, indem sie kostspielige Fehler und langwierige Reparaturarbeiten vermeidet.

Kein organischer Traffic mehr nach Relaunch?! – Jetzt handeln!

Es ist das Szenario, das niemand erleben möchte: Der Relaunch ist live, aber die Zugriffe aus der organischen Suche brechen dramatisch ein. Statt Aufbruchstimmung herrscht Krisenmodus. Wichtig ist jetzt: Keine Panik, aber schnelles und systematisches Handeln. Wie bereits erwähnt, sind leichte Schwankungen nach einem Relaunch normal. Google muss die neue Struktur und die Inhalte erst neu bewerten. Wenn der organische Traffic jedoch über mehrere Tage oder gar Wochen signifikant unter dem Niveau vor dem Relaunch liegt und keine Erholung in Sicht ist, liegt wahrscheinlich ein ernsthaftes Problem vor. Der erste Schritt ist die Ursachenforschung. Wo genau liegt das Problem? Sind vielleicht doch nicht alle Weiterleitungen korrekt eingerichtet? Gibt es eine Blockade bei der Indexierung, die übersehen wurde? Sind wichtige Seiten von den Rankings abgestürzt? Oder liegt ein technisches Problem wie eine extrem langsame Ladezeit vor? Die Fehlersuche muss strukturiert erfolgen, um die Nadel im Heuhaufen zu finden.

Merke: Schritte zur Fehleranalyse bei Traffic-Einbruch

Ein drastischer und anhaltender Verlust von organischem Traffic nach einem Website-Relaunch ist ein klares Alarmsignal. Gehe methodisch vor, um die Ursache(n) zu identifizieren und schnellstmöglich Gegenmaßnahmen einzuleiten. Eine ruhige, datenbasierte Analyse ist jetzt entscheidend.

  • Sofort-Check (Google Search Console): Gibt es eine manuelle Maßnahme von Google? Sind die Crawling-Fehler (insbesondere 404s und Serverfehler) sprunghaft angestiegen? Gibt es Probleme im Indexierungsbericht (z.B. viele ausgeschlossene Seiten)?
  • Weiterleitungen erneut prüfen: Stichproben wichtiger alter URLs testen. Gesamte Weiterleitungs-Map mit einem Crawler (z.B. Screaming Frog) auf Korrektheit (Ziel-URL, Statuscode 301), Ketten und Loops überprüfen.
  • Indexierungsstatus kontrollieren: Wichtige Seiten gezielt prüfen: Sind sie per robots.txt erreichbar? Steht der Meta-Robots-Tag auf “index”? Ist die neue XML-Sitemap fehlerfrei und eingereicht? Die URL-Prüfung in der Search Console nutzen.
  • Technik-Audit wiederholen: Kern-Aspekte wie Ladezeit (Core Web Vitals), Mobile Friendliness, HTTPS-Konfiguration und Canonical Tags erneut auf Fehler prüfen.
  • Content-Vergleich (Alt vs. Neu): Wurden auf den betroffenen Seiten versehentlich wichtige Inhalte, Keywords oder interne Links entfernt? Stimmen Meta-Tags und Überschriften noch?
  • Ranking-Analyse im Detail: Welche Keywords und Seiten haben die größten Ranking-Verluste? Gibt es Muster? (Tools: Ranking-Tracker, Search Console Leistungsbericht).
  • Logfile-Analyse (falls möglich): Untersuchen, wie der Googlebot mit der neuen Seite interagiert. Crawlt er die richtigen Seiten? Stößt er auf viele Fehler?

Sobald die Ursache(n) für den Traffic-Einbruch identifiziert sind, müssen sie schnellstmöglich behoben werden. Fehlende oder falsche Weiterleitungen müssen umgehend korrigiert werden. Indexierungsblockaden (robots.txt, “noindex”-Tags) müssen entfernt werden. Technische Mängel wie schlechte Performance oder Fehler in der mobilen Darstellung erfordern technische Optimierungen. Wenn Content-Änderungen das Problem sind, müssen die betroffenen Seiten möglicherweise überarbeitet werden, um den relevanten Keyword-Fokus wiederherzustellen. Nach der Behebung der Fehler ist es wichtig, die Auswirkungen erneut genau zu monitoren. Man kann über die Google Search Console eine erneute Indexierung wichtiger URLs anstoßen. Bei tiefgreifenden oder schwer zu identifizierenden Problemen kann die Unterstützung durch externe SEO-Experten sinnvoll sein. Sie bringen oft einen frischen Blick und spezialisierte Analysemethoden mit. Ein Traffic-Verlust nach einem Relaunch ist zwar ein Worst-Case-Szenario, aber in den meisten Fällen reversibel, wenn die Probleme erkannt und konsequent behoben werden. Es braucht allerdings oft Geduld, bis Google die Korrekturen vollständig verarbeitet hat und sich die Rankings und der Traffic wieder erholen.

Seit 2014 bin ich im Bereich Webseiten, E-Commerce, Marketing und SEO tätig. Meine Expertise liegt insbesondere in der Keyword-Recherche, Themen-Clusterung, strategischen Optimierung zur Verbesserung der Online-Sichtbarkeit sowie der CTA-Optimierung. Nach meiner Ausbildung zum IT-Systemkaufmann sammelte ich Erfahrung in der Onlineshop-Optimierung und bei der Entwicklung von Marktplatz-Strategien (u.a. Amazon). Später leitete ich eine E-Commerce-Abteilung und vertiefte mein Wissen durch den Aufbau eigener Blogs zu SEO und Content-Strategien. Aktuell verantworte ich den SEO-Aufbau bei www.opal-schmiede.com mit nachweislicher Steigerung von Traffic und Umsatz. Parallel dazu bin ich bei RYMHART, einem Anbieter hochwertiger, nachhaltiger Strickwaren, für das Marketing, die Projektplanung und die strategische Ausrichtung mitverantwortlich.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert