🔍 404-Fehler auf der Website beheben – und warum das mehr als Aufräumen ist

Veröffentlicht am 06. April 2026 von Stefan Metze

Browser zeigt 404-Fehlerseite – Symbolbild für nicht gefundene Webseiten
404-Fehler sehen harmlos aus – haben aber direkte Auswirkungen auf SEO und Nutzervertrauen

Als ich neulich meine eigene Website in der Google Search Console unter die Lupe genommen habe, hat mich eine Zahl direkt angesprungen: 52 URLs die Google kennt, aber nicht erreichen kann. 52 tote Links. Alle mit Status 404 – Not Found.

Ehrlich gesagt hatte ich das zu lange ignoriert. Der Wechsel von WordPress zu Astro liegt schon eine Weile zurück, aber Google hat sich die alten URLs gemerkt. Und solange ich nichts dagegen unternehme, crawlt er die weiter, findet nichts – und zieht im Hintergrund die falschen Schlüsse über meine Website.

Was 404-Fehler mit SEO zu tun haben

Kurz gesagt: mehr als die meisten denken.

Wenn Google eine URL kennt und sie regelmäßig als 404 zurückbekommt, entfernt er sie irgendwann aus dem Index. Das klingt erstmal gut – alte Seiten weg, sauber. Das Problem ist der Zeitraum dazwischen. Google crawlt neue oder wenig bekannte Seiten seltener. Wenn er dafür aber immer wieder auf tote Seiten stößt, verschwendet er sein sogenanntes Crawl-Budget – die Kapazität, die er pro Website pro Zeitraum aufwendet. Das kann dazu führen, dass wichtige Seiten seltener gecrawlt und aktualisiert werden.

Noch kritischer: Wenn externe Websites auf eine URL verlinken die bei mir 404 zurückgibt, geht dieser “Link-Juice” verloren. Der Link ist da, aber er verpufft ins Nichts.

Kurzum: 404-Fehler sind kein kosmetisches Problem. Sie sind ein strukturelles.

Wie ich die 404er gefunden habe

Der einfachste Weg führt über die Google Search Console. Dort unter Indexierung → Seiten findet sich ein Filter für “Nicht gefunden (404)”. Google listet dort alle URLs auf, die er kennt aber nicht erreichen konnte – inklusive des letzten Crawling-Datums.

Was mir dabei aufgefallen ist: Einige dieser URLs waren zuletzt im Oktober 2025 gecrawlt worden. Das sind sechs Monate ohne Rückmeldung. Google merkt sich diese URLs trotzdem – er gibt nicht so schnell auf.

Leider lässt sich die Liste in der GSC nicht direkt als CSV exportieren. Ich habe mir die URLs manuell aus den “Beispielseiten” kopiert und in eine Textdatei gepackt – dann ging die Analyse los.

Die Kategorien: Nicht alle 404er sind gleich

Als ich die 52 URLs durchgegangen bin, hat sich ein klares Muster gezeigt. Ich habe sie in fünf Gruppen eingeteilt – und für jede Gruppe braucht es eine andere Reaktion:

1. Alte WordPress-Kategorien und Tags

URLs wie /category/reisen/ oder /tag/chatgpt/ – das sind WordPress-Taxonomie-Seiten. In meiner neuen Astro-Website gibt es diese Strukturen nicht mehr. Und ehrlich gesagt: Kein Mensch sucht danach. Hier muss ich gar nichts tun. Google wird diese Seiten mit der Zeit aus dem Index entfernen, wenn er sie oft genug als 404 sieht.

2. Alte Blogartikel die ich nicht ĂĽbernommen habe

URLs wie /berlin/baustellen-in-berlin/5-sterne-berlin-projekt-friedrichstrasse-100/ – Artikel aus einer anderen Lebensphase meines Blogs, die ich bewusst nicht nach Astro übernommen habe. Für diese gibt es eine bessere Antwort als 404: den HTTP-Status 410 Gone.

Der Unterschied ist wichtig. 404 sagt: “Diese Seite habe ich gerade nicht gefunden.” 410 sagt: “Diese Seite existiert nicht mehr und wird nie wiederkommen.” Google reagiert auf 410 deutlich schneller und entfernt diese URLs zügiger aus dem Index. Das ist genau das, was ich will.

3. Umbenannte Leistungsseiten

Das ist die kritischste Gruppe – und zum Glück die kleinste. Meine alte Seite /leistungen/seo/ existiert nicht mehr, weil ich sie zu /leistungen/seo-und-ki/ umbenannt habe. Hier braucht es eine 301-Weiterleitung: Google und alle Besucher werden automatisch auf die neue URL umgeleitet, der Link-Juice bleibt erhalten.

Für diese Seiten habe ich außerdem direkt in der Google Search Console unter “URL-Prüfung” eine manuelle Neuindexierung beantragt – so bekommt Google die Korrektur innerhalb von Tagen mit, nicht erst nach Wochen.

4. Technische WordPress-Reste

URLs mit Parametern wie ?social_controller=auth oder /pagead/gen_204 – das sind Überbleibsel von WordPress-Plugins und Google-Tracking-Mechanismen. Kein echter Besucher ruft diese URLs auf, kein Mensch sucht danach. Hier ist Ignorieren die richtige Strategie.

5. Test-Inhalte die nie hätten live sein sollen

/blog/test-ohne-bild/ – selbsterklärend. Auch das bekommt einen 410.

Die technische Umsetzung: .htaccess

Da ich auf einem klassischen Apache-Webserver hoste, ist die .htaccess-Datei das richtige Werkzeug. Für Astro-Projekte gehört sie in den public/-Ordner – beim nächsten Build landet sie automatisch im richtigen Verzeichnis.

So sieht die Struktur aus:

# 301 – Umgezogen, bitte weiterleiten
Redirect 301 /leistungen/seo/ /leistungen/seo-und-ki/

# 410 – Endgültig weg
Redirect gone /berlin/baustellen-in-berlin/5-sterne-berlin-projekt-friedrichstrasse-100/
Redirect gone /mein-morgen-briefing/freitag-25-august-2023/
Redirect gone /blog/test-ohne-bild/
# ... weitere URLs

Redirect gone ist dabei die Apache-Kurzform fĂĽr HTTP 410. Technisch identisch, syntaktisch kĂĽrzer als Redirect 410.

Wichtig: Falls bereits eine .htaccess existiert – und bei Astro-Projekten mit vorherigen WordPress-Migrationen ist das wahrscheinlich – sollte man die neue Datei nicht einfach ersetzen, sondern zusammenführen. Bestehende Weiterleitungen und Caching-Regeln müssen erhalten bleiben.

Was das mit meiner Website gemacht hat

Ich habe die überarbeitete .htaccess eingespielt, die Leistungsseiten in der GSC zur Neuindexierung angemeldet und dann abgewartet. Google braucht ein paar Tage um auf manuelle Anfragen zu reagieren – automatisch kann es Wochen dauern.

Parallel dazu habe ich festgestellt, dass zwei meiner Leistungsseiten – /leistungen/print/ und /leistungen/online-marketing/ – ebenfalls als 404 gemeldet waren, obwohl sie existieren. Letztes Crawling: Februar 2026. Zwei Monate ohne Besuch von Google. Das ist kein technisches Problem, sondern ein Sichtbarkeitsproblem: Seiten die wenig externe Links haben, werden seltener gecrawlt. Auch hier hilft die manuelle Neuindexierung über die GSC.

Was ich daraus gelernt habe

Die Google Search Console ist kein Tool das man einmal einrichtet und vergisst. Sie ist ein Frühwarnsystem. Wer regelmäßig – ich würde sagen einmal im Monat – einen Blick in die Berichte wirft, erkennt Probleme bevor sie sich aufschaukeln.

Für alle die von WordPress auf ein statisches System wie Astro gewechselt haben: Die alten URL-Strukturen verschwinden nicht einfach aus Googles Gedächtnis. Eine saubere Weiterleitungsstrategie direkt nach der Migration spart später viel Aufwand.

Und noch etwas: 404-Fehler sind oft ein Symptom dafür, dass die eigene Website zu wenig Aufmerksamkeit bekommt. Wenn Google eine Seite seit sechs Monaten nicht gecrawlt hat, ist das ein Signal – kein Drama, aber ein Hinweis dass Content, interne Verlinkung und technische Basis einen genaueren Blick verdienen.

Wenn du wissen willst wie deine Website in der Google Search Console aussieht und was die Zahlen bedeuten, schau gern auf meine SEO und KI-Optimierung Leistungsseite. Und falls du gerade selbst von WordPress auf ein modernes Framework wechselst oder deine Website generell auf Vordermann bringen willst: Das ist genau der Bereich in dem ich mit professionellem Webdesign und Astro-Webseiten helfe.