Marco betreibt seit zwei Jahren einen Blog über Heimwerker-Projekte. Anfang des Jahres hat er gemerkt, dass sein Traffic einfach nicht wächst. Also hat er sich vorgenommen, mal richtig unter die Haube zu schauen.
Januar 2024: Crawling und erste Schocks
Erste Januarwoche. Marco lädt sich Screaming Frog runter, die kostenlose Version. 500 URLs kann man damit scannen, das reicht für seinen Blog. Er startet den Crawl und wartet.
Nach 10 Minuten spuckt das Tool eine Liste mit 127 404-Fehlern aus. Links zu Bildern, die nicht mehr existieren. Interne Verlinkungen zu gelöschten Artikeln. Er hatte keine Ahnung, dass so viel kaputt war.
Dazu kamen 89 Seiten mit doppelten Title-Tags. Einfach Copy-Paste von einem Artikel zum nächsten. Google mag das überhaupt nicht.
Februar: Struktur und XML-Sitemap
Anfang Februar hat Marco dann seine URL-Struktur angeschaut. Seine Kategorie-Seiten hatten URLs wie "/cat-47-projects" statt "/holzarbeiten". Total kryptisch.
Er hat zwei Wochen damit verbracht, saubere Weiterleitungen einzurichten. Jede alte URL musste per 301-Redirect auf die neue zeigen. 83 Weiterleitungen insgesamt. Das war nervig, aber notwendig.
Dann die XML-Sitemap. Die hatte er nie aktualisiert. Da waren noch Seiten von 2022 drin, die längst gelöscht waren. Er hat sie neu generiert und bei Google Search Console eingereicht.
Mitte Februar bis Anfang März: Mobile und Schema Markup
Der Mobile-Friendly-Test von Google zeigte, dass seine Buttons zu klein waren. Auf dem Handy konnte man die kaum treffen. Er musste ins CSS und die Touch-Targets größer machen, mindestens 48x48 Pixel.
Ende Februar hat Marco sich dann an strukturierte Daten gewagt. Er wollte HowTo-Schema für seine Anleitungen. Hat sich ein Plugin installiert, aber dann gemerkt, dass das den Code total aufbläht. Also hat er es manuell in die Templates eingebaut.
März: Indexierung und Robots.txt
Anfang März checkt er nochmal die Search Console. 34 Seiten waren aus Versehen auf "noindex" gestellt. Seine wichtigsten Tutorial-Seiten waren gar nicht in Google.
Seine robots.txt blockierte außerdem das gesamte /resources/ Verzeichnis, wo wichtige PDFs lagen. Das hat er sofort gefixt.
Ende März waren 91 Prozent seiner Seiten sauber indexiert. Die Crawl-Fehler lagen bei unter 10. Marco meinte, der ganze Prozess hat ihm gezeigt, dass technisches SEO eigentlich nur geduldige Kärrnerarbeit ist. Nichts Glamouröses, aber es funktioniert.