Beiträge zum Thema SEO-Technik
Technische SEO ist das Fundament für eine gut funktionierende Website. Lerne, wie du Ladezeiten optimierst, Crawling-Fehler vermeidest und die Nutzungserfahrung verbesserst. Entdecke, wie du mit der richtigen technischen Struktur sicherstellst, dass Suchmaschinen deine Seite problemlos indexieren können.
Strukturierte Daten sind in Bezug auf SEO nicht uninteressant. Aber wie geht man vor, wenn für die eigene oder eine fremde Website prüfen möchte, welche Markups schon vorhanden sind – und welche noch fehlen? Mit welchen Tools kommt man hier in der Praxis am schnellsten voran?
Man liest derzeit häufig, dass strukturierte Daten (aka Markup) besonders wichtig für AI-Suchmaschinen sind. Was ist dran an der Behauptung? Welche 5 wichtigen Punkte gibt es dabei zu beachten?
Google kann mit JavaScript gut umgehen – oder nicht? Im Vergleich zu den Google-Anfängen hat sich viel getan. Während früher nur auf den HTML-Code geschaut wurde, rendert Google Seiten schon seit geraumer Zeit. Ist also mittlerweile alles in Butter? Keine Probleme mehr mit JavaScript?
In den letzten Monaten sind viele Informationen rund um Google öffentlich geworden – so auch die Themen Re-Ranking und Twiddler. Was hat es damit auf sich? Welche strategischen Empfehlungen folgen daraus? Warum müssen wir in der Folge das SEO-Mindset anpassen? Sprechen wir drüber – mit Hanns Kronenberg von Chefkoch.
Der URL bzw. dem URL-Pfad wird oft eine gewisse SEO-Wirkung zugesprochen. Ist das wirklich so? Welche Grundregeln gelten für URLs? Sollte die komplette Website-Struktur in der URL abgebildet werden? Oder doch besser ein ganz flaches URL-Schema?
Wer Inhalte für Suchmaschinen sperren möchte, hat dafür zwei Möglichkeiten: noindex oder robots.txt. Aber welchen dieser beiden Wege sollte man bestreiten? In welchen Fällen entscheidet man sich für welche Möglichkeit?
Google rendert Seiten, denn nur so kann Google die richtigen Schlüsse aus den Inhalten ziehen und auf alle Inhalte korrekt zugreifen. Aber was ist das Rendern überhaupt? Aus welchen Gründen ist es wichtig? Und wo kann es dort zu Problemen kommen?
Das Crawl Budget, das Google Websites spendiert, ist begrenzt. Zwei Reports in der Search Console helfen Dir dabei, das Ausmaß der Verschwendung zu bewerten – und dann natürlich auch Gegenmaßnahmen einzuleiten.
Internet ohne URLs – das geht nicht. Aber wie wichtig sind sie für SEO? Müssen Keywords in Domain und URL-Pfad rein? Können URLs auch zu lang sein? Was ist Groß-Schreibung? In dieser Episode gibt es daher 15 wichtige Einsteigerfragen rund um URLs.
Das HTTP-Protokoll versteckt sich in der Regel gut vor uns. Der Browser macht das schon für uns. Und doch kann es ab und zu sinnvoll sein, mal einen Blick in die Kommunikation zwischen Web-Server und Browser/Bot zu werfen. Denn SEO-relevante Informationen können sich in diesem „unsichtbaren“ Teil durchaus befinden.
In der Google Search Console gibt es im Report „Abdeckung“ die beiden Meldungen „Gecrawlt – zurzeit nicht indexiert“ und „Gefunden – zurzeit nicht indexiert“. Was bedeutet das? Wie geht man damit um? Und wie kann die URL Inspection API dabei helfen?
Egal ob du den Screaming Frog SEO Spider oder ein anderes Crawling-Tool nutzt: Häufig muss man sich entscheiden, ob man die Inhalte rendern möchte oder nicht. Und darüber sollte man schon nachdenken, denn das Rendern kostet Zeit und Ressourcen.
Rund um XML-Sitemaps gibt es immer Mythen, Fragen und Hoffnungen. Aber was bringen die nun wirklich? Braucht man die unbedingt oder ist es eher ein Nice-To-Have? Welchen Effekt haben die unterschiedlichen Attribute, die man dort eintragen kann, auf SEO? Fragen über Fragen …
Das Sperren von Inhalten für Suchmaschinen bietet sich bei vielen Websites an. Aber warum sollte man Inhalte überhaupt sperren? Welche Methode nimmt man dafür – Noindex oder robots.txt? Und wie kann man Gefahren aus dem Weg gehen?
Die Detailfrage, ob ein HTTP-Code 404 oder 410 nun besser sei, um Seiten schnell aus dem Index zu entfernen, wird oft gestellt. Was ist nun besser? Und ist das überhaupt relevant?