Meine Blog-Liste

Mittwoch, 4. Juni 2014

140527_Onpage_Optimierung_IT

Liebes Tagebuch, ...

Nachtrag vom 27. Mai:


OnPage Optimierung

Die OnPage Optimierung bezieht sich vor allem auf die Ergebnisse, die in der organischen Suche gezeigt werden, d.h. meine Website muss also so gut sein (Content, indexierte Seiten, etc.), dass Google mich auch gut finden kann.

Wie findet Google raus, wie gut meine Website ist? Dafür wird mit sogenannten Spider oder Crawler gearbeitet (https://support.google.com/webmasters/answer/1061943?hl=de). Websites wie Webconfs (http://www.webconfs.com/search-engine-spider-simulator.php) bieten die Möglichkeit Websiten zu überprüfen. Hierfür muss einfach die gewünschte URL eingegeben werden.

Was lesen diese Spider aus?
  • Content
  • Bilder können sie nicht auslesen, daher ist viel Text wichtig (Stichwort: Density)
  • Meta-Infos (Keywords / Description)
  • Links (ausgehend und eingehend bzww. extern und intern)


Um zu verstehen, wie und wo ein Crawler oder Spider diese Informationen findest, muss man die HTML Struktur der Website betrachten:


Grundsätzlicher Aufbau: HTML besteht aus 2 Teilen:

<head>  Infos nur für die Suchmaschine
</head>

<meta> Metainfos für Crawler, z. B. Titel mit bis zu 6 Keywords (erhöht Density)
<meta name="keywords" content="Keyword1, keyword2...bis 6-Begriffe" /> für Google uninteressant aber für andere Suchmaschinen relevant

Snippet: Tools zur Überprüfung http://www.seomofo.com/snippet-optimizer.html
<meta name="title" content="Keyword" /> 
<meta name="description" content="Keyword" />


Autor:
<meta name="author" content="Dein Name">
<a href='https://plus.google.com/ProfilID' rel='author'>Über mich</a>
<a href='https://plus.google.com/SeitenID' rel='publisher'>Google+Seite</a> |


--> Google+ Profile sind auch wichtig für die Websites, denn wie wir ja bereits wissen, werde die Autoren immer wichtiger für Google und Google pusht auch Marken.

<body> Infos für die Suchmaschinen und den User, d.h. alles was man sieht auf einer Seite.
Besteht aus Überschriften (keywords)
h1 = Headline 1 = darf nur 1x vorkommen (--> daher Keyword); Titel meiner Site
h2= Headline 2 = darf mehrmals vorkommen, die wichtigste Überschrift, daher unbedingt Keywords einfügen (artikelspezifisch, daher Google relevant). (Bsp.: Kleehonig - alle Zutaten; Kleehonig, wie ihn andere sehen; Kleehonig - ein Exkurs ... integriere somit mehrere h2 in meinen Text)
h3 - h6

</body>

Was gibt es zu beachten:
Die Gestaltung von Seiten (Farben, Schatten, Schrifttypen, ...) (CSS) sollte ausgelagert werden, damit die Seite schneller ist bzw. der Crawler sie schneller analysieren kann. Ziel ist es u.a. ein sauberes und modernes HTML zu gewinnen. Diverse Website-Checker ("saubere Programmierung") bieten hier Hilfestellung: seitenreport.de od. validator.w3.org oder woorank.com.
Außerdem sollte eine URL nur max. 5-6 Ebenen tief sein & das Keyword möglichst weit vorne platziert sein. Beachte: Bei der URL (vor allem Erstellung von Permalink): In den URL bedeutet "-" = "und/oder" für die Suchmaschinen und "/" die Trennung von Wörtern.

Wie finden wir nun raus, wie gut oder schlecht unsere Seite ist? Dafür gibt es SEO Tools wie bspw. Seitenreport.de. Hier können wir unsere Website eingeben und erhalten einen kostenlosen Bericht (Traffic, Klicks, Aufrufe, Social Media Scanning ... alles wird gezählt) zur Website mit Bewertung einzelner Rankingfaktoren. (Alle Kriterien gelten natürlich auch für die mobile Version.) Im folgenden eine Übersicht einiger Rankingfaktoren:


  1. Technische Struktur
    • Bewertung, ob HTML oder CSS Fehler vorliegen. Zudem Bewertung von Spaghetti-Codes oder ausgelagertem CSS
  2. Suchmaschinen, Verzeichnisse und SEO
    • Informationen zum Google PageRank, indexierten Seiten sowie Backlinks
    • Robots, mit einem robots.txt kann ich dem Crawler mitteilen, welche Inhalte meiner Website nicht relevant für die Suchanfragen sind. Ich versuche ihm also quasi zu "verbieten", dass er bestimmte Dinge indexiert. Allerdings muss man dazu sagen, dass der Crawler sich das trotzdem anguckt, wenn Google das gerne möchte.  Dafür würde ich dann
      • #robots.txt
        • User agent:*
        • Allow:/Images
        • Disallow:/Wp/comment/
        • Disallow:/admin (erlaube Google nicht, in meinen Adminbereich einzusehen)
        • Disallow:/wp-login/
    • Sitemap
      • Website/Server/Verzeichnisse:
        • Ordner "meine Website"
          Ordner "CSS"
          Ordner "Images"
          Ordner "Admin"
    • Gültige Fehlerseite
    • Douplicate Content
    • Interne & Externe Links
    • Meta-Descriptionund Meta-Keywords --> ganz wichtig für das Snippet
  3. Keywords
  4. Social Media
    • Likes bei Facebook, etc.
  5. Performance und Datentransfer
    • Antwortzeiten und Ladezeiten der Website: umso schneller die Seite lädt, umso besser
  6. Benutzerfreundlichkeit
    • Titel-Attribute mit Mehrwert / Alt-Attribute bei Bilder: Wie bereits oben steht, können die Crawler Bilder nicht lesen. Allerdings kann man den Bildern ein Titel geben, den der Crawler dann sehen kann bzw. dem Bild einen Titel geben, sodass der User wenigstens die Bildbeschreibung sieht, wenn sich das Bild nicht lädt
    • Individuelle Fehlerseite:  Sollte ein Link nicht funktionieren, erhält der User einen vorher hinterlegten Text wie "Ups.. das ist wohl was schief gelaufen" angezeigt, nicht nur einen Fehlercode, den der User im Zweifel nicht versteht
  7. Zugriffzahlen
    • AlexaRank für Deutschland/Österreich/Schweiz
    • Seitenaufrufe / Aufenthaltsdauer und Absprungsrate
  8. Inhalte
    • Referenziert in Wikipedia
    • Textgütebewertung in Form eines Flesch-Wertes
  9. Sicherheit und Datenschutz
    • Wird die Anonymisierungsfunktion von Google verwendet, Verbindung zu Facebook, Plugins, Links zu Malware oder Spam, etc.
  10. Reputation
    • Angaben zum Web of Trust oder Alexa Review
  11. Server- und Domaindaten
  12. Im Anschluss werden sogar noch spezifische Verbesserungsvorschläge für die Website ausgegeben
Eine Übersicht findet sich auch unter http://webtalk-blog.de/wp-content/uploads/2013/10/rankingfaktoren_google.jpg.
Außerdem: https://www.youtube.com/watch?v=_FxsDywrADA oder https://www.youtube.com/watch?v=PM9TTbYJ1Ck.


Welche Parameter kann ich nun bearbeiten, um das Ergebnis meiner Website zu verbessern?
Machen wir dies am Beispiel unseres Blogs:

1. Permalink: Wir können im Post selber (am besten vor Veröffentlichung) einen benutzerdefinierten Permalink anlegen, um dann unsere URL selbst zu bestimmen und so die Möglichkeit zu nutzen unsere Keywords mit einzubringen.


2. Beschreibung für Suchmaschinen einstellen. Dies geht auf Ebene des Post sowie auf Ebende des Blogs selbst. Hierfür unter Einstellung / Sucheinstellung/Meta Tags die Beschreibung aktivieren und formulieren. Bzw. im Post auf der rechten Seite einfügen.
Wie immer: Keywords, Keywords, Keywords - aber bitte kein Keyword-Stuffing!
3. Fehler & Weiterleitung
Benutzerdefinierte Seite für "Seite nicht gefunden". Hier kann man etwas nettes reinschreiben wie: "Ups... das hat leider nicht geklappt. Versuch es doch bitte nochmal auf der Hauptseite".
Benutzerdefinierte Weiterleitung, d.h. voreingestelle Weiterleitung zu Links. Besonders auch für den Fall, dass wenn man einen Permalink für einen bereits veröffentlichen Eintrag erstellt, da der alte Link somit nicht mehr erreichbar ist. Beachte: URLs sind für die Ewigkeit, d.h. nur löschen oder verändern des Links reicht nicht, die alte URL schwirrt trotzdem im Netz rum.
4. Benutzerdefinierte Crawler und Indexierung. Hier kann man Robots für den Crawler einstellen, allerdings sollte man dafür die Blogstrukturen kennen.
Robots.TXT
www.meineWebsite.de/meineURL
www.meineWebsite.de/search/meineURL ... doppelter Content, erlaube bei search keine Einsicht
www.meineWebsite.de/meinetoteURL ... integrieren der gelöschten Seite, da tote Seiten sonst im Netz kursieren (URLs sind für die Ewigkeit) oder ich verweise von toter Seite auf aktuelle Seite (Wochenangebote Tchibo --> verweise von ausverkauftem Scannerangebot auf ScannerÜbersicht).
5. Benutzerdefinierte Robots-Header-Tags
Ich kann dem Robot z. B. sagen, dass er etwas nicht in den Index setzen soll (Content nicht in den Index verpacken; dagegen Startseite stets in den Index).
6. Titel und Alternativtexte bei Bildern: Generell sind ja Post ohne Bilder nicht so toll - (ich machs trotzdem so weiter) - normalerweise fügt man ja die Bildunterschrift ein, aber man kann auch Bildeigenschaften einfügen. Bei den Bildeigenschaften sind Titeltexte sowie Alternativtexte einzufügen. Der Titeltext ist der hinterlegte Text, den die Suchmaschinen sehen (daher: Integration Keyword). die Alternativtexte sind die Texte, die angezeigt werden, falls das Bild nicht geladen werden kann oder aber Blinden ausgelesen wird.

1 Kommentar:

  1. Danke fuer den Blog und die ausführliche Information in bezug auf On-page-optimierung.

    Das Thema der Onpage-optimierung ist meiner Meinung nach tendenziell die technischere Variante vom SEO und oft auch die kompliziertere, wobei Off- wie onpageoptimierung einiges an Blackhat-Tricks erlebt haben.

    Alexander von seo suisse

    AntwortenLöschen