Meine Blog-Liste

Mittwoch, 4. Juni 2014

140528_Webmaster_Tool_IT

Liebes Tagebuch, ...

Nachtrag vom 28.05.:

Ein kurzer Überblick zum Webmaster Tool



Ein kurzer Rückblick auf die Faktoren, die das Google Ranking beeinflussen
  • Anzahl indexierter Seiten
  • Ladezeiten, unwichtige Dinge auslagern
  • Alter der Domain
  • Sitemap sollte vorhanden sein
  • H2 Überschriften, darfs mehrmals geben
  • Traffic der Seite
  • Seite in Lokalen Verzeichnissen eingetragen
  • Social Media Monitoring
  • robots.txt
  • Titel und Description
  • Multimedialität sollte gegeben sein
  • Bilder sollten Beschreibungen und Titel haben
  • Anzahl seiteninterner Links
  • Keine toten Seiten, z.B. nach Einpflege von Permalinks
  • Favicon (kleines Icon/Symbol, das z.B. in der URL gezeigt wird)
  • kein doppelter Content
  • Alle Kriterien sollten auch auf der mobilen Version verfügbar sein.

Webmaster- Tool

Dabei handelt es sich um ein zentrales Tool für die Onpage / Offpage Optimierung. Alle eigenen Domains sind dort einpfleg- bzw. steuerbar.

Loggt man sich im Webmaster-Tool ein, erhält man zunächst eine Übersicht aller verknüpfter Website.
Im Bereich "Darstellung der Suche" (= Suchergebnis bei Google)haben wir die folgenden Einstellungsmöglichkeiten:

1. Strukturierte Daten: Hierbei bearbeiten wir Inhalte unsere Website indem wir Google bei der Interpretation dieser helfen. Die Interpreatationen nun Google dann um sog. Rich Snippets in den Suchergebnissen einzublenden.
(https://support.google.com/webmasters/answer/99170?hl=de)
Wenn wir ganz fit in HTML sind, können wir das natürlich selbst machen (<spam itemprop = author> damit sage ich, das ist der Autor) oder uns hier (http://schema.org/) Hilfe suchen, ...
aber wir nutzen lieber einen Rich Snippet Generator.

Der Rich Snippet Generator vereinfacht uns das Leben. (http://rich-snippet-generator.de/schema-events.html)  - Was können wir dort tun? Als HTML-Anfänger können wir den Rich Snippet Generator nutzen, um uns HTML-Codes zu generieren, die wir dann ganz einfach in unsere HTML Text im bspw. Blogeintrag kopieren können.
Wir können Rich Snippets für die folgenden Daten einstellen: Personen, Erfahrungsberichte (damit das angezeigt wird, mind. 30Bewertungen und 3,5 als Bewertungsdurchschnitt), Produkte, Events, Rezepte, Organisationen, Filme, Konzert mit Datum.

Das ganze könnte dann so aussehen, wie mein vorheriger Event-Eintrag:



Warum machen wir das? Damit uns bei der Google Suche nach z.B. Event Offpage Optimierung direkt unser Eintrag bei Google angezeigt wird mit Datum, Name, Ort,etc. - Toll!

Über den folgenden Link kann  man sein Snippet (URL oder HTML Code) überprüfen: http://www.google.de/webmasters/tools/richsnippets


Exkurs: Für die Snippets sind ja auch immer Verlinkungen zu Google+ schön, sodass hier auch nette Snippets in den Suchergebnissen angezeigt werden. Dafür haben wir den folgenden (natürlich vorher angepassten) HTML Code in unseren Blog (Vorlage / HTML bearbeiten) in den Header (d.h. wird auf jeder Seite angezeigt) eingefügt:



Das sieht dann wie folgt (oben Links) in unserem Blog aus:


Ein Test-Tool für strukturierte Seiten: http://www.google.de/webmasters/tools/richsnippets?q=uploaded:8004fa7165aef6d694a2f40606a9901f


2. Data Highligher: Der Data Highlighter ist ein Hilfsmittel zur Markierung von Inhalten. Er hilft, meine Artikel zu strukturieren. Dabei bestimmen wir bspw. für einen Blogeintrag, was das Datum ist, was ein Bild ist, was Überschriften sind, etc. Nicht all diese Inhalte werden bei Suchanfragen angezeigt.

HTML-Verbesserung: Anzeige von Fehlern im HTML Codes, wie z. B. doppelte title Tags.

Sitelinks: Automatisch generierte Links, die unter den Suchergebnissen für die Website erscheinen können. Man kann bis zu 100 Sitelinks-URL abwerten, d.h. verbieten, dass die Unterseite als Sitelink auftaucht. Kann zum Beispiel für die Bereiche Impressionen oder Datenschutz sinnvoll sein. Ich kann also verbieten, dass ein Google Ergebnis zur Unterrubrik Honig Datenschutz oder Impressum auftaucht.
Durch das Anlegen von strukturierten Daten kann ich Klicks generieren. Sehen wir uns einen solchen
Aufbau eines Google-Suchergebnisses einmal an:
Titel/Snippets (Beschreibung)/Sitelinks (Shirtinator.de, Frauen Shirts, Männer Shirts, ... aber auch Impressum oder Datenschutz)/Suche/URL/Ereignis Rich Snippet/Breadcrumps (Vergabe einer Kategorie)/Produkt Rich Snippet (mind. 30 Bewertungen bzw. Bewertung von 3,5)/Infos zum Autor. Zudem lassen sich Bilder hinterlegen und als Artikel kennzeichnen.

Suchanfragen


Suchanfragen: Hier werden die häufigsten Suchanfragen sowie die häufigsten gezeigten Unterseiten/Seiten angezeigt. Man könnte jetzt z.B. die häufigsten Suchanfragen nutzen, um Keywords abzuleiten. Außerdem kann man so analysieren, ob die Suchenden die Anfragen im Web, Mobil oder Bild starten, wo sie sich regional aufhalten und wie die Zugriffszahlen sind. Dies hilft mir dann z.B. um beliebte Suchbegriffe evtl. in meine Keywords einzubauen oder per Online PR eine Artikelserie zu starten


Links zu Ihrer Website : Häufig werden, um Verlinkungen herzustellen, einfach Links in Websiten einfügt. Das ist natürlich nur erwünscht, wenn auch eine Relevanz vorliegt. Hier findet sich auch die Schnittstelle zur Offpage Optimierung.
Bsp. Zalando: führt die Top-Marken auf, wie z. B. Adidas. Der hohe PageRank von Zalando überträgt sich auf die Top Marke ... oder die beliebtesten Artikel ... oder diese Artikel haben die User auch gekauft ... --> es kann also auch jede interne Verlinkung gepusht werden, die weniger gefragt ist, wie Gummistiefel oder Abendkleider. 

Interne Links:
Interne Links sind Verlinkungen innerhalb meiner Website, wenn ich von einer Unterseite zu einer anderen Seite verlinke.

Manuelle Maßnahmen:  Hier werden Warnungen erteilt, wenn Google bzw der Google Pinguin oder der Google Panda festgestellt haben, das Linkfarmen erstellt wurden oder es Seitenfarmen (habe ich Content allein für Suchmaschine erzeugt und hierzu diverse Blogs gegründet --> Keyword Stuffing; aufspürbar durch Abspringraten) gibt. Hier erfolgt die Abmahnung bzw. Aufforderung der Korrektur.



Google Index


Indexierungsstatus: Hier findet sich eine Übersicht meiner indexierten Seiten. Wenn ich sehe, dass die Anzahl meiner indexierten Seiten höher als die Anzahl meiner tatsächlich geschriebenen Seiten ist, dann sollte ich hier mal nachprüfen, woran dies liegen könnte.

Gründe können z.B. sein, dass die Seite mit und ohne "www" aufrufbar ist, oder über "http" sowie "https" oder das Trackingparameter bzw. Session IDs daranhängen.  Mehr Informationen hierzu sowie zur Lösung über sogenannte Canoncial Tags, d.h. Festlegen einer bevorzugten Domain/Seite,  findet man hier: http://www.canonical-tag.de/



Content Keywords: Hier eine Übersicht der Keywords, die man innerhalb seines Content nutzt mit Angabe der Häufikeit und Variationen, die man nutzt.  Hier könnte ich z.B. auch feststellen, ob ich Wörter häufig falsch schreibe und dies korrigieren. Oder aber ich nutzt dies, um analysieren, ob ich ggf. mehr Synonyme einsetzen sollte, um auch weitere Keywords in meinen Content einzubauen.

URL´s entfernen:
Hier kann man bestimmte URL´s entfernen, weil man z.B. einen Permalink geändert hat und die alte URL nur zu einer toten Seite führt. Diese "Broken Links" werden dann gelöscht. Alternativ kann man aber natürlich auch Weiterleitungen einrichten. 

Crawling


Crawling-Fehler: Hier wird angezeigt, wenn Fehler auf Desktop bzw. Smartphone Darstellung passieren. Diese sollten dann natürlich korrigiert werden; oder Antwortcode 404 (tote Seite).


Crawling-Statistiken: Kurzer Überblick, wann der Google Crawler vorbei kam, wie viele Kilobytes er runtergeladen hat und wie lange das gedauert hat (--> Pagespeed).

Abruf wie durch Google:
Indexierung anstoßen (wenn Abruf erfolgreich, dann Versand an Index).

Blockierte URLs: Hier kann man eine robots.txt anlegen, wenn ich z.B. nicht möchte, dass der Inhalt einer bestimmten Seite bei den Suchergebnissen angezeigt wird. Sagt den Suchmaschinen, wie sie scrawlen sollen.


Sitemaps: Sitemaps sind Datenbanken über URLs im Netz. Wenn man eine Bloggerseite verknüpft hat, kann man hier einfach "atom.xml" hinzufügen und die Sitemap wird automatisch generiert. Auch regelmäßige Aktualisierungen werden anschließend hier wahrgenommen. 

URL-Parameter: Hier sind beispelsweise Trackingfunktionen / IDs zu hinterlegen. Dann kann die Website effizienter gescrawlt werden.

Google Labs


Autorenstatistik: Hier könnte ich sehen, wer meine besten Autoren sind bzw. welche Artikel am häufigsten geklickt werden. Macht natürlich nur Sinn, wenn es mehrere Autoren für eine Seite gibt. Aber wenn ich weiß, dass die Artikel eines bestimmten Autoren besonders beliebt sind, kann ich diesen Autoren besonders pushen, damit meine Website noch mehr Klicks generiert.


Andere Ressourcen: Hier gibts dann nochmal einen Überblick zu hilfreichen Tools wie etwa dem Test-Tool für strukturierte Daten, Email Markup Tester, Google Merchant Center, Pagespeed Insights, Places, etc.

Für alle wesentlichen Themen zum Webmaster Tool empfiehlt sich das folgende pdf: http://www.trustagents.de/docs/google-webmaster-tools-e-book-stephan-czysch-trust-agents-v3.pdf



Exkurs: Blog löschen via
1.  Blog löschen         benutzerdefiniert robot.txt
2.  Für Suchmaschine ausblenden
3.  Sucheinstellungen --> no Index

Exkurs: Tipp für kostenpflichtigen Blog = wordpress.org
Vorgehen: Hole mir von strato.de zwei Datenbanken für je 2,99, um dann mit wordpress.org zu starten

Keine Kommentare:

Kommentar veröffentlichen